Information

Was ist der kleinste Unterschied in der Lichtwellenlänge, den das menschliche Auge wahrnehmen kann?

Was ist der kleinste Unterschied in der Lichtwellenlänge, den das menschliche Auge wahrnehmen kann?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Gibt es eine untere Grenze für den Unterschied in der Wellenlänge (Farbe), den unsere Augen erkennen können? Wenn ja, ist dies zwischen Einzelpersonen konsistent? Gibt es noch andere Merkmale, die mit dem präzisen Farbsehen korrelieren?


Das Auge kann wirklich 3 Farben wahrnehmen, oder genauer gesagt nur drei Arten farbempfindlich, von denen jede einen großen Wellenlängenbereich erkennt, ohne dass sie innerhalb desselben Kegels unterschieden werden können. Wir bestimmen die Farbe nur durch die unterschiedlichen Aktivierungsstufen zwischen den verschiedenen Zapfenzellen. Das bedeutet, dass wir viel Licht brauchen, um Farben zu sehen, und unsere Fähigkeit, Farbunterschiede zu erkennen, hängt stark davon ab, wo im sichtbaren Spektrum diese Farbe fällt.

Was genaueres Farbsehen angeht. Je größer die Anzahl der Arten von Zapfenzellen ist, desto farbempfindlicher ist das Auge, Vögel und Reptilien können weit mehr Farben sehen als verbrauchen, da sie 4 Arten von farbempfindlichen Zellen im Gegensatz zu den menschlichen 3 haben Empfindlichkeit. Aus diesem Grund ist das menschliche Farbsehen selbst bei Trichromaten schlecht, da zwei unserer Grundfarben eng beieinander liegen und sich stark überlappen. Das liegt daran, dass Menschen (und Primaten) sekundär Trichromaten sind und eine dritte Grundfarbe durch eine kürzlich erfolgte Mutation erhalten. Wiki zum Thema


Gibt es eine untere Grenze für den Unterschied in der Wellenlänge (Farbe), den unsere Augen erkennen können?

Der durchschnittliche Mensch kann Farbunterschiede von nur 1 nm erkennen, abhängig von der Farbe abhängig von:

  • minimale Fleckgröße - "Mapping the Perceptual Grain of the Human Retina", von Wolf M. Harmening, William S. Tuten, Austin Roorda und Lawrence C. Sincich im Journal of Neuroscience 16. April 2014, 34 (16) 5667-5677; DOI: https://doi.org/10.1523/JNEUROSCI.5191-13.2014

  • Hintergrundfarbe - "Empfindungen von einem einzelnen M-Kegel hängen von der Aktivität der umgebenden S-Kegel ab", von Brian P. Schmidt, Ramkumar Sabesan, William S. Tuten, Jay Neitz und Austin Roorda in Scientific Reports Band 8, Artikelnummer: 8561 (2018) DOI: https://dx.doi.org/10.1038%2Fs41598-018-26754-1

  • Lage des Kegels, Nähe zu Blutgefäßen - "Selective Stimulation of Penumbral Cones Reveals Perception in the Shadow of Retinal Blood Vessels", von Manuel Spitschan, Geoffrey K. Aguirre und David H. Brainard, in PLoS ONE 10(4):e0124328 (April 2015) DOI: https://doi.org/10.1371/journal.pone.0124328

Die folgende Grafik zeigt die minimalen und maximalen Diskriminationswerte bei verschiedenen Frequenzen:

Abbildung 13. Mittlere Wellenlängen-Diskriminierungskurve. (Aus Davson, H., The Eye, Bd. 2. London, Academic Press, 1962)

Quelle: Farbwahrnehmung von Michael Kalloniatis und Charles Luu

Quelle: Berechnung der Kegelgrundlagen (Farbanpassungsfunktionen) in Bezug auf Energie für verschiedene Feldgrößen und -alter basierend auf CIE 170-1, Tabellenkalkulation erstellt von Mark Fairchild ([email protected]), RIT Munsell Color Science Laboratory (mcsl .) .rit.edu), vom Rochester Institute of Technology, Program of Color Science: Nützliche Farbdaten.

Wenn ja, ist dies zwischen Einzelpersonen konsistent?

Nein.

Individuelle Variationen der photopischen Empfindlichkeit

Ergebnisse für 52 Personen, basierend auf heterochromatischer schrittweiser Helligkeitsanpassung; "Die Sichtbarkeit der Strahlungsenergie" Gibson, Tyndall und Kasson (1923)

Eine neuere Studie, "Individual Differences in Scotopic Visual Acuity and Contrast Sensitivity: Genetic and Non-Genetic Influences" (17. Februar 2016), von Alex J. Bartholomew, Eleonora M. Lad, et al., PLoS One. 2016; 11(2): e0148192. DOI: 10.1371/journal.pone.0148192 PMCID: PMC4757445, bietet einen anderen Varianzplot (ohne nm):

Abb. 1. Test-Retest-Bewertung. Dargestellt sind vier Datensätze: Sehschärfe (linkes Bild) und Kontrastempfindlichkeit (rechtes Bild) bei photopischer Leuchtdichte (grüne Dreiecke, links oben und bei skotopischer Leuchtdichte (blaue Scheiben, links unten). Ergebnis des ersten Tests auf der Abszisse , zweiter Test auf der Ordinate Graue 45°-Linie ist die Identitätslinie, daneben die ± Übereinstimmungsgrenzen (photopisch, gestrichelt; skotopisch, gepunktet) Die Sehschärfe in logMAR-Einheiten hat eine invertierte Skala und die Kontrastempfindlichkeit ist in logCSWeber-Einheiten, d.h. eine bessere Performance entspricht oben rechts für beide Grafiken. Wie erwartet sind photopische Messungen von VA oder CS deutlich besser als skotopische. Die 95%-Übereinstimmungsgrenzen sind bemerkenswert ähnlich. Insgesamt gibt es keine ausgeprägten Abweichung von einer Normalverteilung, und die Zuverlässigkeit ist für den gemessenen Bereich gut.

Gibt es noch andere Merkmale, die mit dem präzisen Farbsehen korrelieren?

Für Ihre dritte Frage, über dem Limit von einer Frage pro Beitrag, biete ich diese Links an (ich werde, wenn es die Zeit erlaubt, darauf zurückkommen):

Die Website Handprint hat diese Webseiten:

  • Wahrnehmungsdiskriminierung messen

  • Individuelle Unterschiede im Farberlebnis

  • Farbe und Sprache

Siehe auch:

  • "Farbbenennung in verschiedenen Sprachen spiegelt die Farbverwendung wider", von Edward Gibson, Richard Futrell, Julian Jara-Ettinger, Kyle Mahowald, Leon Bergen, Sivalogeswaran Ratnasingam, Mitchell Gibson, Steven T. Piantadosi und Bevil R. Conway in PNAS 3. Oktober 2017 114 (40) 10785-10790; Erstveröffentlichung 18. September 2017 https://doi.org/10.1073/pnas.1619666114

  • Menschliches Farbsehen

  • Unterrichten Sie die richtige Farbtheorie in der Schule

Kurz: Präzise Farbwahrnehmung ist nicht nur die Fähigkeit des Auges, sondern auch das Training des Gehirns (verschiedene ähnliche Farben sehen und unterscheiden zu müssen) und das Lehren des Wortschatzes, das Erlernen der Unterschiede und die erlernte Anwendung von dies in der Praxis.


Die erste Frage kann ich nicht beantworten.

Aber ja, es gibt eine obere und untere Grenze für die Lichtfrequenz, die das menschliche Auge wahrnehmen kann. Aus diesem Grund sind Mikrowellen, Infrarot-, Ultraviolett- oder Gammastrahlen nicht sichtbar. Angesichts der Lichtkegel, die der Mensch hat, sind die Grenzen innerhalb der Art konsistent. Da jedoch die genaue Anzahl jedes Lichtkegels (rot, blau, grün) von Person zu Person variiert, wird die Empfindlichkeit gegenüber einer bestimmten Farbe von Person zu Person variieren. So können wir beide blau sehen. Aber mein Blau ist vielleicht blauer als deins.

Zu beachten ist, dass es in der menschlichen Bevölkerung zwei Varianten des grünen Lichtkegels gibt. Man hat eine Sensibilität, die bis ins Rot gemildert ist. Und das Gen für den grünen Lichtkegel liegt auf dem X-Chromosom. So haben etwa 2-3% der Frauen auf der Welt beide Varianten und damit eine bessere Farbunterscheidung.

https://en.wikipedia.org/wiki/Tetrachromacy

PS: Ja… es gibt farbenblinde Menschen. Und wenn man farbenblinde Menschen einbezieht, dann gibt es einige Menschen, die eine engere Farbwahrnehmung haben als die meisten Menschen.


Erstens hängt es stark von der Helligkeit ab. Und auch vom Teil des Spektrums: Wir haben eine hohe Genauigkeit zwischen Rot-Grün (da 2 der Kegel eine enge Empfindlichkeit haben) und sehr wenige in tiefem Rot und Violett (wobei meistens ein einzelner Kegel reagiert).

Wie immer gibt es Unterschiede zwischen den Individuen. Kleine + große im Zusammenhang mit den Schwankungen der Spitzenempfindlichkeit des Kegels (oder fehlender oder zusätzlicher Kegel).

Darüber hinaus scheint es einen kulturellen Faktor zu geben: Einige Kulturen sind eher darauf trainiert, auf Unterschiede innerhalb von Blau-, Rot- oder Grautönen zu achten.


Etwa 2 nm Wellenlängenunterschied. Das menschliche Auge kann etwa 150 verschiedene Farbtöne in einem Regenbogen erkennen, der für uns aus einem sichtbaren Licht von 380-700 nm besteht. Ungefähr 300 nm/150 Farbtöne = 2 nm pro kleinstem erkennbaren Unterschied zwischen zwei Farbtönen. Ich denke, das ist die Antwort, die Sie gesucht haben?


Das menschliche Auge kann ein einzelnes Photon erkennen, Studienergebnisse

Ihre Augen sind möglicherweise empfindlicher, als Sie es jemals für möglich gehalten hätten.

In einer am Dienstag in Nature Communications veröffentlichten Studie berichten Forscher, dass unsere warmen, feuchten, vielzelligen Augen eine so hohe Empfindlichkeit entwickelt haben, dass sie gelegentlich ein einzelnes Photon erkennen können, das auf die Netzhaut gerichtet ist.

Selbst die anspruchsvollsten künstlichen Geräte erfordern eine kühle, temperaturkontrollierte Umgebung, um dasselbe zu erreichen.

Ein einzelnes Photon ist das kleinste Teilchen, aus dem Licht besteht, und es ist extrem schwer zu sehen.

„Es ist nicht wie ein schwacher Lichtblitz oder ähnliches“, sagte Alipasha Vaziri, Quantenphysiker an der Rockefeller University in New York City und leitender Autor des Papiers. "Es ist eher ein Gefühl, etwas zu sehen, als es wirklich zu sehen."

Er beschrieb es poetisch als „an der Schwelle der Vorstellungskraft“.

„Wenn Sie jemals einen schwachen Stern am Nachthimmel gesehen haben und in einer Sekunde sehen Sie ihn, aber in der nächsten Sekunde nicht – es ist ungefähr so“, sagte er.

Frühere Studien aus den 1940er Jahren haben gezeigt, dass das menschliche Auge nur fünf bis sieben Photonen erkennen kann. Aber ob ein einzelnes Photon nachweisbar wäre, erwies sich als schwer fassbar.

Obwohl Wissenschaftler in der Lage waren, Lichtquellen zu erzeugen, die im Durchschnitt jeweils ein Photon produzierten, konnten sie nicht sicher sein, ob jedes Mal, wenn die Lichtquelle gezündet wurde, ein, zwei, drei oder keine Photonen freigesetzt wurden.

Um dieses Problem zu lösen, verwendete Vaziris Team einen Prozess, der als spontane parametrische Abwärtskonversion (SPDC) bekannt ist, bei dem ein hochenergetisches Photon in einem Kristall spontan in zwei niederenergetische Photonen zerfällt. Eines dieser Photonen wird auf das Auge einer Person gerichtet, während das andere zu einem Detektor gesendet wird. Stellt der Detektor ein Photon fest, wissen die Forscher, dass die andere Hälfte des Paares zum Beobachter geschickt werden musste.

Die Studiengruppe war extrem klein. Es gab nur drei Teilnehmer – alle männlich und alle in den Zwanzigern. Sie alle hatten ein ausgezeichnetes Sehvermögen, obwohl ein Proband das seinen Kontaktlinsen zu verdanken hatte.

Vor Beginn des Experiments saß jeder Teilnehmer etwa 40 Minuten in einem komplett dunklen Raum, um sicherzustellen, dass seine Augen vollständig an die Dunkelheit angepasst waren. Sein Kopf wurde mit einer Kopfstütze und einer Beißstange in Position gehalten, um sicherzustellen, dass das Photon bei der Freisetzung auf den empfindlichsten Teil seiner Netzhaut gerichtet war.

Als sich der Proband bereit fühlte, löste er den Start des Experiments per Knopfdruck aus. Bald würde er zwei akustische Signale im Abstand von einer Sekunde hören. Danach wurde er gebeten anzugeben, welches Signal seiner Meinung nach von einem Photon begleitet wurde und welches ein Leerzeichen war. Schließlich musste er auf einer Drei-Punkte-Skala einschätzen, wie sicher er seiner Wahl war.

Vaziri sagte, die Strategie, die Teilnehmer zu zwingen, eine Wahl zu treffen – selbst wenn sie sich nicht sicher waren, ob sie richtig war – habe dazu beigetragen, die Probanden zu maximaler Sensibilität zu bringen.

„Das war der Schlüssel zu den Ergebnissen der Studie“, sagte er.

Ein einzelnes Photon oder beliebig viele definierte Lichtzustände zu erzeugen, ist nicht einfach. Erst kürzlich sei es Forschern, die hauptsächlich auf dem Gebiet der Quantenoptik und Quanteninformation arbeiten, gelungen, solche Lichtzustände routinemäßiger zu erzeugen, sagte Vaziri. Der Aufbau erfordert spezielle Kristalle und hocheffiziente Detektoren, aber selbst dann ist die Produktionsrate einzelner Photonen recht gering.

In diesem Fall von 30.767 Versuchen waren nur 2.420 Einzelphotonenereignisse, schrieben die Autoren. Diese Blindversuche dienten jedoch als Kontrolle, sodass die Autoren feststellen konnten, ob die Probanden beispielsweise voreingenommen waren, ob sie eher glaubten, dass das zweite Signal von einem Photon begleitet wurde. Es lieferte auch wertvolle Informationen über das Standard-Konfidenzniveau der Teilnehmer, sagte Vaziri.

Die Forscher berichten, dass die Probanden in 51,6% der Fälle korrekt bestimmen konnten, wann ein Photon abgefeuert wurde, was nicht so beeindruckend klingen mag, aber statistisch signifikant ist.

"Wenn es wirklich zufällige Vermutungen wären, gäbe es keine Möglichkeit, dieses Ergebnis zu erklären", sagte Vaziri.

Darüber hinaus lagen die Testpersonen in 60 % der Fälle richtig, wenn sie sich sehr sicher waren, ein Photon gesehen zu haben.

Die Autoren fanden auch heraus, dass die Beobachter ein einzelnes Photon eher richtig erkennen, wenn sie innerhalb der letzten 10 Sekunden einem anderen Photon ausgesetzt waren.

Obwohl sie nicht wissen, welcher Mechanismus diese flüchtige Erhöhung der Empfindlichkeit bewirken würde, spekulierte Vaziri, dass dies einen evolutionären Vorteil haben könnte.

„Wenn Sie es mit sehr dunklen Bedingungen zu tun haben und ein Photon sehen, würde das Sehen eines anderen kurz darauf Ihrem visuellen System helfen, zu erkennen, dass es sich wirklich um eine Lichtquelle handelt“, sagte er.

Er fügte hinzu, dass seine Gruppe zwar nicht wusste, wie empfindlich das menschliche Auge sein kann, bevor sie mit dieser Forschung begann, aber es macht Sinn, dass sich unsere Augen so entwickelt haben, dass sie selbst das kleinste Licht erkennen.

„Die Leute merken es nicht, aber wenn man sich in der Natur, weit weg von jeder Stadt, in einer mondlosen Nacht und unter einem Sternenhimmel aufhält, kann das Umgebungslicht das Niveau eines einzelnen Photons erreichen“, sagte er. "Unter diesen Bedingungen könnte der Unterschied zwischen der Fähigkeit, ein wenig besser zu sehen, um Raubtieren zu entkommen, einen evolutionären Effekt haben."

Lieben Sie Wissenschaft? Das tue ich! Folgen Sie mir @DeborahNetburn und „liken“ Sie Los Angeles Times Science & Health auf Facebook.


Linsen und Brechung

Im Rahmen der Mikroskopie, Brechung ist vielleicht das wichtigste Verhalten von Lichtwellen. Brechung tritt auf, wenn Lichtwellen beim Eintritt in ein neues Medium die Richtung ändern (Abbildung 3). Verschiedene transparente Materialien übertragen Licht mit unterschiedlichen Geschwindigkeiten, daher kann Licht die Geschwindigkeit ändern, wenn es von einem Material zu einem anderen übergeht. Diese Geschwindigkeitsänderung bewirkt in der Regel auch eine Richtungsänderung (Refraktion), wobei der Grad der Änderung vom Winkel des einfallenden Lichts abhängt.

Abbildung 3. (a) Brechung tritt auf, wenn Licht von einem Medium, z. B. Luft, zu einem anderen, z. B. Glas, übergeht und die Richtung der Lichtstrahlen ändert. (b) Wie in diesem Diagramm gezeigt, können Lichtstrahlen, die von einem Medium zu einem anderen gelangen, entweder gebrochen oder reflektiert werden.

Abbildung 4. Diese gerade Stange scheint sich schräg zu biegen, wenn sie ins Wasser eintritt. Diese optische Täuschung ist auf den großen Unterschied zwischen den Brechungsindizes von Luft und Wasser zurückzuführen.

Das Ausmaß, in dem ein Material die Übertragungsgeschwindigkeit relativ zum leeren Raum verlangsamt, wird als bezeichnet Brechungsindex dieses Materials. Große Unterschiede zwischen den Brechungsindizes zweier Materialien führen zu einer großen Brechung, wenn Licht von einem Material zum anderen übergeht. Zum Beispiel bewegt sich Licht durch Wasser viel langsamer als durch Luft, sodass Licht, das aus der Luft in Wasser eindringt, die Richtung stark ändern kann. Wir sagen, dass das Wasser einen höheren Brechungsindex hat als Luft (Abbildung 4).

Wenn Licht eine Grenze zu einem Material mit einem höheren Brechungsindex überquert, wird seine Richtung eher senkrecht zur Grenze (d. h. mehr in Richtung einer Normalen zu dieser Grenze, siehe Abbildung 4). Das ist das Prinzip dahinter Linsen. Wir können uns eine Linse als ein Objekt mit einer gekrümmten Grenze (oder einer Ansammlung von Prismen) vorstellen, das das gesamte auftreffende Licht sammelt und bricht, sodass es sich an einem einzigen Punkt trifft, der als bezeichnet wird Bildpunkt (Fokus). EIN konvexe Linse kann zum Vergrößern verwendet werden, da es auf einen geringeren Bereich als das menschliche Auge fokussieren kann, wodurch ein größeres Bild erzeugt wird. Konkave Linsen und Spiegel können auch in Mikroskopen verwendet werden, um den Strahlengang umzulenken. Abbildung 5 zeigt die Brennpunkt (der Bildpunkt bei parallelem Lichteinfall in das Objektiv) und der Brennweite (der Abstand zum Brennpunkt) für konvex und konkave Linsen.

Abbildung 5. (a) Eine Linse ist wie eine Ansammlung von Prismen, wie das hier gezeigte. (b) Wenn Licht durch eine konvexe Linse tritt, wird es zu einem Brennpunkt auf der anderen Seite der Linse gebrochen. Die Brennweite ist der Abstand zum Brennpunkt. (c) Licht, das durch eine konkave Linse tritt, wird von einem Brennpunkt vor der Linse weg gebrochen.

Das menschliche Auge enthält eine Linse, die es uns ermöglicht, Bilder zu sehen. Diese Linse fokussiert das von Objekten vor dem Auge reflektierte Licht auf die Oberfläche der Netzhaut, die wie ein Bildschirm im hinteren Teil des Auges ist. Künstliche Linsen, die vor dem Auge platziert werden (Kontaktlinsen, Brillen oder mikroskopische Linsen) fokussieren das Licht, bevor es (wieder) von der Augenlinse fokussiert wird, und manipulieren das Bild, das auf der Netzhaut landet (z größer).

Bilder werden üblicherweise durch Steuern der Abstände zwischen dem Objekt, der Linse und dem Bildschirm sowie der Krümmung der Linse manipuliert. Wenn sich beispielsweise ein Objekt näher an der Linse befindet, sind die Brennpunkte bei einem gegebenen Krümmungsbetrag weiter von der Linse entfernt. Daher ist es oft notwendig, diese Abstände zu manipulieren, um ein fokussiertes Bild auf einem Bildschirm zu erzeugen. Ebenso erzeugt eine stärkere Krümmung Bildpunkte näher am Objektiv und ein größeres Bild, wenn das Bild scharf ist. Diese Eigenschaft wird oft in Bezug auf die Brennweite oder den Abstand zum Brennpunkt beschrieben.

Denk darüber nach

  • Erklären Sie, wie ein Objektiv das Licht am Bildpunkt fokussiert.
  • Nennen Sie einige Faktoren, die die Brennweite eines Objektivs beeinflussen.

Wellenlängenbereich des sichtbaren Lichts

Der Mensch besitzt fünf Sinne, darunter die Fähigkeit zu sehen, zu hören, zu schmecken, zu riechen und zu fühlen. Die Fähigkeit zu sehen ist bei weitem die wichtigste der fünf. Das Sehen ermöglicht es uns, Dinge zu unterscheiden, zu erkennen, wenn sich etwas auf uns zu oder von uns weg bewegt, und auf gefährliche Zustände zu reagieren, bevor sie Schaden anrichten. Die Fähigkeit zu sehen macht auch die Ehrfurcht aus, die wir bekommen, wenn wir den Sonnenuntergang über dem blauen Ozeanwasser der weißen Sandstrände mit vielen hohen Palmen und Wasserfällen und keinem anderen Wesen in Sichtweite betrachten. Unsere Augen sind es, die uns das Sehen ermöglichen.

Unsere Augen sind darauf ausgelegt, einen kleinen Teil des elektromagnetischen Spektrums zu erfassen. Dieser Teil des Spektrums wird als sichtbarer Lichtbereich bezeichnet. Der Bereich des sichtbaren Lichts reicht von Wellenlängen von etwa 380 oder 400 nm bis 700 oder 780 nm, je nachdem, welche Quelle verwendet wird. Tatsächlich hängt es auch von der Empfindlichkeit der Augen einer bestimmten Person ab.

Lichtwellen breiten sich mit sehr hohen Geschwindigkeiten aus und werden von verschiedenen Objekten absorbiert oder reflektiert. Wenn alle Wellen absorbiert werden und keine unser Auge erreicht, sehen wir nichts und das Bild vor uns erscheint schwarz. Wenn das Objekt alle Wellenlängen des Lichts gleichmäßig reflektiert, erscheint das Objekt weiß gefärbt. Wenn ein Objekt andererseits Licht bestimmter Wellenlängen reflektiert, aber andere absorbiert, dann entspricht die Farbe des Objekts den reflektierten Wellenlängen. Jede Lichtwellenlänge entspricht einer Farbe, die von Menschen zur leichteren Erkennung zugewiesen wurde. Die längeren Wellenlängen erscheinen rot, während die kürzeren sichtbaren Wellenlängen blau oder violett erscheinen.


4 Antworten 4

Bei der Diskussion über die Anzahl der für das menschliche Auge wahrnehmbaren Farben Ich beziehe mich eher auf die 2,4 Millionen Farben des CIE 1931 XYZ-Farbraums. Es ist eine ziemlich solide, wissenschaftlich fundierte Zahl, obwohl ich zugeben muss, dass sie im Kontext begrenzt sein kann. Ich denke, es ist möglich, dass das menschliche Auge empfindlich ist auf 10-100 Millionen verschiedene "Farben" wenn man sich sowohl auf die Farbsättigung als auch auf die Leuchtkraft bezieht.

Ich werde meine Antwort auf die Arbeit von CIE stützen, die in den 1930er Jahren begann und in den 1960er Jahren wieder weiterentwickelt wurde, mit einigen algorithmischen und Genauigkeitsverbesserungen der Formel in den letzten paar Jahrzehnten. Im Bereich der Künste, einschließlich Fotografie und Druck, halte ich die Arbeit des CIE für besonders relevant, da sie die Grundlage für Farbkorrekturen und moderne mathematische Farbmodelle und Farbraumkonvertierung ist.

Die CIE, oder Commission internationale de l'éclairage, etablierte 1931 den "CIE 1931 XYZ-Farbraum". Dieser Farbraum war eine graphische Darstellung von Farbe in voller Reinheit, die von 700 nm (nahes Infrarot-Rot) bis 380 nm (nahe-UV) abgebildet wurde und durch alle Wellenlängen des "sichtbaren" Lichts fortschreitet. Dieser Farbraum basiert auf dem menschlichen Sehen, einem Tri-Stimulus, der durch die drei Arten von Zapfen in unseren Augen erzeugt wird: kurz-, mittel- und langwellige Zapfen, die auf die Wellenlängen 420-440 nm, 530-540 nm und 560-580 nm abgebildet werden . Diese Wellenlängen entsprechen den Primärfarben Blau, Grün und Gelb-Rot (oder Orange-Rot). (Die roten Kegel sind insofern einzigartig, als ihre Empfindlichkeit zwei Spitzen hat, den ersten im Bereich von 560-580 nm und einen zweiten im Bereich von 410-440 nm. Diese doppelte Empfindlichkeit weist darauf hin, dass unsere "roten" Kegel können in Bezug auf die tatsächliche Empfindlichkeit tatsächlich "magenta" Zapfen sein.) Die Tristimulus-Reaktionskurven werden aus einem 2°-Sichtfeld der Fovea abgeleitet, wo unsere Zapfen am konzentriertesten sind und unser Farbsehen bei mittlerer bis hoher Lichtintensität in seiner größten.

Der tatsächliche CIE 1931-Farbraum wird aus XYZ-Farbtonwerten abgebildet, die aus roten, grünen und blauen Ableitungen generiert werden, die auf tatsächlichen roten, grünen und blauen Farbwerten basieren (additives Modell). Die XYZ-Farbwerte werden angepasst für ein "Standardlicht", das normalerweise ein sonnenlichtbalanciertes Weiß von 6500K ist (obwohl der ursprüngliche CIE 1931-Farbraum für drei standardisierte Lichtarten A 2856K, B 4874K und C 6774K erstellt wurde), und nach einem "Standardbeobachter" gewichtet (basierend auf auf diesem 2° fovealen Sichtfeld.) Das Standard-CIE 1931 XYZ-Farbdiagramm ist hufeisenförmig und gefüllt mit einem "Chromatizitätsdiagramm" reiner "Farben", das den Farbtonbereich von 700 nm bis 380 nm abdeckt und in der Sättigung von 0 reicht % zentriert am Weißpunkt bis 100 % entlang der Peripherie. Dies ist ein "Chromatizitäts"-Diagramm oder eine Farbe ohne Berücksichtigung der Intensität (oder Farbe bei maximaler Intensität, um am genauesten zu sein.) Dieses Farbdiagramm repräsentiert nach einigen Studien (Referenzen ausstehend) etwa 2,38 Millionen Farben dass das menschliche Auge bei Beleuchtung mit mäßig hoher Intensität ungefähr die gleiche Farbtemperatur und Helligkeit des Tageslichts erkennen kann (nicht Sonnenlicht, das näher bei 5000k liegt, sondern Sonnenlicht + blaues Himmelslicht, etwa 6500k).

Kann das menschliche Auge also nur 2,4 Millionen Farben erkennen? Nach den Arbeiten der CIE in den 1930er Jahren, unter Berücksichtigung einer bestimmten Lichtart, die der Intensität und Farbtemperatur des Tageslichts entspricht und nur die 2° der Zapfen in der Fovea unserer Augen berücksichtigt werden, scheint es, dass wir es tatsächlich können sehen Sie 2,4 Millionen Farben.

Der Umfang der CIE-Spezifikationen ist jedoch begrenzt. Sie berücksichtigen nicht unterschiedliche Beleuchtungsstärken, Leuchtmittel unterschiedlicher Intensität oder Farbtemperatur oder die Tatsache, dass wir mehr Zapfen über mindestens 10° unserer Netzhaut um die Fovea verteilt haben. Sie berücksichtigen auch nicht die Tatsache, dass periphere Zapfen empfindlicher auf Blautöne reagieren als die Zapfen, die in der Fovea konzentriert sind (die hauptsächlich rote und grüne Zapfen sind).

Verfeinerungen der CIE-Chromatizitätsdiagramme wurden in den 60er Jahren und erneut im Jahr 1976 vorgenommen, wodurch der "Standardbeobachter" verfeinert wurde, um einen vollen 10° farbempfindlichen Fleck in unsere Netzhaut aufzunehmen. Diese Verfeinerungen der CIE-Standards wurden nie viel genutzt, und die umfangreiche Farbempfindlichkeitsforschung, die in Bezug auf die Arbeit von CIE durchgeführt wurde, beschränkte sich weitgehend auf den ursprünglichen CIE 1931 XYZ-Farbraum und Chromatizitätsdiagramm.

Angesichts der Beschränkung der Farbempfindlichkeit auf nur einen 2°-Punkt in der Fovea ist es sehr wahrscheinlich, dass wir mehr als 2,4 Millionen Farben sehen können, insbesondere in den Blau- und Violetttönen. Dies wird durch die Verfeinerungen der CIE-Farbräume in den 1960er Jahren bestätigt.

Der Ton, vielleicht besser als Leuchtkraft (die Helligkeit oder Intensität einer Farbe) bezeichnet, ist ein weiterer Aspekt unserer Vision. Einige Modelle vereinen Chromatizität und Leuchtkraft, während andere die beiden deutlich trennen. Das menschliche Auge enthält eine Netzhaut, die aus beiden Zapfen besteht. "farbempfindliche" Geräte sowie Stäbchen, die farbunabhängig sind, aber empfindlich auf Helligkeitsänderungen reagieren. Das menschliche Auge hat etwa 20-mal so viele Stäbchen (94 Millionen) wie Zapfen (4,5 Millionen). Stäbchen sind auch etwa 100-mal so lichtempfindlich wie Zapfen und können ein einzelnes Photon erkennen. Stäbchen scheinen am empfindlichsten für die bläulich-grünen Wellenlängen des Lichts (etwa 500 nm) zu sein und haben eine geringere Empfindlichkeit gegenüber rötlichen und nahen UV-Wellenlängen. Es sollte beachtet werden, dass die Empfindlichkeit der Stäbchen kumulativ ist. Je länger man also eine statische Szene beobachtet, desto klarer werden die Helligkeitsstufen in dieser Szene vom Geist wahrgenommen. Schnelle Änderungen in einer Szene oder Schwenkbewegungen verringern die Fähigkeit, feine Tonabstufungen zu unterscheiden.

Angesichts der weitaus größeren Lichtempfindlichkeit des Stabes scheint es logisch, den Schluss zu ziehen, dass der Mensch eine feinere und deutlichere Empfindlichkeit gegenüber Schwankungen der Lichtintensität hat als auf Veränderungen des Farbtons und der Sättigung, wenn man eine statische Szene eine Zeit lang beobachtet. Wie genau dies unsere Farbwahrnehmung beeinflusst und wie es die Anzahl der Farben beeinflusst, die wir sehen können, kann ich nicht genau sagen. Ein einfacher Test der Tonempfindlichkeit kann an einem klaren Abend am Abend durchgeführt werden, wenn die Sonne untergeht. Der blaue Himmel kann von fast weiß-blau bis zu tiefdunklem Mitternachtsblau reichen. Während der Farbton eines solchen Himmels einen sehr kleinen Bereich abdeckt, ist der Tonwert immens und sehr fein. Betrachtet man einen solchen Himmel, kann man einen unendlich sanften Wechsel von hellem Weiß-Blau über Himmelblau bis hin zu dunklem Mitternachtsblau sehen.

Studien, die nichts mit der CIE-Arbeit zu tun haben, haben eine breite Palette von "maximalen Farben" aufgezeigt, die das menschliche Auge wahrnehmen kann. Einige haben eine Obergrenze von 1 Million Farben, während andere eine Obergrenze von 10 Millionen Farben haben. Neuere Studien haben gezeigt, dass einige Frauen einen einzigartigen vierten Zapfentyp haben, einen "orangefarbenen" Zapfen, der ihre Empfindlichkeit möglicherweise auf 100 Millionen erhöhen könnte, aber diese Studie zählte beide Chromatizitäten und Leuchtkraft bei ihrer Berechnung von "Farbe".

Das wirft letztendlich die Frage auf, können wir bei der Bestimmung von "Farbe" Chromatizität von Leuchtkraft trennen? Ziehen wir es vor, den Begriff "Farbe" so zu definieren, dass er den Farbton, die Sättigung, und Leuchtkraft des Lichts, das wir wahrnehmen? Oder ist es besser, die beiden zu trennen und die Farbigkeit von der Leuchtkraft zu unterscheiden? Wie viele Intensitätsstufen kann das Auge wirklich sehen, vs. wie viele deutliche Farbunterschiede? Ich bin mir nicht sicher, ob diese Fragen tatsächlich wissenschaftlich beantwortet wurden.

Ein weiterer Aspekt der Farbwahrnehmung betrifft den Kontrast. Es ist leicht, einen Unterschied in zwei Dingen wahrzunehmen, wenn sie sich gut kontrastieren. Wenn man versucht, visuell zu bestimmen, wie viele "Farben" man sieht, wenn man verschiedene Rottöne betrachtet, kann es ziemlich schwierig sein zu erkennen, ob zwei ähnliche Farbtöne unterschiedlich sind oder nicht. Vergleichen Sie jedoch einen Rotton mit einem Grünton, und der Unterschied ist sehr deutlich. Vergleichen Sie diesen Grünton der Reihe nach mit jedem Rotton, und das Auge kann die Unterschiede der Rottöne in peripherer Beziehung zueinander sowie im Kontrast zum Grün leichter wahrnehmen. Diese Faktoren sind alles Facetten des Sehens unseres Geistes, das ein weitaus subjektiveres Gerät ist als das Auge selbst (was es schwierig macht, die Farbwahrnehmung über den Bereich des Auges selbst hinaus wissenschaftlich zu beurteilen). möglicherweise in der Lage sein, weitaus deutlichere Farben zu erkennen im Zusammenhang als eine Einstellung ohne jeden Kontrast.


Chroma und Luminanz in der digitalen Bildgebung verstehen

Dieses Foto ist ein Audi TT von einer Automesse. Das erste, was Ihnen neben dem Auto selbst wahrscheinlich auffällt, ist der leuchtend leuchtende rote Hintergrund, die Metallic-Farbe der Karosserie und die verschiedenen Schwarztöne. Dies wurde mit einem Tone-Mapping versehen, um mehr Farbe und Luminanz zu erzielen, die beiden Themen, die in diesem Artikel behandelt werden.

Der Grund, warum ein Bild auffällt, liegt an vielen Dingen, darunter auch Farbe. Dies liegt daran, dass unsere Augen darauf trainiert sind, Chroma (Farbe) und Luminanz (Licht) in einem Bild zu erkennen. Vielleicht ist es besser, den Begriff Lichtstärke zu verwenden. Die Netzhaut in unseren Augen hat sogenannte „Photorezeptoren“ und diese erfüllen eine Funktion. Diese Rezeptoren sind die „Kegelzellen“, die für die Farbsättigung zuständig sind, und die „Stabzellen“, die für die Luminanz zuständig sind. Zur weiteren Erläuterung sehen wir Luminanz als unterschiedliche Lichtschattierungen in Grautönen, während Chroma unterschiedliche Farbtöne sind. Farben haben Intensität, während Licht Helligkeit hat.

Wir sehen Farbe in Bildern aufgrund von Licht. In Abwesenheit von Licht, in völliger Dunkelheit, sehen wir keine Farben. Wenn Photonen einer Lichtquelle auf ein Objekt treffen, gibt es eine Lichtwellenlänge ab, die unsere Augen als Farbe wahrnehmen. Die Kegelzellen interpretieren die verschiedenen Wellenlängen mit drei Grundfarben: R-Rot, G-Grün und B-Blau alias RGB. Bei schlechten Lichtverhältnissen dienen die Stäbchenzellen in den Augen dazu, Schatten und Dunkelheit ohne Farbe wahrzunehmen.

Die verschiedenen Farbtöne, die wir sehen, werden als „Gamut“ bezeichnet, bei denen es sich um eine Reihe verschiedener Farbmischungen handelt. Chromatizitätsdiagramme zeigen die vielen verschiedenen Farbskalen, die ein Farbraum bei digitalen Bildern bieten kann. Die Chromatizität gibt den Farbton und die Sättigung an, nicht aber die Helligkeit. Helligkeit ist die Eigenschaft, die die Luminanz angeben kann. Im Diagramm sehen wir ein Diagramm, das die Wellenlänge des Lichts, das das menschliche Auge sieht, mit Koordinaten aufträgt. Die Koordinaten sind Werte, die auf einer X- und Y-Achse aufgetragen sind, um die Wellenlänge anzuzeigen und einen Referenzpunkt namens „weißes Licht“ zu verwenden. Diese Farbräume messen die große Auswahl an verfügbaren Farben und je mehr Details in einem Bild vorhanden sind. Bei der Luminanz fügen wir verschiedene Lichttöne auf einer Skala von 0 bis 100 oder total weiß bis komplett schwarz hinzu. Luminanz kommt vom Wurzelwort Luminanz, das das Maß für das Licht ist, das ein Objekt von seiner Oberfläche abgibt oder reflektiert. Bei der Luminanz handelt es sich bei den Tönen in digitalen Bildern um die unterschiedlichen Graustufen, d. h. Toninformationen. Das Auge nimmt den Unterschied der visuellen Eigenschaften in der Leuchtdichte eines Bildes als Kontrast wahr. So sehen wir die schwärzesten Schwarzen und die weißesten Weißen.

Digitale Bilder werden als Bildelemente dargestellt, bei der Darstellung auf einem Bildschirm auch Pixel genannt. Das Gerät beleuchtet jedes Pixel mit Licht, sodass jedes Pixel eine andere Wellenlänge abgibt, die wir als Farbe wahrnehmen. Bei der Luminanz wird jedes Pixel in Bits gemessen, wobei 0 für totale Dunkelheit und 1 für totales Weiß steht. Die Bittiefe eines Bildes ist zum Synonym für Luminanz geworden. Beim Aufnehmen von Bildern mit einer Kamera werden die Farb- und Lichtinformationen in einem Bild am besten in einer RAW-Datei gespeichert. RAW ist das beste Format zum Speichern aller in einem Foto enthaltenen Informationen. Wenn Sie mehr Informationen gespeichert haben, haben Sie mehr Details und Bilder mit höherer Auflösung. Somit ist die Dateigröße eines typischen RAW-Bildes sehr groß und es handelt sich auch um unkomprimierte Daten. Auf diese Weise können mehr Details von einem Bildsignalprozessor oder einer Fotobearbeitungssoftware der RAW-Dateien verarbeitet werden. Aus diesen Dateien werden Bilder mit höherer Auflösung von hoher Qualität verarbeitet, die die Farb- und Lichteigenschaften des Bildes während der Aufnahme enthalten.

Die Anzahl der darstellbaren Farben ist geräteabhängig. Das Display, d. h. der Bildschirm, muss nach einer entsprechenden Spezifikation gebaut werden. Das Bild speichert bereits die Informationen, die das Gerät zur Anzeige benötigt. Es werden verschiedene Arten von Bildschirmfarbspezifikationen unterstützt, die als Farbräume bezeichnet werden. Gängige Typen sind sRGB, Adobe RGB, DCI-P3 und Rec.2020. Die Anforderungen der Unterhaltungselektronikindustrie an Geräte sind 8 Bit pro Kanal (auch Bittiefe genannt). Theoretisch ist das ungefähr das, was das menschliche Auge sehen kann. Mehr ist einfach nicht möglich, obwohl es Farbräume gibt, die mehr darstellen können. In der Vergangenheit konnten VGA-Monitore nur insgesamt 262.144 Farben darstellen. Farbmonitore können heute 16.777.216 verschiedene Farben darstellen. Farbräume wie Rec. 2020 sind in der Lage, 68.719.476.736 Farben mit 12 Bit (4096 Abstufungen) zu verarbeiten. Das menschliche Auge kann jedoch nicht wirklich so viele Farben sehen, noch gibt es heute einen Bildschirm, der so viele Farben darstellen kann. Warum wurden sie entwickelt? Dies liegt daran, dass die Farben lebendiger und satter aussehen, weil sie einen größeren Farbraum haben. Dies ist der Unterschied zwischen normaler und hervorragender Qualität bei Farbbildern.

Beim Anpassen der Helligkeit in Displays ist die eigentliche gesteuerte Funktion die Luminanz. Die Leuchtdichte eines Displays wird in der Einheit cd/m² (Candela pro Quadratmeter) gemessen. Ein gutes Display hat eine Leuchtdichte von 300 cd/m², die oft von OLED- und hintergrundbeleuchteten LED-Bildschirmen erreicht wird. Wie wir Helligkeit sehen, basiert auf der Leuchtdichte des Objekts, das das Licht reflektiert. Töne sind der beste Weg, um den Kontrast zu sehen, da sie die helleren und dunkleren Teile des Bildes zeigen. Wenn Sie ein Schwarzweißbild verarbeiten, sehen Sie oft bestimmte Details, die auffällig sind, aber in Farbe kann es weniger beeindruckend, noch flacher aussehen. Töne sind auch eine Möglichkeit, ein Bild klarer hervorzuheben, indem die Schatten und Schwarztöne abgedunkelt werden, um den Farben mehr Intensität zu verleihen. Wenn wir ein Histogramm eines mit einer DSLR-Kamera aufgenommenen Bildes betrachten, können wir sehen, dass sich die Töne von hell nach dunkel verschieben, wenn sie sich nach links verschieben.

Um die Chroma- und Luminanzgenauigkeit eines Bildes zu erhalten, muss das Display entweder auf einen unterstützten Farbraum kalibriert werden, andernfalls ist eine Farbkorrektur während der Nachbearbeitung erforderlich. Most displays in retail are not calibrated, so professional color grading would require a properly calibrated monitor to represent the accuracy of colors. Contrast is also best with luminance, so a monitor that has a bright display shows the best quality on an image.

We use the chroma and luminance of an image not to measure quality, but the details. Instead we look at chroma as color and luminance as lightness to measure the details in an image. The more colorful and luminous an image is, the more details you see. It is best to work with more details from RAW images and edit it non-destructively and later converting it back to a lower gamut that is supported on most displays. For detail oriented photography and video for brands, the smallest details are just as important to portray the image. It can mean the difference between appealing to new customers or turning them away. The way an image looks in ads or editorials in fashion and beauty need color accuracy and details in skin, hair, eyes and body. For television shows and music videos, the details are about vivid and realistic viewing experiences. In creating images, the details are a key to having the best results.


What contrast ratio can the Human eye perceive?

The human eye, at any particular instant, can perceive contrast ratio over a range of 400:1 to 10,000:1 according to numerous references. However, the human eye is a dynamic organ and can adjust, both chemically and via iris movement, over some 30 minutes in steady light conditions to perceive higher contrast ratios of up to between 1,000,000:1and 10,000,000:1. One can think of the eye as an adaptive detector. Age is a factor influencing what contrast ratio might be perceived by the particular individual. The images displayed can affect the perceived contrast ratio with the human eye being able to detect higher contrast ratios for static images as opposed to moving images. Ambient Light Conditions Even small amounts of ambient light (one LUX - a candle flame) significantly reduces the ability of display devices to render higher contrast ratios (in the 1,000's). A black area can only be as black as whatever incident light is reflecting from it. You cannot "project" the color black. Doubly detrimental is the rapid drop off of the eyes contrast sensitivity with higher ambient light levels. Spatial Frequency The eye is sensitive to the spatial frequency which is a factor related to the distance between the contrasting image elements in relation to each degree of field of vision at the eye. Consider that the frequency is the count of the number of alternating vertical stripes of black and white across an arc of one degree with the eye as its origin. Increasing the number of vertical stripes across the arc (making them thinner) will, beyond a certain point, reduce the eyes ability to perceive contrast ratio - even though the actual contrast between the white and black stripes remains the same. For a practical demonstration of this concept try this dynamic demonstration of the eyes variation in contrast sensitivity with spatial resolution by the USD internet Psychology Laboratory. Differences in contrast ratios in the multi-thousands should only be a consideration in choosing between display devices when you are going to place them in a strictly controlled, very low ambient light environment - something like a windowless home theatre room with dark finishes on all walls and surfaces. For higher ambient light viewing environments brightness should be a much higher rated selection criteria than contrast ratio. There is no substitute for judging between the image quality of displays than viewing them side by side with your own eyes in a viewing environment with an ambient light level similar to where they would be located.


This disparity is likely due to a variety of factors:

  1. It's not clear exactly how many colors humans can see. For example, the table at the top of this page about the number of colors distinguishable by the human eye cites various academic papers as saying anything from "more than 100,000" to "roughly 10 million." In any case, the number of colors visible to humans appears to be lower than the number of different colors which can be represented by a computer screen, although because the number of distinguishable colors is not known exactly, the people who made the screens probably decided to play on the safe side.
  2. The way memory is laid out in the computer, data is easiest to store and quickly access when the memory units are in powers of two. This physical constraint is why we have a full byte (2^3 bits) per color channel rather than just 6 or 7 bits. This preference for powers of two also plays a role in the decision to include the fourth (2^2-th) channel. It makes for a much more uniform layout in memory and thus significantly faster processing than would be the case if there were only three channels, especially given how optimized graphic cards are for specific types of parallel processing.
  3. Now I come to the crux of your question. You point out that the 24 bits used to store the red, green, and blue color channels would already be sufficient on their own to produce more colors than we can see. That makes the final byte (the alpha value) appear a bit superfluous. But the alpha channel has a great usability value to programmers. Adjusting it adjusts the brightness of the whole pixel simultaneously rather than having to write the code to adjust each of the three channels independently. Among other things, the alpha value drastically simplifies the math needed for greenscreening, blending images, and setting transparency. Fewer operations doesn't just mean that the code can be written faster it will take less time to debug and run faster as well.

You're incorrectly assuming that the distribution of those colors over the gamut matches the human eye. The distribution of the 16 million colors is chosen for technical simplicity, ignoring even the difference in sensitivity for red and green.

For the same reason, there's a sizeable part of the gamut which many monitors can't display at all (15% is usual)

24 bit isn't really 16 million different colors. It 3 times a single color at different intensity which your eye/brain interprets as a single color, it isn't. So, try this exercise, show all the 256 different "reds" with the other colors at 0. Then you'll find out that 8 bits per color x 3 actually isn't that much.

Because if you used 7-bits instead of 8-bits per RGB component, you'd get 21-bits for all color space and that would sum up to about 2 million colors, much less than what we can see.

From graphics processing and system-programmers' point-of-view, 32-bit staffs are much easily manageable than 16-bit/24-bit/whatever-bit staffs .

Your problem is that you are thinking in colors which doesn't always mean what you think because those are the individual colors not counting the colors achieved by blending and mixing those colors. Your eye an see something like 2.4 million colors but this does not take into account shades and tones of those colors which puts us more in the 100 million colors range play around with a 16 bit photo shop image for a while there are trillions of colors available see below : "an 8-bit image, which would be "2 to the exponent 8", or "2 x 2 x 2 x 2 x 2 x 2 x 2 x 2", which gives us 256. That’s where the number 256 comes from.

Don’t worry if you found that confusing, or even worse, boring. It all has to do with how computers work. Just remember that when you save an image as a JPEG, you’re saving it as an 8-bit image, which gives you 256 shades each of red, green, and blue, for a total of 16.8 million possible colors.

Now, 16.8 million colors may seem like a lot. But as they say, nothing is big or small except by comparison, and when you compare it with how many possible colors we can have in a 16-bit image, well, as they also sometimes say, you ain’t seen nothin’ yet.

As we just learned, saving a photo as a JPEG creates an 8-bit image, which gives us 16.8 million possible colors in our image.

That may seem like a lot, and it is when you consider that the human eye can’t even see that many colors. We’re capable of distinguishing between a few million colors at best, with some estimates reaching as high as 10 million, but certainly not 16.8 million. So even with 8-bit JPEG images, we’re already dealing with more colors than we can see. Why, then, would we need more colors? Why isn’t 8-bit good enough? We’ll get to that in a moment, but first, let’s look at the difference between 8-bit and 16-bit images.

Earlier, we learned that 8-bit images give us 256 shades each of red, green and blue, and we got that number using the expression "2 to the exponent 8", or "2 x 2 x 2 x 2 x 2 x 2 x 2 x 2", which equals 256. We can do the same thing to figure out how many colors we can have in a 16-bit image. All we need to do is calculate the expression "2 to the exponent 16", or "2 x 2 x 2 x 2 x 2 x 2 x 2 x 2 x 2 x 2 x 2 x 2 x 2 x 2 x 2 x 2", which, if you don’t have a calculator handy, gives us 65,536. That means that when working with 16-bit images, we have 65,536 shades of red, 65,536 shades of green, and 65,536 shades of blue. Forget about 16.8 million! 65,536 x 65,536 x 65,536 gives us an incredible 281 trillion possible colors!" http://www.photoshopessentials.com/essentials/16-bit/

Before we can define a number of colors, we have to define: What is color? Color isn’t a particular wavelength or property of light, it is a cognitive perception. Color, is a perceptual property, something that occurs deep inside our brains. So if we can't see it, it is not a color. As such, colors are defined based on perceptual experiments. Another term is Color Value, which refer to human perception and specifically to colorimetry. Lab, Luv, XYZ, Yxy define color values. These models are based on human color perception experiments original done in the 1930’s. We can use math and a metric called deltaE to define when one set of color values are imperceptible (indistinguishable) from another set of numbers (color values). delta-E refers to differences in color values. For example, in one color space called sRGB, it isn’t possible to see a difference between values 2/255/240 and 1/255/240 as they have the same Lab values (90/-54/-8). Two sets of RGB numbers that define one color. As such, we can’t count that example as defining two colors, we can’t see any difference between them. They appear identical to the Standard Observer. A deltaE of less than 1 between two color values is said to be imperceptible but to complicate matters, there are several formulas for calculating this metric. Further the ability of the eye to distinguish two colors as different and is more limited for yellows but is better for greens and blues. This just adds even more difficulty in assigning a meaningful and accurate number of colors to these colors spaces.

The pixel has what is called an encoding which can provide a number of possible device values. For example, 24 bit color, (three channels, 8-bit each) can mathematically define 16.7 million device values. Can we see 16.7 million colors? No. Far less. Depending on who’s figures you examine, the range is said to be “more than 100,000 to 10 million”. The number is up to debate but the point is, we can use math to produce a value that has no actual relationship to what we can see and call color. All the RGB working spaces have exactly the same number of addressable device values and the total number is set by the bit depth of the image file used for encoding, i.e., 8-bit, 16-bit.

Now we have to look at color spaces like ProPhoto RGB. If you examine a gamut plot of this synthetic color space on top of the gamut of human vision of our Standard Observer (the CIE chromaticity diagram), part of it falls outside this plot. ProPhoto RGB can define device values, numbers, which represent “colors" we can’t see. So these “imagery colors” can’t be counted when we ask, does ProPhoto RGB have more colors than sRGB or any other color space. One of the best explanations of why it is folly to even attempt to put a number of colors onto of a color space comes from Graeme Gill the creator of the Argyll Color Management System: "Colorspaces are conceptually continuous, not discrete, therefore it's wrong to talk about number of colors". Just examining ProPhoto RGB further illustrates it is impossible to define the number of colors it can contain as it can defines color values that we can’t see as colors. Parts of ProPhoto RGB’s gamut lies outside human vision! Much like 24 bit color which can define more device values than colors we can see. Encoding is a useful attribute when editing our images so the point isn’t to dismiss it but rather point out, we can encode values for something that isn’t a color, it’s just a number, a device value.


365 nm for Strongest Fluorescence

In addition to 365 nm UV lights having the advantage of not emitting violet light, many objects will fluoresce strongest at 365 nm, as evidenced by absorption spectrum measurements.

The result is that 365 nm light may be better suited for applications where stronger fluorescence effects are desired. Coupled with the advantage of having a lower amount of visible, violet light emitted, 365 nm light can considered an optimal choice where performance is of paramount importance.


Color Vision in Trout Eyes

In this class we will use science to answer the following questions:
Do trout have color vision?
How does their perception of color differ from the human perception?
Does their environment affect their perception of color?
How does this information get used when selecting and presenting lures?

Human Eyes:
In order to understand how colors are perceived by trout, we must first understand how color is seen by us humans. Color is a physiological effect which is a sensation that occurs as the brain responds to neural signals arriving from the retina of the eye. The retina has "rods" and "cones" that are two types of receptors. The rods register the presence of light in black and white (monochrome) while the cones register the colors. Note that there is no such thing as colored light, but only light of different wavelengths.

There are three sub-types of cone receptors in the retina of the human eye. Each interprets a different wavelength and sends its own signal to the brain: red, green, or blue. This is the same way the RGB leads feed color to a computer display. Combinations of these signals offer variations of the complete spectrum of colors. We see a rainbow as a graduation of colors because the wavelengths overlap. The ratio of these signal strengths determine the shade of color.

Each object has some chemical characteristics that absorb most wavelengths of visible light and reflect only a narrow band. This narrow band is perceived as color by the mechanism of the eye. Remember, we are not seeing a colored object, but an object that reflects light in different wavelengths.

The three types of cones in the human eye each contain a photo-sensitive pigment that has the capacity to absorb a range of light wavelengths. Each cone is characterized by the wavelength at which maximum or peak absorption occurs. The three are as follows:
erythrolabe peak absorption at 565nm red
chlorolabe peak absorption at 535nm green
cyanolabe peak absorption at 440nm blue
Light wavelength is measured in nanometers and the visible spectrum ranges from 700nm (red) to 400nm (blue-violet).

Trout Eyes:
Trout, on the other hand, have four receptors, and the four peaks are 600nm, 535nm, 440nm, 355nm.
The second and third conform to the green and blue cones in humans. The first is similar to the human red, but its sensitivity range includes longer wavelengths than humans. The fourth is outside the band of wavelengths visible to humans and is referred to as "ultra-violet". However, the fourth class of cones disappears by the time a trout is two years old.

It is thought the small fauna which feeds the immature trout, reflects the UV radiation and therefore the small fauna are more visible to the trout. It is also suggested that UV cones reappear annually in mature trout in time for spawning runs. It is also speculated that these UV cones are used to track polarized light as a means of navigating to the spawning locations.

It is interesting to note that the long wave (red) cone response of the trout is peaked at a point where the human’s response of the "red" receptor is diminishing. This means that where humans see a dark reddish color, the trout sees a much brighter color and in a lower visible light condition. Researchers tell us that the trout's ability to discern small differences in shade is highest in blue, second but much lower in red and lowest in green. Therefore shades of green will be less important than the contrast of the body or thorax.

Trout Environment:
Although trout have color vision similar to humans, there are major differences due to the available light in their environment. Their vision is limited by the quality of light which enters the underwater world. The advantage of their 4-cone system can be realized only if the full spectrum of sunlight from infra-red to ultraviolet is available to them.

In clear water, the short blue to ultraviolet wavelengths are dispersed causing the background appear blue. This is what occurs in the atmosphere causing the sky to appear blue and even bluer over water. Therefore when a trout sees the shiny scales of a fish, the image of the fish is blurred at short distances and invisible at longer distances.

Directional sunlight passing through water will tend toward red and becoming redder with increased distance just as it does in the atmosphere at sunrise and sunset. Hence, the old adage “Red at nite, sailors take delight, red at morning, sailors take warning”. However, water absorbs long light wavelengths therefore, the energy of the longer wavelengths, corresponding to the red end of the spectrum, is absorbed and converted to heat. At longer range, the absorption of the long wavelengths and blurring of the image due to scattering become significant. For example, a red object seen through 12 feet of water has no wavelengths and will appear black. Note that the reflection of light diminishes very quickly as distance increases, so at 6 feet, there may be very little color perceived. Near the surface, reached by the full sun, at close range, it is reflected brighter red than seen by humans.

However if the object is white and capable of reflecting all incident wavelengths, it would remain visible at longer ranges. Na und! The flash of mirror like reflection from a shiny surface such as tinsel or the scales of a fish will be seen over a much greater distance than body color of your fly.

It is clear that trout do indeed have the mechanism for full color vision and in a somewhat wider range as well. Red is brighter to the trout but the color diminishes quickly with distance while white will be visible over greater distances. Impurities in the water make color less important but white will be seen more readily. Water impurities, like minerals or staining, can selectively filter out various wavelengths of light. These impurities tend to remove the ultraviolet and blue wavelengths in a short distance and allow long wavelengths to penetrate the farthest but again not as far as clear water. To summarize, the color vision of the trout is limited to relatively clear, shallow water and at short distances.

What about fluorescent colors?
Fluorescence occurs where a surface has the property of absorbing ultraviolet radiation and converting its energy to be reflected as a longer wavelength within the visible range of the eye. This converted reflection is added to the reflection of normally visible light wavelengths, causing it to appear more intense than one would expect to be possible. Divers have noted that in tainted water fluorescent red, orange, and yellow are the most visible, and in clear water any fluorescent paint will do. At long distances or in deeper water, fluorescent yellow and green are more visible. Note that UV penetrates deeper than the visible blue wavelengths, so all fluorescent colors are visible to the UV limit, which is beyond the depth at which their natural color becomes invisible.

Effects of Low Light:
However, in tea stained water often found in trout streams, the opposite is true. The UV wavelengths are filtered out first, but the distance affecting the red wavelengths is not affected by the stained water. Therefore, fluorescence is useless in stained water a short distance below the surface. However, near the surface where it receives UV rays, the red and orange fluorescence will be visible at a greater distance than the shorter wavelength colors of blue and green.

An important feature of the trout's vision is that the rods and cones physically swap places at the start and end of daylight. In the evening the cones that need high light levels to operate and that provide the color response are withdrawn into the surface of the retina and the rods tend to rule. At dawn the reverse action occurs. This change is not instantaneous, but occurs over a period of time. Therefore, as night approaches, the color response in trout diminishes until at night a trout has no color response at all. Under these conditions, black and white is likely to be the most effective combination. Tinsel may have some value if the moonlight is significant.

Schlussfolgerungen:
1. Trout do indeed have color vision, but it is limited to relatively clear, shallow, water and short distances, so at close range, the trout can see the full detail of color.
2. Trout can discern differences in shades with the highest in blue, then red and then green shades.
3. The color red appears brighter than it does to humans, but quickly becomes black at greater distance.
4. The ability to detect color is greatly impaired and completely eliminated within 12 feet.
5. Impurities in the water or stained water makes colors less significant, but under these conditions, white will remain the best.
6. In the low light conditions of dawn or dusk, trout can not distinguish color. Black, then, becomes the most visible.
7. In clear water, fluorescent colors are more visible with red, orange and yellow being the most visible. In deeper waters, fluorescent yellow and green stand out the most. However, in stained water fluorescent is useless.

Tips to create and select flies:
Trout will closely examine a slow moving fly like an emerger or nymph, and as we have seen, trout are very sensitive to colors. This is a strong feature in selecting fly dressing such as ribbing. At a greater depth of water, a fluorescent or shiny rib will have a significant effect. On the other hand, insects sometimes carry a bubble which would have high visual impact. Its visibility is not due to color but to a difference in optical density between water and gas. This difference can be imitated by transparent pearly white mylar ribbon.

A dry fly is seen by trout as a footprint in the surface tension and color is not as important as it is with a submerged fly like an emerger. In dry flies, translucent color is much more likely to be visible from below than an opaque mass of color. Therefore, a tightly wound body of a fly will be less effective than a loose winding of feathers or dubbed wool.

Review your fly tying efforts and make slight adjustments to your technique and examine your fly box considering the priority of the flies. Some may surprise you by being more effectiveor less effective than you previously imagined..



Bemerkungen:

  1. Jeno

    Der amüsante Moment

  2. Moshe

    Ich denke, dass Sie nicht Recht haben. Schreiben Sie mir in PM.

  3. Dallas

    Das ist eine weniger Sorge! Viel Glück! Besser!

  4. Trystan

    Wir warten auf die Fortsetzung. Natürlich etwas übertrieben, aber die persönliche Erfahrung zeigt etwas, das dem Beschriebenen nahe kommt.



Eine Nachricht schreiben