In Farbe sehen Wie unsere Augen erfassen und Kameras aufnehmen

Sie hatten so viel Spaß bei der Familienfeier am Wochenende. Sie haben ein tolles Foto Ihrer Großeltern aufgenommen - eines, das Sie drucken und rahmen möchten. Sie haben ein paar kleine Änderungen vorgenommen, als Sie das Foto bearbeitet haben, und dann zu Hause auf Ihrem Fotodrucker gedruckt. Das Ergebnis war viel zu dunkel. das Foto sah schlammig aus. Anstatt mit ihm herumzuspielen, haben Sie das Bild bei Ihrem lokalen Fotodrucker hochgeladen, aber als Sie den Abzug aufgenommen haben, sah die Haut Ihrer Großeltern unnatürlich gelb aus und der violettfarbene Pullover Ihrer Großmutter sah blau aus. Was zum Teufel? Sie haben den Weißabgleich vor dem Fotografieren eingestellt und das Bild auf Ihrem Computer sah okay aus. Das Bild schien ohne Änderungen in Farbe und Dichte im Web zu landen. Aber jede Version des Bildes sieht ein wenig anders aus und keine davon ist das, was Sie im Moment gesehen haben.

Willkommen in der Welt des Farbmanagements in Fotografie und Video. Es klingt alles so perfekt, dass es technisch und mathematisch perfekt sein sollte. Beim Farbausgleich wird das Weiß weiß. Ein ColorChecker Target hilft Ihnen, Farbgenauigkeit zwischen Aufnahme und Verarbeitung zu erreichen. ICC-Profile (International Color Consortium) standardisieren das Farbmanagement. Und trotzdem sind Ihre Ergebnisse nicht das, was Sie sich erinnerten oder erwarteten. Sogar Ihre Schwarzweißfotos sehen manchmal "aus".

Vernunft und zuverlässige Ergebnisse sind möglich. Es erfordert ein bisschen Arbeit und ein wenig Ausprobieren, aber es gibt keine Beschreibung des Gefühls der Zufriedenheit, ein Foto beim ersten Mal perfekt zu drucken oder die Farben in einem Bild genau richtig zu machen, um die Stimmung des Augenblicks zum Ausdruck zu bringen.

Wir starten eine Reihe von Artikeln über das Arbeiten mit Farbe, mit denen Sie am Ende eines mehrfarbigen Regenbogens zur Zufriedenheit kommen können. In diesem Artikel schaue ich mir die Farbe an und wie wir sie sehen. Was macht Farbe? Und warum sieht Farbe für verschiedene Menschen und unter verschiedenen Umständen anders aus?

Was Sie sehen, ist nicht unbedingt das, was Sie erhalten

Als ich ein Kind war, habe ich mit meinen Freunden ein Spiel gespielt: Wir versuchen herauszufinden, ob wir alle eine bestimmte Farbe gleich sehen. Haben sie rot gesehen wie ich, oder haben sie rot gesehen, als ich Purpur sah, aber wir haben beide unsere Wahrnehmungen als „rot“ bezeichnet, weil dies das Wort ist, das uns beigebracht wurde, was wir sehen. Es war vielleicht ein Kinderspiel, aber das Wunder war nicht so weit von der Realität entfernt.

Was wir sehen

Das menschliche Sehen ist komplex: Wir haben nicht nur eine unterschiedliche Fähigkeit, Farbe und Licht zu sehen, sondern wir verarbeiten auch das, was wir durch unser Gehirn sehen, was Farbe und Licht um Interpretationsschichten erweitert.

"Wir sehen die Welt nicht so wie sie ist, wir sehen sie so wie wir sind." -Anaïs Nin

Unsere Augen nehmen Farbe und Licht mit zwei Arten von Zellen wahr, die als "Stäbchen" und "Zapfen" bezeichnet werden. Eine Ansammlung von Zellen - die Zapfen - ist farbempfindlich, erfordert jedoch gutes Licht. Diese Zellen haben die höchste Sehschärfe. Die andere Ansammlung von Zellen - die Stäbchen - ist empfindlich für die Leuchtdichte (wie hell oder dunkel), aber weniger empfindlich für Farbe. Das Ergebnis ist, dass Farbe, Tiefe und Details verloren gehen, wenn das Licht dunkler wird. Was wir bei schwachem Licht sehen, empfinden wir als flach und entsättigt. Im Gegensatz dazu sehen wir außergewöhnliche Details bei hellem Licht.

Diese beiden Zelltypen existieren nicht zu gleichen Teilen und sind in unseren Augen nicht gleichmäßig verteilt. Die Zellen, die Farbe sehen und helles Licht benötigen, haben eine geringere Anzahl und sind im Zentrum unseres Sehens konzentriert. Die Zellen, die in schwachem Licht sehen, sind zahlreicher und konzentrieren sich hauptsächlich auf die Grenzen unserer Sicht. Wenn Sie ein Camper oder ein Wanderer sind, wissen Sie, dass der beste Weg, sich im Dunkeln zu bewegen, ist, sich mehr auf das zu konzentrieren, was sich auf beiden Seiten befindet, als auf das, was direkt vor Ihnen liegt. Wenn Sie eine Taschenlampe verwenden, anstatt sie direkt nach vorne zu leuchten, navigieren Sie besser durch die Dunkelheit, wenn Sie das Licht von einer Seite zur anderen schwenken. Dies liegt daran, dass die Zellen, die Details in schwachem und dunklem Licht sehen, in unserem peripheren Sehen am aktivsten sind.

Quelle für Illustrationen: iStock. Bearbeitet von Dawn Oosterhoff.

Unabhängig davon, ob das Licht dunkler oder heller wird, ist der Rückgang bei dem, was wir sehen, sehr graduell. Wir können Details in hellem Licht sehen und werden Farbe, wenn nicht feine Details, in die hellsten Lichter sehen. Unsere Fähigkeit, Farben und Details zu unterscheiden, nimmt allmählich ab, wenn das Licht nachlässt, aber wir können Bewegungen erkennen und Formen in sehr tiefe Schatten sehen.

Wenn wir das betrachten, registrieren die Zellen unserer Augen Farbe, Leuchtkraft und Details, aber unser Gehirn sagt uns, was wir sehen. Unser Gehirn interpretiert die Informationen und schließt Lücken. Unser Gehirn fordert auch unsere Erinnerungen und Erfahrungen an, um zu interpretieren, was wir sehen. Wir bemerken nicht, wie Linien zusammenlaufen, wenn sie in die Ferne zurückkehren, da unser Gehirn die Verzerrung korrigiert. In ähnlicher Weise bemerken wir nicht, wie viel Gelb oder Rosa oder Grün in einem Raumlicht sein könnte, weil unser Gehirn das nicht so wichtig hält wie das rote Fleisch, das jetzt etwas grau ist.

Was die Kamera bekommt

Was eine Kamera „sieht“, lässt sich einfach beschreiben: Der Sensor einer Kamera nimmt einen engen Bereich von Licht und Farbe auf, und die Fotoempfänger reagieren gleichmäßig über das Sichtfeld. Fotoempfänger entsättigen weder die Farbe in Schatten noch nehmen sie mehr Details auf, wenn das Licht heller wird. In ähnlicher Weise nehmen Fotorezeptoren im Zentrum des Sichtfelds nicht mehr Farbe auf. Jeder Fotoempfänger erfasst, unabhängig vom Ort des Sensors, Farbe und Licht, wie sie innerhalb des Luminanzbereichs des Sensors vorhanden sind. Ferner endet die Fähigkeit eines Sensors, Farbe und Details aufzuzeichnen, einfach an jedem Ende des Luminanzbereichs eines Sensors. Markiert Clip zu Weiß und Schatten zu Schwarz.

Kameras interpretieren, was die Fotosensoren registrieren, aber die Interpretation ist begrenzt und basiert auf einem festen Algorithmus. Bei der Interpretation werden vorhandene Informationen verglichen und extrapoliert, um winzige Lücken mit Logik zu füllen. Die Interpretation ist weder fließend noch flexibel. Die konvergierenden Linien konvergieren immer noch, und die Menge an Gelb in Glühlampen zeigt anteilsmäßig das gleiche wie Gelb in einer Banane.

Spektrometer-Geräte, die zur Farbkalibrierung von Anzeigegeräten wie Monitoren verwendet werden, funktionieren genauso wie Kamerasensoren. Sie registrieren die Farbe gleichmäßig und linear. Das bedeutet, dass das digitale Farbmanagement für alle kalibrierten Geräte konsistent ist. Die Kalibrierung wird sich jedoch nicht an die Sichtweise von Farbe und Licht anpassen.

Leben gegen digitales Betrachten

Es gibt noch eine weitere Ebene visueller Unterschiede, die zu berücksichtigen ist, wenn wir den Unterschied zwischen digitalen und digitalen Geräten sehen, die Farbe und Licht sehen. Wenn wir eine Szene betrachten, bewegen sich unsere Augen - auch wenn sie nur subtil sind - und nehmen viele Informationen außerhalb unseres Hauptsichtfelds auf. Wir sind uns der Farbe, des Lichts und der Formen in unserem peripheren Sehen möglicherweise nicht bewusst, aber unser Gehirn erhält diese Informationen ungeachtet und verwendet sie zur Interpretation dessen, was wir unmittelbar vor uns sehen.

Kameras können Licht und Farbe aufnehmen, die außerhalb des Sichtfelds entstehen, jedoch nur, wenn sie in das Sichtfeld der Kamera treten.

Um dieser Varianz eine weitere Komplexitätsebene hinzuzufügen, müssen Sie berücksichtigen, dass das, was wir beim Fotografieren betrachteten, visuelle Informationen enthielt, die die Kamera nicht erfasst hätte. Wir reproduzieren dann das Foto und betrachten das Foto in der Mitte eines weiteren Sichtfelds. Visuelle Informationen, die mit einer weiten Ausdehnung begonnen haben, werden auf eine andere Art und Weise erfasst, als wir die Dinge gesehen hätten. Dann werden sie komprimiert und in der Mitte eines anderen Sichtfelds dargestellt, das unserem Gehirn unterschiedliche Informationen liefert. Es ist das fotografische Äquivalent von Spaßspiegeln bei einem Karneval.

Unsere Kamera "sieht" einen begrenzten Teil von allem, was wir sehen.Wir fügen dem, was wir ursprünglich gesehen haben, eine neue Komplexitätsebene hinzu, wenn wir die fotografierte Szene in einer neuen Ansicht betrachten. Basisbildquelle: iStock. Einfügen und Bearbeiten von Bildern durch Dawn Oosterhoff.

Farbtheorien

Wenn Sie Farbe und ihre Rolle in der Fotografie verstehen möchten, sollten Sie auch prüfen, wie sich Farben zu anderen Farben zusammenfügen. Möglicherweise haben Sie zu einem bestimmten Zeitpunkt - wahrscheinlich in der Kunstklasse - gelernt, dass Rot, Gelb und Blau Grundfarben sind, und wenn Sie sie mischen, werden die Sekundärfarben Grün, Orange und Lila erzeugt. Die Idee existiert seit dem 17. Jahrhundert und ist immer noch der vorherrschende Ansatz in der klassischen Kunst. Auch wenn diese Theorie beim Mischen von Farbe zutrifft, sehen wir nicht Farbe und nicht wie Farbe in der Fotografie oder im Druck reproduziert wird.

Trichromatische Theorie

Es gibt zwei Theorien, die erklären, wie wir Farbe sehen. Gemäß der trichromatischen Theorie haben wir unterschiedliche Rezeptoren für verschiedene Farben in den Kegelzellen unserer Augen (die Zellen, die Farbe sehen). Die verschiedenen Rezeptoren erfassen drei verschiedene Wellenlängen des Lichts: lang, mittel und kurz, die wir als rot, blau und grün sehen. Diese drei Farben ergeben zusammen alle anderen sichtbaren Farben.

Es sollte keine Überraschung sein, dass alle Farben in Leuchtdichteausgabegeräten (Kameras, Computermonitoren, Projektoren usw.) aus verschiedenen Kombinationen von Rot, Blau und Grün bestehen. Da RGB die Lichtfarben sind, erhalten Sie Weiß, wenn Sie alle drei Farben zusammen hinzufügen. Ziehen Sie alle drei Farben ab und Sie erhalten Schwarz. Das ist die Basis des RGB-Farbmodells.

Das Druckfarbmodell CMY ist das Inverse des RGB-Modells und basiert daher auch auf der Trichromietheorie. CMY sind die Druckfarben. Tinte absorbiert bestimmte Wellenlängen des Lichts und reflektiert andere, um Farbe zu erzeugen. Wenn Sie Rot, Grün und Blau jeweils von Weiß subtrahieren, erhalten Sie die Farbgegensätze: Cyan, Magenta und Gelb oder CMY. Wenn Sie alle drei Farben (CMY) zusammen hinzufügen, erhalten Sie (fast) Schwarz. (K-Schwarz wird zum Druckfarbenmodell hinzugefügt, um ein echtes Schwarz bereitzustellen und die Verwendung aller drei Farben zur Erzeugung schwarzer Tinte zu sparen.)

Eine Farbcollage, die durch Leuchten von zwei Schichten roter, grüner und blauer Gelatine entsteht.

Opponent-Prozess-Theorie

Die gegnerische Prozesstheorie legt nahe, dass die Zapfenzellen unserer Augen neural verbunden sind, um drei gegenüberliegende Farbpaare zu bilden: Blau gegen Gelb, Rot gegen Grün und Schwarz gegen Weiß. Wenn eines der Paare aktiviert ist, wird die Aktivität im anderen unterdrückt. Wenn beispielsweise Rot aktiviert ist, sehen wir weniger Grün, und wenn Grün aktiviert ist, sehen wir weniger Rot.

Wenn Sie eine Minute lang auf einen roten Fleck starren, dann wechseln Sie zu einem ebenen weißen Fleck. In der Mitte des Weiß sehen Sie ein grünes Nachbild. Dies ist der Prozess des Gegners bei der Arbeit in Ihrer Vision. Der Grund, warum wir Grün sehen, nachdem wir Rot angestarrt haben, ist, dass wir durch das Anstarren die neurale Reaktion für Rot ermüdet haben. Dadurch kann die neuronale Antwort für Grün zunehmen.

Sie haben diese Farbtheorie bei der Arbeit beim Farbausgleich von Bildern gesehen. Wenn Sie Rot verringern, wird das Bild grüner, und wenn Sie Gelb erhöhen, wird das Bild weniger blau. Der Gegensatz von Schwarz und Weiß beeinflusst die Luminanz eines Bildes.

Trichromatic Plus Opponent Process entspricht der Farbwahrnehmung

Anfangs glaubten die Forscher, dass unser Farbsehen nur durch eine der beiden Theorien erklärt werden kann. Obwohl die Forscher keine endgültigen Beweise liefern können, ist es inzwischen allgemein anerkannt, dass wir beide Methoden kombinieren, um Farbe zu sehen. Die trichromatische Theorie erklärt, wie unsere Augen Farbe erhalten, und die Theorie des gegnerischen Prozesses erklärt die neuronalen Verbindungen, die unserem Gehirn helfen, Farbe zu verarbeiten.

Wieder sehen wir diese Theorien, die nun in Kombination miteinander arbeiten, in der Fotografie. Bilder werden mit roten, grünen und blauen Kanälen erstellt. Das Gegenteil von Rot, Grün und Blau ist Cyan, Magenta und Gelb. Die Farbe ist ausgewogen zwischen Rot und Grün sowie Gelb und Blau. Wenn Sie die Balance zwischen Schwarz (Schatten) und Weiß (Spitzlichter) anpassen, erhält das Bild seine Dichte.

Laborfarbe

Bei der Verwendung in der Fotografie sind sowohl trichromatische (RGB) als auch gegnerische Farbsysteme (R / G, Y / B, B / W) flach. Ich meine damit, dass Anpassungen in diesen Prozessen jeweils nur eine Variable betreffen. Je mehr Rot und weniger Blau eine Farbe in Richtung Orange gibt. Reduzieren Sie nur das Grün und Sie arbeiten mit einem violetten Ton. Wenn Sie zwischen Schwarz und Weiß wechseln, wird die Farbe dunkler oder heller.

Im Gegensatz dazu versucht Lab Color, die Komplexität des menschlichen Sehens zu replizieren, indem die beiden Farbprozesse in einem dreidimensionalen Modell kombiniert werden. Jede Farbe ist das Ergebnis kombinierter und gleichzeitiger Balance von Rot und Grün (“a”), Blau und Gelb (“b”) und Schwarzweiß (Luminanz oder “L”). Das Ergebnis ist ein Farbmodell, das die gesamte Farbpalette darstellt, die das menschliche Auge sehen kann.

Quelle für Illustrationen: International Color Consortium (ICC) [Public Domain] 

Da Lab-Farben so groß und präzise sind, hat jede Farbe in jedem anderen Farbproduktionsmodell einen entsprechenden Wert in Lab. Tatsächlich wird Lab als Basismodell für die Berechnung jeder Farbe in jedem Modell verwendet. Es ist daher auch ein zuverlässiges System, um Farben von einem Modell in ein anderes zu übertragen.

Einige Fotografen und digitale Künstler ziehen es vor, in Lab zu arbeiten, aber für viele ist das System zu groß und für den allgemeinen Gebrauch zu komplex. Im Gegensatz dazu sind RGB und sein Begleiter CMYK praktische, konzeptionell einfache Modelle, die mehr als genug Farben liefern.

Wellen, Pfade und Objekte

Es gibt noch eine weitere Eigenschaft, die zu berücksichtigen ist, wenn wir die Farbe und ihre Funktionsweise in der Fotografie vollständig verstehen wollen: Farben sind Lichtkomponenten, die sich in Wellen bewegen. Wenn Sie weißes Licht in ein Prisma strahlen, wird das Licht durch das Prisma gebogen (gebrochen) und ein Regenbogen von Farben tritt auf der anderen Seite hervor.

Foto von Kelvinsong [CCO], über Wikimedia Commons

Die Farben bewegen sich jeweils in ihrer eigenen Wellenlänge. Wenn sich die Farben alle zusammen bewegen, entsteht weißes Licht. Wenn das Licht jedoch gezwungen wird, die Richtung zu ändern, wird jede Farbe je nach Wellenlänge unterschiedlich gebogen. Violett mit der kürzesten Wellenlänge wird am meisten gebogen. Rot mit der längsten Wellenlänge verbiegt sich am wenigsten. Wenn also weißes Licht auf eine Oberfläche fällt, wird das Licht in seine Komponentenfarben zerlegt.

Fügen Sie diesem Wissen die Überlegung hinzu, dass einige Materialien wie Glas Licht durchlassen; andere Materialien, wie etwa ein flaches Gestein, absorbieren Licht; und noch andere Materialien wie getrockneter Lack reflektieren Licht. Und wie wir mit einem Prisma gesehen haben, zerfällt Licht in Komponentenfarben, wenn es mit dem Objekt interagiert, es sei denn, ein Objekt ist vollkommen flach. Selbst wenn sie vollkommen flach, aber nicht vollkommen klar sind, absorbieren Materialien einige Wellenlängen und reflektieren andere. So absorbiert ein flaches Gestein Licht, reflektiert aber auch einige Lichtwellenlängen zurück, wodurch das Gestein beispielsweise eine graubraune Farbe erhält.

Wie Licht durchgelassen, absorbiert und reflektiert wird, beeinflusst nicht nur die Farben, die wir sehen, sondern auch die Qualität der Farben, die wir sehen. Ein Objekt, das viel Licht absorbiert - beispielsweise unser Gestein - wird eine entsättigte, flache Farbe reflektieren. Im Gegensatz dazu wird ein Material, das zum Beispiel viel lichtgetrockneten Lack reflektiert, ein helles, tiefes Farbgefühl.

Addiere alles auf

Vielleicht denken Sie inzwischen, dass das alles sehr interessant war, aber was macht es für mich, wenn ich ein Foto mache oder bearbeite?

Die digitale Fotografie hat uns die Möglichkeit gegeben, Farben auf eine Weise zu manipulieren, die wir noch nicht erlebt haben. Traditionelle Künstler werden in der Farbtheorie geschult und nutzen die Farbe zu großem Vorteil, um Kontraste zu erzeugen, Stimmungen zu vermitteln und die Aufmerksamkeit des Betrachters zu lenken. Fotografen haben jetzt die gleichen Möglichkeiten für erweiterte Kreativität.

Die digitale Fotografie hat auch technische Variationen eingeführt, die das beeinflussen und verändern, was wir sehen und reproduzieren. Durch das Verständnis der Farbtheorien und der Funktionsweise von Farben können wir unseren technischen Ansatz für die Farbgenauigkeit verbessern.

Ein tieferes Verständnis des Farb- und Farbmanagements führt zu einer besseren Fotografie. Bilder erfassen besser, was Sie beim Fotografieren wahrgenommen und gefühlt haben, und Ihre Fähigkeit, Farbe zu Ihrem Vorteil einzusetzen, verbessert die emotionale Wirkung und das Interesse an dem Foto.

Fotografie ist die Kunst des Lichts, und Licht ist eine Kombination von Farben. In dieser Serie tauchen wir tief in Farbe ein. Sie lernen, wie Sie die oben erlernten Prinzipien und Theorien anwenden, um bessere Entscheidungen zu treffen und die Farbe in Ihrer Fotografie besser zu kontrollieren.