Tapfere neue Kamera Computational Photography

Computational Photography ist ein sich entwickelndes Gebiet, das die Elemente der traditionellen Fotografie mit zusätzlicher computergesteuerter Verarbeitung kombiniert. Es drückt die Grenzen dessen, was das Wort Fotografie bedeutet. Neue Prozesse können die Einschränkungen einer Kamera überwinden, mehr Informationen in einer einzelnen Datei kodieren als bisher möglich, oder sogar neue Möglichkeiten zum Verständnis von Bildern schaffen. In diesem Artikel erfahren Sie mehr über die drei wichtigsten aufstrebenden Gebiete der Computerfotografie.

Definition der traditionellen digitalen Fotografie

Was wir als „digitale Fotografie“ bezeichnen, hat die Fotografie im letzten Jahrzehnt dominiert. Darin versucht die Kamera zu simulieren, wie eine Filmkamera funktioniert. Das ist, was ich als traditionelle digitale Fotografie bezeichne.

Traditionelle Digitalfotografie stützt sich auf jeder Ebene auf ihren Filmvorgänger. von den offensichtlichen äußeren Zeichen wie dem physischen Design der Kamera - einer Idee, die erst jetzt von spiegellosen Wechselobjektivkameras in Frage gestellt wird - bis zu den zugrunde liegenden Annahmen und Konzepten für die Bildaufnahme.

Bei der Filmfotografie tritt Licht durch eine Linse ein und wird entsprechend der spezifischen Optik und Fokussierung der Linse auf den Film projiziert. Lichtempfindliche Partikel auf dem Film reagieren auf alle auf sie fallenden Photonen und erfassen die Informationen so genau, wie es ihre physikalischen Eigenschaften erlauben. Die Kamera erfasst nicht das, was der Fotograf sieht, sondern das, was die Kamera sieht, obwohl diese beiden Visionen, wenn alles gut geht, relativ zueinander passen sollten.

Es gibt immer einige Daten, die durch den fotografischen Prozess verloren oder beschädigt wurden. Wenn das Objektiv nicht richtig fokussiert ist oder ein Weitwinkelobjektiv Verzerrungen verursacht, werden alle diese optischen Merkmale vom Film erfasst. Eine Filmkamera erfasst nur eine kleine Probe der verfügbaren Informationen.

Bei der herkömmlichen digitalen Fotografie wird Film einfach durch einen digitalen Sensor ersetzt. Lichtempfindliche Fotostellen ersetzen lichtempfindliche Partikel. Die Kamera reagiert auf dieselbe Weise und erfasst die Szene so genau wie möglich. Photonen fallen auf den digitalen Sensor, und die Informationen werden abhängig von den Besonderheiten der Linse entsprechend ihrer Auflösung erfasst. Mit den Informationen von den Fotoseiten wird etwas bearbeitet, um das endgültige Bild zu einem Foto zu entwickeln, das zu unserer Seherfahrung passt, aber es ist so konzipiert, dass die Dinge so genau wie möglich auf das aufgenommen werden, was von der Kamera erfasst wird. Die Kamera versucht nicht, das Bild mehr als das zu machen, was sie gesehen hat.

"Eye Ball Grandad", ein Deep Dream-Porträt von Mark Lewis. CC BY-SA 2.0

Über die traditionelle Digitalfotografie hinaus

Zwar gibt es aus historischen, technologischen und künstlerischen Gründen offensichtliche Gründe dafür, dass die traditionelle digitale Fotografie die Filmfotografie nachahmt. In den letzten Jahren hat sich jedoch einiges getan. Die Annahme, dass eine Kamera sollte Eine Szene so nah wie möglich zu erfassen, hat begonnen, herausgefordert zu werden. Stattdessen wurden fotografische Verfahren entwickelt, die das erfasste Bild oder die Bilder als Ausgangspunkt verwenden, von dem aus das endgültige Bild verarbeitet oder erstellt wird.

Ramesh Raskar und Jack Tumblin, Forscher am Computer Institute of Technology in Massachusetts, haben drei Phasen für die Entwicklung des Feldes identifiziert: Die Epsilon-Fotografie entwickelt Verfahren, mit denen Kameras ihre inhärenten Grenzen überwinden können, kodierte Fotografie, in der das Bild aufgenommen wird ist nach der Tatsache und der Essenzfotografie veränderbar, wo schon das Konzept dessen, was ein Bild ausmacht, herausgefordert wird.

Epsilon-Fotografie

Im Gegensatz zur codierten oder essenziellen Fotografie erscheinen Bilder, die mit Epsilon-Fotografie-Techniken aufgenommen wurden, auf der Oberfläche oft als normale digitale Fotografie. Es werden mehrere Aufnahmen gemacht und ein oder mehrere herkömmliche Kameraparameter - Fokus, Brennweite, Verschlusszeit, Blende, ISO und dergleichen - werden zwischen den einzelnen Aufnahmen um einen kleinen Betrag geändert. Die Aufnahmen werden dann algorithmisch so zu einem Bild zusammengefasst, dass die Kamerafunktionen erweitert werden.

Nehmen Sie zum Beispiel die HDR-Fotografie (High Dynamic Range), die beliebteste Form der Epsilon-Fotografie. Es werden mehrere Aufnahmen einer einzelnen Szene mit unterschiedlichen Belichtungswerten aufgenommen. Durch Variation der Belichtung liegt der dynamische Bereich der Bildserie weit über dem der Kamera. Die unterbelichteten Aufnahmen haben mehr Details und die überbelichteten Aufnahmen mehr Schattendetails, als die Kamera in einem einzigen Bild aufnehmen könnte.

Wenn die Aufnahmen kombiniert werden, spiegelt das endgültige Bild den dynamischen Bereich der Serie wider, nicht die Kamera. Ansonsten erscheint es als normales digitales Foto.

HDR ist nicht die einzige Technik der Epsilon-Fotografie. Jeder andere Parameter kann variiert werden, um „unmögliche Bilder“ zu erstellen, die beispielsweise eine größere Schärfentiefe haben als jede Kamera möglich wäre.

Codierte Fotografie

Während die epsilon-Fotografie darauf abzielt, die Kamera eine Szene darstellen zu können, versucht die codierte Fotografie, möglichst viele der verfügbaren Informationen in einer einzigen Fotografie zu kodieren. Mit der kodierten Fotografie wird die traditionelle Sprache der Fotografie immer unzulänglicher. Ein codiertes Foto enthält weit mehr Informationen, als mit einem einzelnen Bild dargestellt werden können. Stattdessen kann es decodiert werden, um die Szene auf verschiedene Arten zu erstellen. Mit anderen Worten, das eine Foto enthält mehr als ein mögliches Bild.

Die Lichtfeldfotografie ist ein Bereich der kodierten Fotografie, der in den letzten Jahren kommerziell erforscht wurde. Eine Lichtfeldkamera, z. B. eine von Lytro, erfasst die Szene aus mehreren Blickwinkeln mit jeweils unterschiedlichen Fokusebenen unter Verwendung einer Anordnung kleiner Linsen. Die Informationen aus den resultierenden Aufnahmen werden in eine einzige Fotodatei codiert.

Ein mit einer Lytro-Kamera aufgenommenes Bild, das mehrere Brennebenen kombiniert. Bild: Lytro.

In der Postproduktion können die Informationen aus der Datei in eine beliebige Anzahl möglicher Bilder dekodiert werden. Da eine signifikante Probe aller möglichen Fokusebenen aufgenommen wird, kann der scheinbare Brennpunkt des Bildes geändert werden. Auf ähnliche Weise kann mit fortschrittlicherer Verarbeitung der Vordergrund, der Hintergrund und der Hintergrund intelligent aus verschiedenen Aufnahmen gezogen werden, da die relative Position jedes Objekts in der Fotografie trianguliert werden kann. Das Motiv des Fotos scheint auf f / 16 aufgenommen worden zu sein, während der Hintergrund auf die Art von Bokeh reduziert wird, die Sie erhalten würden, wenn Sie mit f / 1.8 aufgenommen wurden.

Microsoft Kinect Kamera erkennt die Position der Hände. Standbild aus dem Video "Kinect Depth Change Threshold Test" von Charles Hutchins. CC BY 2.0

Eine andere Art der kodierten Fotografie verwendet mehrere Belichtungen, entweder eines Motivs in bekannten Intervallen oder mit mehreren Kameras, um die Bilder zu vergleichen oder zu kombinieren und neue Informationen zu interpolieren. Bei einem sich bewegenden Motiv und einer statischen Kamera kann beispielsweise die Relativgeschwindigkeit des Motivs in den Bildern berechnet und die gesamte Bewegungsunschärfe von der resultierenden Fotografie entfernt werden. Mit einem statischen Motiv und einer sich bewegenden Kamera (oder mehreren synchronisierten Kameras) kann ein dreidimensionaler Scan des Motivs berechnet werden. So macht es der Kopf Ihres Lieblingssportlers in Videospielen zu einem digitalen Körper. Die Microsoft Kinect-Kamera und Google Maps sind zwei hochkarätige kodierte Fotoprojekte.

Codierte Fototechniken haben eine komische Angewohnheit, die Idee des Rahmens zu biegen, wenn nicht zu brechen. Seit dem Beginn der Fotografie sind Fotografien entweder durch das Abfallen des Randes des Bildkreises des Objektivs oder durch einen beliebigen Rahmen begrenzt. So sehen unsere Augen nicht, aber wir haben gelernt, fotografische Bilder als statische, unveränderliche Bilder mit festen Grenzen zu verstehen. Die kodierte Fotografie untergräbt diese Annahme.

Essenz-Fotografie

Während Epsilon und codierte Fotografie versuchen, die Szene auf eine Weise aufzunehmen, die dem menschlichen Auge entspricht, ignoriert die Essenzfotografie die Vorstellung, biologische Vision zu emulieren. Stattdessen spielt die Essenzfotografie auf unterschiedliche Weise, dass die Informationen in einer Szene verstanden und dargestellt werden können.

Das Deep Dream-Projekt von Google, das Anfang des Jahres das Internet erobert hat, ist ein unterhaltsames Beispiel für die Essenzfotografie. Deep Dream erstellt ein Basisbild und analysiert dessen Eigenschaften für Zielmuster. Die Bildabschnitte, die den Zielen am besten entsprechen, werden so transformiert, dass sie ihnen ähnlicher werden. Das resultierende Image wird immer wieder durchlaufen, um die endgültige Version zu erhalten.

Ein Bild von mir, das durch das Deep Dream-Programm von Google lief. Es scheint versucht worden zu sein, mit irgendeiner Art Vogel übereinzustimmen.

Einige weniger fantastische Essenzprozesse stehen Ihnen bereits zur Verfügung. Diese Art von Algorithmus unterstützt die Gesichtserkennungsfunktionen in Adobe Lightroom, auf Facebook und an vielen anderen Orten.

In den nächsten Jahren wird es in der Essenzfotografie mehr und tiefgreifendere Entwicklungen geben. Computer können besser Informationen aus Basisaufnahmen ziehen und umwandeln. Mehr als in anderen Bereichen der Computer-Fotografie hat die Essenz-Fotografie das Potenzial, die Art und Weise, wie wir über Fotografien sprechen, zu verändern und neue Wege des künstlerischen Ausdrucks zu ermöglichen.

Tapfere neue Kamera

Computational Photography ist ein sich entwickelndes Feld, das die Definition der Fotografie in Frage stellt. Bei der traditionellen digitalen Fotografie geht es immer mehr darum, die Filmfotografie mit einem digitalen Sensor anstelle von Silberhalogenid nachzubilden. Das Gebiet der Computer-Fotografie schafft neue Möglichkeiten der Bildgebung, die maschinenlesbare Darstellungen unserer Erfahrung sind. Das ist eine große Verschiebung.

Die Techniken der Computerfotografie reichen von der einfachen Kombination mehrerer Bilder, die die Einschränkungen einer Kamera überwinden, bis zur Entwicklung neuartiger Methoden zur Analyse und Verarbeitung von Bildern. In diesem Artikel habe ich kurz einige der vielen interessanten Bereiche des Feldes angesprochen. Während einige dieser neuen Technologien heute vielleicht etwas kniffelig erscheinen, sind die Fortschritte, die sie präsentieren, die ersten wirklichen Änderungen in der Fotografie seit sehr langer Zeit, vielleicht seit der Erfindung der tragbaren 35-mm-Filmkamera.

Wird traditionelle digitale Fotografie verschwinden? Unwahrscheinlich. Die Leute machen immer noch gerne Fotos mit Film! Sie mögen die kreative, technologische und soziale Erfahrung des Fotografierens mit herkömmlichen Kameras. Traditionelle digitale Fotografie zeigt keine Anzeichen einer Verlangsamung.

Diese neuen Technologien haben jedoch das Potenzial, die Art und Weise, wie wir über Fotografie in ihren Grundlagen denken, zu ändern. Sie verändern die Art und Weise, wie wir Kameras und Bilder definieren. In gewisser Hinsicht hat die Computerfotografie bereits eine solche Funktion. HDR ist zwar von Traditionalisten stark verschmutzt, ist jedoch beliebt, da es wesentlich mehr Informationen erfassen kann als eine einfache Einzelaufnahme. Die Straßenansicht von Google Maps hat die Art und Weise verändert, wie wir über die Welt nachdenken und sie navigieren. Wir wissen noch nicht, wie sehr die Computerfotografie die Welt verändern wird.

Eines ist jedoch klar: Die digitale Fotografie ist da. Es sind nicht nur Pixel anstelle von Silber. es ist etwas völlig Neues.