Verstehen, wie Autofokus funktioniert Teil 2

Nach unserem ersten Blick in den Autofokus werden wir jetzt einen technischeren Ansatz verfolgen. Ich bin der festen Überzeugung, dass je mehr Sie über Ihre Kamera verstehen und wie sie die Welt aus technischer Sicht interpretiert, desto mehr können Sie davon bekommen, um Ihre Vision genau zu erstellen.


Die schnelle technische Geschichte

Leitz, heute unter dem Namen Leica bekannt, begann 1960 mit der Patentierung einer Reihe von Autofokus-Systemtechnologien und demonstrierte 1976 auf der Photokina eine Autofokus-Kamera (die 1950 begann). Die erste in Serie produzierte AF-Kamera war die Konica C35 Point-and-Shoot 1977 veröffentlicht. Die erste AF-35-mm-Spiegelreflexkamera war 1981 die Pentax ME-F, gefolgt von einer ähnlichen Nikon F3AF aus dem Jahr 1983.


Die 1981 Pentax ME-F mit SMC Pentax AF Zoom 1: 2,8, 35 - 70 mm-Objektiv. (Bild aus Wikimedia)

Ursprünglich hatten alle frühen AF-Spiegelreflexkameras Linsenmotoren, im Wesentlichen eine Standardlinse mit einem großen hässlichen Motorblock, der darauf klebte. Dies setzte sich fort, bis der Minolta Maxxum 7000 1985 den Antriebsmotor zusammen mit den Sensoren im Kameragehäuse hatte.

Dies war die erste AF-Spiegelreflexkamera, die einen vernünftigen wirtschaftlichen Erfolg erzielte. Die vorherigen Versuche waren langsam, ungenau und funktionierten nur unter idealen Bedingungen, was im Vergleich zu ähnlichen manuellen Fokuskameras keinen Grund für die doppelten Kosten darstellte. Die Maxxum 7000 kostete Minolta im Jahr 1991 nach einem langwierigen Patentstreit mit der US-amerikanischen Firma Honeywell über die AF-Technologie 130 Millionen US-Dollar.


Minolta Maxxum 7000 aus einem späteren Produktionslauf; Die X sind nicht gekreuzt, das Ergebnis einer gerichtlichen Klage von Exxon. Foto von teamgriggs

Nikon folgte Minoltas Anzug, kehrte jedoch 1992 zu Objektivmotoren zurück, weshalb die modernen Einsteiger-Nikons keinen integrierten AF-Antriebsmotor haben. Das Canon EOS-AF-System (Electro-Optical System) von Canon entstand 1987, als es viele Fotografen ärgerte, die FD-Objektivhalterung fallen zu lassen und die vollständig elektronische EF-Halterung zu entwickeln.

FD mit seinen mechanischen Verbindungen und Bajonettverschluss mit Kragenverschluss gegenüber dem EF mit elektronischen Kontakten und Bajonettverschluss am Körper.

Nun, das ist im Allgemeinen das, was passiert ist und die Reihenfolge, in der es passiert ist. Was ist mit der Technologie selbst? Lass uns ein bisschen mehr graben.


Physische Implementierungen

Phasenerkennung

Der Phasendetektions-Autofokus ist der schnelle AF, der bei DSLRs (und zunehmend spiegellosen Kameras als Teil eines Hybrid-AF-Systems) zu finden ist. Bei DSLRs ist ein Teil des Hauptspiegels halb versilbert und lässt etwa ein Viertel des Lichts von der Linse zu einem kleinen Sekundärspiegel dahinter und in den Boden des Spiegelkastens fallen. In der Basis befinden sich kleine Linsen, die das Licht von den Linsenrändern auf die CCD-Sensoranordnung fokussieren.

Unterseite eines Spiegelkastens mit Antireflexionsgeometrie und Anschlüssen für AF-Licht. Die Linsenränder sind durch die Lücken gerade noch sichtbar. Sieht auch ein bisschen staubig aus!

Das Array besteht im Allgemeinen aus einer Anzahl eindimensionaler Pixelstreifen in verschiedenen Ausrichtungen. Jeder Streifen kann nur ein Element sehen, das senkrecht dazu steht, da die einzige Änderung, die er sehen kann, die Linie ist. Wenn ein Feature im Bild parallel zum Streifen ist, kann es nur einen bestimmten Aspekt des Features auf einmal sehen und nicht die "Form".

Kontrasterkennung

Die Kontrasterkennung befindet sich im Allgemeinen direkt auf dem Bildsensor und wird daher in der Live-Ansicht von DSLRs verwendet. Es ist normalerweise das einzige Erkennungssystem, das für spiegellose und Kompaktkameras verfügbar ist. Es ist eine Softwareimplementierung, es gibt also keinen echten physischen Aspekt mehr, nur den Sensor und einen Prozessor.

Hybride Erkennung

Wie der Name schon sagt, eine Kombination beider Systeme. Dies kann in der Form erfolgen, dass einige der Sensorpixel in AF-Pixel umgewandelt werden, oder dass ein Phasendetektionsarray über dem Sensor angeordnet wird, das dann zusammen mit dem Kontrastdetektionssystem arbeitet, um die AF-Geschwindigkeit zu verbessern.


Wie Dinge funktionieren

Ok, jetzt kennen wir die physischen Einstellungen für jede Art von AF-System. Lassen Sie uns darüber sprechen, wie sie ihre jeweiligen Implementierungen für ihre Arbeit verwenden.

Fokus und Entfernung

Das zusammengesetzte Objektiv (ein einzelnes optisches System, bestehend aus einer Anzahl einfacher Linsen, in der Fotoliteratur normalerweise als "Elemente" bezeichnet), verwendet in Ihrem Kameraobjektiv eine oder mehrere bewegliche Linsen, um die Lichtstrahlen auf die Bildebene zu fokussieren.

Die Entfernung zum Motiv bestimmt, wie weit sich die Korrekturlinse bewegen muss, um scharfzustellen. Betrachten Sie es als eine Brille für die Hauptoptik, außer dass statt der Linsenstärke die Position geändert wird.

Nehmen wir ein sehr einfaches Beispiel mit nur einer einfachen Linse, um zu zeigen, dass das Bild, wenn sich das Motiv bewegt, verwischt wird, approximiert durch die Formel der dünnen Linse:

$$ 1 \ über f = 1 \ über S_1 + 1 \ über S_2 $$

Bei dieser Gleichung wird davon ausgegangen, dass Objektive von vernachlässigbarer Dicke in der Luft vorhanden sind, sodass sie nicht genau in reale Objektive übersetzt werden können, aber ich kann den Punkt einfacher vermitteln.


Sehr einfache Objektiveinstellung, wie wenn Sie eine Lupe vor Ihrem Auge bewegen.

Wir verwenden eine Punktlichtquelle mit einer Linse mit einer Brennweite von 1 m (1000 mm). Dies ergibt einen \ (1 \ über f \) -Wert von 1. Wenn \ (S_1 \) zwei Meter beträgt, ist \ (1 \ über S_1 \) 0,5. Somit ist \ (S_2 \) auch 2m, wenn die Linse fokussiert ist. Wenn wir das Punktquellenobjekt auf 8 m vom Objektiv wegbewegen, wird \ (1 \ über S_1 \) 1/8. Zum Ausgleich muss aus \ (1 \ über S_2 \) 7 \ 8 werden, was einen \ (S_2 \) - Wert von 8/7 oder 1,14 m erfordert. Natürlich ist der Wert (S_2) fest, wenn der Sensor stationär ist, so dass das Bild unscharf wird.

Wenn Sie eine zweite, korrigierende Linse in einem Abstand von der ersten in dieses optische System einfügen, um eine zusammengesetzte Linse zu erstellen, können Sie das Bild fokussieren, wenn sich das Motiv bewegt. Die kombinierte neue Brennweite ist gemäß der Gleichung der zusammengesetzten dünnen Linse:

$$ 1 \ über f = 1 \ über f_1 + 1 \ über f_2 - d \ über f_1 f_2 $$

Wir haben also eine neue Brennweite. Die Entfernung vom neuen Objektiv zum neuen Brennpunkt des kombinierten Systems wird als hintere Brennweite bezeichnet. Dies sollte in der Fotografie ein relativ bekannter Begriff sein, da es sich um den Abstand des hinteren Elements zum Sensor handelt. Wenn ich die hintere Brennweite "\ (d_2 \)" nenne, ist dies gegeben durch:

$$ d_2 = f_2 (d - f_1) \ über d - (f_1 + f_2) $$

Versuchen wir es mit einem Beispiel, bei dem das Bild auf eine feste Bildebene fokussiert wird, dann bewegt sich das Motiv. Durch das Hinzufügen von divergierenden Korrekturgläsern und das Zerkleinern der Zahlen erhalten Sie Folgendes:

Zusammengesetztes System, eher wie ein echtes Objektiv für die Fotografie. Die Fokussierelemente bewegen sich um einen winzigen Bruchteil gegenüber der Objektentfernung.

Die Mathematik ist vielleicht nicht fehlerfrei, aber gut genug, um den Punkt zu vermitteln! Wenn sich das Motiv bewegt, muss sich die Korrekturlinse zum Ausgleich bewegen, da die Bildebene fest ist.

In AF-Systemen berechnet die Elektronik, wohin sich das Objektiv bewegen muss, und weist den Objektivmotor an, das Objektiv dorthin zu bewegen. Wie macht es das? Dies bringt uns zu Erkennungssystemen.

Phasenerkennung

Die kleinen Linsen im Boden des Spiegelkastens fokussieren das Licht von gegenüberliegenden Seiten der Linse. Aufgrund der Lücke zwischen diesen beiden Punkten wird eine Parallaxe erzeugt, bei der jeder etwas unterschiedliche Ansichten des Motivs sieht, genau wie die beiden Eingangslinsen einer Entfernungsmesserkamera.

Die einzelnen Punkte sind wie bei einem Entfernungsmesser scharf eingestellt; Es ist die unendliche Kombination von Punkten über das zweidimensionale Bildfeld, die die Unschärfe in einem tatsächlichen Bild erzeugt. Deshalb erzeugen weite Öffnungen mehr Unschärfe. nicht durch irgendeine Art optischer Manipulation, sondern einfach weil mehr vom Durchmesser des Glases verwendet wird, wodurch mehr Punkte entstehen, die sich überlappen und Unschärfe erzeugen. Stellen Sie sich vor, der AF sollte auf jeder Seite des Objektivs eine Blende von f / 22 oder kleiner verwenden, damit der Blick unabhängig von der Brennpunktposition des Objektivs scharf bleibt.


Ein vereinfachter Look, ohne viele zusätzliche Objektive und Fokussierfolie.

Während das Licht von entgegengesetzten Seiten des Objektivs kommt, ist das auf die AF-Sensoren gerichtete Teilbild derselbe Teil des Motivs, an dem sich die AF-Punkte im Sucher befinden.


Vereinfachte Ansicht des Spiegelkastens einer Spiegelreflexkamera (ohne zusätzliche Linsen) von vorne und von hinten.

Die CCD-Streifen werden ausgelesen und an einen dedizierten AF-Chip gesendet, der einen Vergleich zwischen den beiden durchführt. Während einzelne Hersteller, die die Technologie verbessern, Patentverletzungsverhinderungen vermeiden und verschiedene Preispunkte von Ausrüstungen wahrscheinlich den genauen verwendeten Algorithmus verändern, ist es generell wichtig, eine mathematische Funktion auszuführen, die als Autokorrelation oder ähnliches bezeichnet wird.


Die Kenntnis des Durchmessers der Linse (daher sind f / 2,8 AF-Punkte genauer, nicht mehr Licht, aber mehr Breite), ermöglicht Triangulation.

Autokorrelation ist ein Musteranpassungsalgorithmus unter dem Dach der Kreuzkorrelation in der Signalverarbeitung, aber anstatt zwei verschiedene Signale zu vergleichen, vergleicht sie ein Signal mit einer verschobenen Version von sich selbst. Im Wesentlichen ist es eine Integralfunktion (oder in diesem Fall wahrscheinlicher diskrete Wertemengen, Summation), die die Fläche unter den überlagerten Signalgraphen berechnet, vergleicht und maximiert.

Das Ziel ist es zu berechnen, wie weit es eines der Signale verschieben muss, um diesen Bereich zu maximieren und somit die beiden Ansichten abzugleichen. Die Mathematik ist sehr langwierig (ein grundlegendes Beispiel würde wahrscheinlich mehrere Artikel durcharbeiten), aber das Ergebnis des gesamten Algorithmus sollte zwischen 1 und -1 liegen, wobei die Kamera nach dem Verschiebungswert mit der Korrelation sucht Wert ist so nahe wie möglich an 1.

Auf diese Weise sieht und versteht er dasselbe Merkmal, das von jeder Seite des Objektivs kommt, und die physische räumliche Verschiebung zwischen ihnen entlang des Pixelstreifens zu wissen, sagt es mit der Trigonometrie, basierend auf bekannten Kameraabmessungen, wie weit und in welcher Richtung das Objektiv ist unscharf. Es kann dann ein Fokussiersignal an das Objektiv senden und den Fokus nach dem Verschieben überprüfen. Dann zeigt Ihre Kamera die Fokusverriegelung an und ermöglicht die Aufnahme des Bildes.


Ähnliches Setup wie die 3D-Ansicht oben, zeigt die Bewegung der Lichtpfade, wenn sich der Fokus ändert.

Möglicherweise haben Sie von AF-Feldern "Punkt" oder "Punkt" oder AF-Feldern "Kreuz" gehört. Der Unterschied zwischen diesen Punkten besteht darin, dass punktförmige Punkte einzelne eindimensionale Pixelstreifen sind, wohingegen kreuzartige Punkte zwei senkrecht angeordnete Linien sind. Da ein AF-Sensor eindimensional ist, kann er nur die Luminanz entlang seiner Länge ändern. Punktsensoren sind daher nur in einer Richtung für Details empfindlich, während Kreuztypen in zwei Dimensionen sehen können.

Wenn ein Punktsensor parallel zu einem wichtigen Detailmerkmal ist, kann er den Unterschied zwischen ihm und dem benachbarten Kontrastmerkmal nicht erkennen und hat daher erhebliche Schwierigkeiten beim Fokussieren.


Gleiches Muster, unterschiedlicher Sensorwinkel. Klar, die Kreuztypen können unabhängig von der Ausrichtung immer ein Muster sehen.

Kontrasterkennung

Dieses Verfahren liest einige Pixel an der gewünschten Fokusposition vom Abbildungssensor aus. Der Prozessor berechnet den Kontrastwert zwischen diesen Pixeln, die Differenz der Leuchtdichte über den gemessenen Pixelraum. Durch Berechnen des Gradienten der Kurve entlang der Pixelzeilen und -spalten kann versucht werden, den Wert dieses Gradienten zu maximieren.


Die Berechnung der Gradienten der Verbindungslinien ergibt die Differenz der Leuchtdichte pro Abstand (oder Pixel), im Wesentlichen ein Maß für den Kontrast.

Der Objektivfokus wird dann geringfügig verschoben, und der Kontrast wird erneut berechnet. Wenn der Kontrast geringer ist, hat das System das Objektiv in die falsche Richtung bewegt, also in die entgegengesetzte Richtung. Der Kontrast wird erneut gemessen, die Linse wird weiter bewegt, und dieser Vorgang wird wiederholt, bis der Kontrastwert ansteigt, bis er abfällt. Wenn es fällt, ist die Linse zu weit gegangen, und der Algorithmus bewegt die Linse wieder zurück und nimmt weitere Mikrofoneinstellungen vor.


Ich habe diesen Abschnitt eines echten Fotos in Photoshop verwischt, um die iterativen Schleifenberechnungen der Kontrasterkennung zu simulieren.

Die Kontrasterkennungsmethode von AF hat das Potenzial, extrem genau zu sein, da sie sich auf der Sensorebene und nicht auf einem separaten System befindet. Es bewegt nur die Linse, bis der Kontrast maximiert ist. Aus demselben Grund scheint es unwahrscheinlich, dass es jemals schnell gehen wird. Sie könnten argumentieren, dass nur eine Messung an zwei Fokuspositionen erforderlich ist, um zu wissen, wie stark das Objektiv defokussiert ist. Dies setzt jedoch voraus, dass die Kamera genau weiß, wie kontrastreich das Motiv ist.

Es gibt keine Möglichkeit zu wissen, wie die "wahre" Verteilung der gemessenen Luminanzwerte aussehen wird, da sie vom Motiv abhängen. Deshalb kann es auch keinen "Schwellengradienten" und keinen "idealen Luma-Spitzenwert" geben. Diese Dinge sind von Szene zu Szene sehr unterschiedlich.


Unterschiedliche Motive, unterschiedliche Tageszeiten, unterschiedliche Beleuchtung wirken sich auf den absoluten Kontrast aus.

Für die absehbare Zukunft wird das professionelle Filmemachen daher weiterhin manuelle Schärfezieher verwenden, und das spiegellose Point-and-Shoot-Verfahren wird weiterhin langsam sein. Es sei denn…

Hybride Systeme

Was wäre, wenn Sie das Beste aus beiden Welten bekommen könnten? Was wäre, wenn Sie die Geschwindigkeit der Phase erkennen und beseitigen könnten, dies aber mit der Genauigkeit und Einfachheit der Kontrasterkennung kombinieren würde? Nun, genau das tun die Hersteller jetzt.

Anstatt die Phasendetektionsstreifen auf der Unterseite eines Spiegelkastens anzuordnen, was bei spiegellosen Kameras und DSLRs im Livebild unbrauchbar ist, werden sie stattdessen als dedizierte Arrays auf dem Bildsensor selbst erstellt. Aber sicher gibt es nichts, was sich phasengleich auf den Sensor einstellen muss, weil er durch das gesamte Licht der übrigen Linse in einem großen, verschwommenen Kreis der Verwirrung gestrahlt wird, wie ich schon sagte? Nicht so schnell!

Da die Pixel (technisch "sensels", da es sich um Sensorelemente und nicht um Bildelemente handelt) auf einem bildgebenden Sensor zur Verbesserung der Lichtsammlung mit Mikrolinsen bedeckt sind, müssen wir nur die Hälfte des Pixels abblocken, um das Bild zu erhalten von einer Seite der Linse. Ist das ideal? Nein, das Bild ist immer noch unscharf, aber nur halb so unscharf wie beim Betrachten des gesamten Objektivs. Jetzt können wir es verwenden, um den Fokus genauer zu erkennen, da zwischen den beiden Bildern eine Parallaxe liegt.


Die grünen Photosites werden verwendet, weil es im Bayer-Array doppelt so viele gibt, dass die Halbbeleuchtung leichter ohne übermäßiges Rauschen korrigiert werden kann.

In den Fuji X100s wird diese Technologie verwendet, um die visuellen Hilfsmittel zur manuellen Fokussierung mit einem Split-Prisma-ähnlichen EVF-Overlay aufzuwerten, aber Sony verwendet sie als echtes Hybridsystem in Kombination mit einem Kontrasterkennungs-AF als "Fast Hybrid AF" in ihrem höheren NEX-Kameras. Canon und Nikon verwenden dieses Konzept auch in ihren unteren Kameras. In Sonys A99 nutzt ein zweites dediziertes Phasendetektionsarray den durchscheinenden Spiegel, indem er direkt vor dem Bildsensor (Dual-AF) eingeblendet wird.


Es ist in diesem Diagramm etwas schwer zu erkennen, aber das unscharfe Bild ist gleichzeitig nach links und rechts verschoben und unscharf.

Die Low-Light-Fähigkeit der On-Sensor-Phasendetektion ist daher nicht auf dem neuesten Stand. Sie ist eher auf einen Mittelpunkt beschränkt, um die Anzahl der Pixel zu reduzieren, die bei der Bildgebung nicht mehr verwendet werden, und die Technologie steckt noch in den Kinderschuhen. Aber mit dedizierteren Systemen wie den Dual-AF-Arrays von Sony und möglicherweise einigen "geopferten" Bildsensor-Pixeln (mittels Software-Interpolation) mit direkteren Mikrolinsen sieht dies nach der Zukunft des Autofokus aus.


Fazit

Wir sind also aus der Erfindung des Autofokus hervorgegangen, durch seine Entwicklung und die breite Akzeptanz. Wir haben uns die grundlegenden optischen Mechanismen des Fokus angesehen. Wir wissen, welche Arten von AF es gibt, wo sie sich in der Kamera befinden und wie sie funktionieren, und wie diese Attribute die Leistung der Kamera praktisch beeinflussen. Wir haben uns die jüngsten Entwicklungen in hybriden Autofokus-Systemen angesehen und überlegt, wo sie von hier fortfahren könnten.

Berücksichtigen Sie bei der Verwendung von AF, wie die Kamera die Szene sieht, und passen Sie sie entsprechend an. Sehen Sie sich beim Kauf von Kameras die AF-Systeme genau an und wie gut sie für Ihren Aufnahmestil geeignet sind.

Nun, das ist ein Überblick über diesen technischen Überblick über den Autofokus. Fragen? Bemerkungen? Schlagen Sie die Kommentare unten ein!