Hinweis: Dieser Artikel ist ein Beitrag zum ScienceBlogs Blog-Schreibwettbewerb 2016. Hinweise zum Ablauf des Bewerbs und wie ihr dabei Abstimmen könnt findet ihr hier.
sb-wettbewerb

Das sagt der Autor des Artikels, Frank H über sich:
Keine Angabe

——————————————
In der Reihe Sensorwissen möchte ich in nächster Zeit nicht nur einige Grundlagen über unseren geliebten digitalen Fotoapparat erklären, sondern zeigen, was in der Zukunft zu erwarten sein wird und was aus physikalischen Gründen auf ewig Utopie bleibt.

Intro

Bevor es mit dem ersten Thema los geht, ein paar Stichpunkte, wo die Reise mit dieser Reihe hin gehen wird:

Wie funktioniert die Lichtumwandlung? – Wo sind die physikalischen Grenzen (bzw. wie weit weg sind wir im Moment noch)
8Bit, 12Bit, 16Bit… Helligkeitsauflösung – Was ist sensorseitig machbar in Richtung HDR?
8Bit, 12Bit, 16Bit… – Die Begriffe Auflösung und Dynamikbereich erklärt.
Megapixel – Warum widersprechen sich „mehr Megapixel“ mit „weniger Glas (= weniger Gewicht)“
Noch ist das alles nicht fixiert. Vielleicht entwickelt sich die Reihe auch etwas anders.

Ich möchte dabei die Beiträge so schreiben, dass sie vor allem von Nichtfachleuten verstanden werden. Zumindest werde ich mich daran versuchen.

Sensorempfindlichkeit

Und sogleich bemühe ich mich, völlig ohne Gleichungen zu erklären, was Sensor-Empfindlichkeit inhaltlich und praktisch für uns bedeutet:

Was heißt Empfindlichkeit?

Ein digitaler Sensor, in unserem Falle also ein 2D Bildsensor, ist um so empfindlicher, je feiner aufgelöst er seine Messgröße, also die Lichtmenge, in ein Signal wandeln kann. Also, mit welcher Genauigkeit und Feinstufigkeit er die Lichtmenge auflösen kann. Genau so wird aber auch unter dem Begriff verstanden, wie weit „runter“ er seine Messgröße messen kann. Also mit wie wenig Licht er auskommt, um ein noch gut aufgelöstes Signal zu generieren, dass dann digitalisiert als Bildinformation auf der SD-Karte oder sonstwo zur Weiterverarbeitung landet. Wir haben letztlich einen gewünschten Messbereich von „absoluter Finsternis“ bis irgendwas bei „Sonne im Zenit und Schnee am Boden“. Wir betrachten in diesem Artikel also zwei Eigenschaften des Sensors:

    *Messbereich
    *Auflösung

Im Dunkeln liegt die physikalische Grenze

Dieser Abschnitt ist der Wesentlichste überhaupt. Obwohl, oder gerade weil er schon am Anfang steht. Denn eins unserer Probleme ist, dass wir zum Fotografieren meistens zu wenig Licht haben. Entweder um die Verstärkung zur Rauschminderung zu minimieren (ISO) oder die Belichtungszeit zu verkürzen, um mehr Schärfe trotz Bewegung zu gewinnen oder die Blende zu schließen, um mehr Schärfe in der Tiefe zu gewinnen. Mit zu viel Licht werden wir immer klar kommen. Zur Not setzen wir einen Graufilter vor die Linse. Aber bei zu wenig? Hilft in Wirklichkeit nichts ausser einem besseren Sensor. Doch genau da gibt es eine Grenze, bei der die Technologie bereits nahezu angekommen ist. Diese Grenze heißt

Quanteneffizienz

    Braucht man das? – Ja!

    Braucht man das wissen? – Wer neugierig ist: ja! ?

Wie wir (hoffentlich) aus der Schule noch wissen, besteht Licht nicht aus einer beliebig teilbaren und damit verringerbaren „Substanz“, sondern ist bereits in kleine Stückchen aufgeteilt, die als Lichtquanten bezeichnet werden. Unser Sensorelement können also nur 1, 2 oder 3 und mehr Lichtquanten treffen und nicht 1,0 1,1 1,2…

Demzufolge lässt sich im besten Falle innerhalb eines Pixels erfassen, ob es in einer bestimmten Zeit (Verschlusszeit, Belichtungszeit) 0, 1, 2, 3 oder mehr Lichtquanten erreicht hat. Diese Schrittweite um jeweils 1 Lichtquant ist unsere physikalisch begrenzte Auflösung der Lichtmenge, die in der Belichtungszeit auf ein Pixel einwirkt. Feiner geht für dieses Pixel nicht, weil es etwas Feineres als so ein Quant gar nicht gibt. Feiner würde nur gehen, wenn wir das Pixel in der Fläche vergrößern. Denn dann würden bei einer bestimmten Lichtstärker nun mehr Quanten eingefangen.

Um diese Grenze zu erreichen, müsste nun unsere Elektronik im Sensor möglichst so gut sein, dass sie diese Quanten pro Pixel „zählen“ kann. Doch wie zählt ein Pixel die einfallenden Quanten? Das ist eigentlich recht einfach erklärt:

Je nach Chip hat ein Pixel etwa eine Oberfläche von knapp unter 1 bis 6 µm Kantenlänge (in wenigen Fällen ist das Pixel auch noch etwas größer, bei dann meist geringer Bildauflösung). Das Pixel muss nicht zwangsläufig quadratisch sein (nur die Anordnung ist eine quadratisch strukturierte Matrix), da auch noch andere Strukturen im Chip mit eingebaut werden müssen. Es ist aber meist zumindest näherungsweise quadratisch.

Stellen wir uns ein Pixel als ein kleines Gefäß vor mit einer Oberfläche von wenigen Quadratmikrometern. In dieses Gefäß werden vor der Belichtung 10.000 Wassertropfen eingefüllt. Während der Belichtung hoffen wir nun, dass jedes Lichtquant, dass das kleine Gefäß von oben erreicht, genau einen Wassertropfen aus dem Gefäß schleudert. Zum Schluß messen wir, wie viel Tropfen noch im Gefäß sind. In Wirklichkeit befinden sich um die 10.000 Elektronen in einem Substrat eines winzigen Kondensators gefangen, der gleichzeitig eine Fotodiode ist (genauer: meist um die 1000 bis 30.000, je nach Pixelgröße). Die Lichtquanten können Elektronen „durch den Kondensator schlagen“ und ihn dabei während der Belichtungszeit entladen. – Dass das sehr vereinfacht gesprochen ist, muss uns nicht weiter interessieren.


Für die aktuellsten Bildsensoren und vor allem für die Zukunft muss ich diesen soeben geschriebenen Artikel relativieren. Verschiedene Tricks der Hersteller, den Dynamikbereich eines Sensors zur erweitern haben zur Entwicklung von Verbesserungen geführt, durch die ein Pixel nicht einfach die einfallende Lichtmenge hochlinear aufzusummieren. Zum Thema Dynamikbereichserweiterung werde ich später einen eigenen Artikel schreiben, da hier vor allem noch Entwicklungsspielraum für die nächsten Jahre ist.
Unabhängig davon gibt es inzwischen in Form von speziellen industriellen Bildsensoren, die zum Beispiel für die Verkehrsüberwachung eingesetzt werden, auch andere Prinzipien, um einen teils extrem großen Dynamikbereich abzudecken. Deren Pixel arbeiten eben nicht so hochgenau linear, wie unsere aktuellen Sensorzellen. Statt dessen sind sie darauf getrimmt, die Lichtmenge schon im Pixel im logarithmischen Maßstab zu summieren. Diese Sensoren sind bis auf Ausnahmefälle für die Fotografie nicht geeignet, da sie die Graustufungen durch diesen riesigen Dynamikbereich nur sehr grob digitalisieren. Eine Aufnahme unter normalen Lichtbedingungen würde dann mit nur 4 Bit und weniger digitalisiert werden.

Doch nun zurück zum allgegenwärtigen Sensor.

Gehen wir jetzt davon aus, dass wir einen Sensor vor uns haben, der keinen Filter verwendet, um nur bestimmte Farbbereich zu erkennen, also einen Schwarz-Weiß-Sensor. Dann könnte er pro eintreffendem Lichtquant gleich welcher Farbe (Wellenlänge) und einem damit herausgeschleuderten Wassertropfen, also Elektron, jedes Lichtquant zählen, bis der kleine Wasserbehälter, also der Kondensator, leer ist.

Kann er das? Ja, fast. Das Verhältnis aus eintreffenden Lichtquanten und herausgeschleuderten Wassertropfen (Elektronen) bezeichnet man als Quanteneffizienz. Fast bedeutet bei modernen Sensoren eine Quanteneffizienz von derzeit um die 60%.

Nehmen wir mal ganz rund 50% an, bedeutet das, dass im Mittel jedes zweite Lichtquant erfasst wird und durch die nachfolgenden elektronischen Arbeitsschritte auch gezählt werden könnte.

Die physikalische Grenze wäre, jedes Quant zu registrieren. Das zu erreichen sieht nach „viel“ aus. Also von 60% auf 100% Quanteneffizienz. Aber das ist es nicht: Dieser maximale Verbesserungsfaktor von knapp 2 würde die Empfindlichkeit leider nur noch um einen einzigen Lichtwert, also eine ganze Blendenstufe oder ein ganzer Belichtungswert in Richtung kürzerer Belichtungszeit oder kleinerer Blende verbessern. Aus praktischer Erfahrung wissen wir, dass das zwar schön, aber auch keine Weltbewegung ist.

Halten wir fest: Die Verbesserung der Quanteneffizienz kann die Empfindlichkeit der aktuellen Sensoren bestenfalls noch um knapp einem Lichtwert verbessern.

Schatten vor dem Sensor

Die CMOS-Technik hatte es bisher mit sich gebracht, dass man im Schaltkreis , also dem Siliziumscheibchen, dass in unsere Kamera gebaut wird, nur in der untersten Ebene die lichtempfindliche Schicht (Sensorebene) einbringen konnte und darüber die notwendigen Bauelemente zur Steuerung und Auslesung des Pixels aufbringen musste.


Zum Verständnis muss ich hier einen kleinen Einschub machen. „Unten“ bedeutet hier noch(!) in der untersten Ebene der dünnen nutzbaren und bearbeiteten Schicht auf der Oberseite der Siliziumscheibe. Alles Silizium darunter ist hier nur mechanischer Träger. Dieser Träger ist relativ dick, damit uns der Chip bei der Herstellung und in der Kamera nicht zerbricht.

Diese Bauteile und Leitungsführungen führten zu einer Abschattung des nutzbaren Bereiches in der Sensorebene. Ein Ärgernis, aber aus physikalischen Gründen muss die sensorische Schicht so tief liegen. Man machte demzufolge die einzelnen Pixel in der Fläche etwas kleiner, baute die Bauelemente darüber in den Spalt zum nächsten Pixel und fügte oben drauf eine Linse, die möglichst alles einfallende Licht so nach unten beförderte, dass sämtliche Quanten wieder die lichtempfindliche Pixelfläche trafen. Die Vergangenheitsform ist falsch: So wird das auch heute noch häufig gemacht.

Durch die Handybranche wurde aber viel Geld frei, besonders kleine Sensoren weiterzuentwickeln. Ziel war, mehr Megapixel zu schaffen, ohne den Sensor zu vergrößern. Die Elektronik blieb, aus physikalischen Gründen, in der vorhandenen Größe oder konnte nur sehr begrenzt verkleinert werden. Damit wird also das Verhältnis aus abschattender Elektronik und Pixelgröße besonders schlecht, je kleiner man das Pixel bauen möchte. Jedoch: Möchte man die Auflösung groß machen, also viele Megapixel, muss man jedes Pixel klein machen. Beim Smartphone sollen und müssen die Sensoren klein bleiben. Wegen der ungünstigen optischen Verhältnisse (kurze Längen, kleine Linsen). Dementsprechend blieben keine Spielräume. Denn kleinere Pixel bedeutet eine schlechtere Empfindlichkeit bzw. mehr Rauschen.

Nun haben viele Millionen Menschen Geld für Smartphones ausgegeben und damit auch die Weiterentwicklung der Bildsensoren mitbezahlt. Der neueste Schrei heißt nun „Rückseitig belichteter Sensor“. Ganz so neu ist das inzwischen auch nicht mehr, aber aktuell state-of-the-art.

Rückseitig belichteter Sensor

Der Herstellungsprozess von CMOS-Schaltkreisen konnte nicht prinzipiell geändert werden. Die fotoempfindliche Schicht ist weiterhin ganz unten in den aktiven Strukturen an der Oberfläche des Chip (in diesem Stadium ist es noch ein Wafer, der mehrere noch nicht voneinander getrennte spätere Chips umfasst.)

Nur hat man sich gefragt, ob man das Licht nicht einfach von unten in den Sensor einfallen lassen kann. Nun, da wären sicher auch schon unsere Vorfahren im alten Rom drauf gekommen. Das Problem ist nämlich, dass diese Schicht dick und kaum lichtdurchlässig ist. Ein Siliziumkristall ist eben kein Glas.

Die schon genannten Chancen, am Smartphonemarkt zu verdienen, brachte den notwendigen Schub, Maschinen für einen speziellen Bearbeitungsschritt zu entwickeln: Die Wafer mit den fertigen Sensorstrukturen an der Oberfläche werden auf der Unterseite so weit abgeschliffen, dass das Licht ungehindert die lichtempfindliche Schicht von unten erreicht. Oder „hinten“, je nachdem, wie man es betrachtet. Schleift man soweit, würde sich das verbleibende Material wohl in ein gerolltes Häutchen zusammentun. Aus diesem Grund muss vorher ein neuer Träger aufgebracht werden. Jetzt auf der bisherigen Oberseite. Dieser Träger ist dann im fertigen Chip die Unterseite, mit der der Chip auf eine Unterlage aufgebracht wird, die wiederum im Kameragehäuse fixiert werden kann. (Oder bei Sony typischerweise von Piezomotoren zur aktiven Verwacklungskorrektur bewegt wird.)

Das Meisterstück glückte. Und so produziert man neue, gute Sensoren heute als sogenannte rückseitig belichtete Sensoren. Bei Sony z.B. heißt das dann Exmor R, was vor dieser „Verdrehung“ der lichtempfindlichen Seite als Exmor hergestellt wurde. Man kann natürlich auch großformatige Sensoren mit dieser technologischen Finesse herstellen. Allerdings bringt das alleine nichts, weil der Anteil an Sensorfläche zu dem, den die Bauteile und Leiterzüge belegten, schon immer relativ groß war. Jedoch hat sich hier ein Fenster geöffnet: Je Pixel kann nun, vor allem eben bei diesen großformatigen Sensoren, allerhand Zusatzelektronik integriert werden, ohne dass sich das auf die Sensorempfindlichkeit auswirkt. Da wären zum Beispiel Schaltungstricks, den Dynamikumfang zu vergrößern. Den Herstellern fällt da bestimmt einiges ein, für das es sich mal lohnt, jetzt schon die aktuelle Patentlage zu inspizieren. Ich habe das noch nicht weiter verfolgt. Nachdem wir allerdings wissen, dass die Quanteneffizienz kein wesentliches Thema zur Verbesserung mehr ist, könnte hier noch einiges an Innovation auf uns warten.

Mikrolinsen und Filter

Die oben genannten Probleme mit der seitlich über dem Pixel befindlichen Elektronik und deren Lichtabschattung hat man schon früh dadurch gelöst, dass jedes Pixel eine eigene kleine Linse bekam. Auch bei den rückseitig belichteten Sensoren hat man das beibehalten. Es ist wohl ein gut gehütetes Geheimnis der wenigen Hersteller, wie man Millionen gleichartiger Mikrolinsen mit einer Kantenlänge im einstelligen Mikrometerbereich und darunter herstellt. Sinn und Zweck ist einzig, möglichst alles Licht, was nahezu aus allen Winkeln auf die pixeläquivalente Oberfläche des Halbleiters auftrifft, auf die empfindliche Fläche abzulenken. Insbesondere für Smartpohnes ist das wichtig, weil deren Linse eine extrem kurze rückseitige Fokusweite besitzt und unmittelbar vor dem Chip angeordnet ist, um die Bauhöhe der Anordnung klein zu halten. Für viel Licht wird die Linse mit ausreichend Öffnung (Durchmesser) versehen und das Licht trifft entsprechend mit sehr flachen Winkeln auf den Chip.

Während mittels der Mikrolinsen versucht wird, alles Licht auf die empfindliche Sensorschicht eines Pixels zu bringen, wird aber noch ein Filter vor jedes Pixel gesetzt, damit nur Wellenlängen eines Farbbreiches rot, grün oder blau das Pixel erreichen. Sonst könnte man keine Farbbilder erzeugen. Der Filter liegt zwischen Mikrolinse und Chip. Bei Filmkameras gibt es noch ein anderes Prinzip: Da werden drei Sensoren eingesetzt, die jeweils über den gesamten Sensor ein Filter einer Farbe gezogen bekommen. Die davor befindlichen teildurchlässigen Spiegel verteilen das Bild hinter dem Objektiv gleichzeitig auf diese 3 Sensoren. In der Fotokameratechnik ist das unüblich. Statt dessen besitzt jedes Pixel ein eigenes Farbfilter. Das Muster, welches Pixel mit welcher Farbe gefiltert wird, muss bekannt sein. Üblich ist z.B. die Bayer-Matrix. Aus dem Datenblatt eines Sensors geht jeweils hervor, welches Pixel, welchen Filter besitzt. In der Regel gibt es 50% Pixel mit Grünfilter und je 25% für Rot und Blau, was auch schon eine Optimierung ist, trotz Filterung möglichst viel Licht-, also Helligkeitsinformationen zu bekommen.

Auch bei den rückseitig belichteten Sensoren sind natürlich diese Farbfilter notwendig, wenn wir einen Farbsensor haben wollen. Das vergrößert den Abstand von Sensoroberfläche zur lichtempfindlichen Schicht wieder, obwohl dazwischen keine elektronischen Bauteile stören. Denn die liegen ja nun dahinter. Auch müssen die Pixel, also die dotierten pn-Übergänge, einen gewissen Abstand zur Nachbarzelle einhalten, damit die Elektronen nicht seitlich abdriften. Die Herstellung der Mikrolinsen ist technologisch gelöst. Um nun wiederum die verfügbare Fläche optimal zu nutzen, werden auch bei rückseitig belichteten Sensoren diese Mikrolinsen aufgebracht. Und auch seitlich sehr flach einfallendes Licht bei Smartphones (oben schon einmal erläutert) wird damit noch eingefangen.

Nun nochmal zurück zur Quanteneffizienz:

Durch die Notwendigkeit, bei Farbsensoren die Lichtumwandlung in ein Signal mittels Filter auszuführen, um die Farbinformation zu bekommen, ist es auch nicht theoretisch möglich, die gesamte Bildinformation mit 100% Quanteneffizienz als Farbbild umzuwandeln. Bei Farbsensoren liegt sie also prinzipbedingt aktuell noch deutlich unter diesen oben schon genannten 60% Quanteneffizienz.

Lässt sich das trotzdem verbessern?

Wenn es eine Möglichkeit gäbe, die Farbinformation in einer einzigen Pixelfläche ohne Filter zu erfassen, würde sich die Quanteneffizienz um 2/3 verbessern. Allerdings ist das nur eine Milchmädchenrechnung. Allein schon deshalb, weil die 3 Grundfarben nicht existieren, sondern es sich um ein Spektrum handelt, was wir in 3 Grundfarben wandeln. Und das tun wir auch nur deshalb, weil wir in der Wiedergabe mit diesen 3 Farben unsere Sehzellen anregen, die in diesen Farben ihr Wirkungsoptimum haben. Aber, halten wir fest, eine Farberfassung ohne Filter würde tatsächlich in der Größenordnung eines halben Lichtwertes etwas Empfindlichkeit bringen. Mir ist jedoch nicht bekannt, dass es da auch nur eine Idee gäbe, wie man das physikalisch machen kann. In einem Pixel Quanten alle Wellenlängen zu erfassen ist also noch Utopie.

Unter der Annahme, dass detaillierte Bildinformation im Graubereich enthalten ist und die Farbinformation für den Menschen mit niedrigerer Auflösung erfasst werden kann (JPG nutzt das z.B. aus), lassen sich auch Sensoren vorstellen, die teilweise Pixel ohne Filter in der Matrix haben (z.B. alle grünen Filter weg lassen und aus den Werten von Rot- und Blau-Pixeln wieder auf den vermutlichen Grünanteil zurückrechnen). Aber auch damit würde man nur im unteren zweistelligen Prozentbereich etwas an Quanteneffizienz herausholen. Bruchteile eines ganzen Lichtwertes. Und das ist leider nicht sehr relevant.

Große Pixel – Große Fläche

Wie bekommt man nun mehr Lichtquanten in ein Pixel, wenn schon nahezu alles Mögliche ausgeschöpft ist, Quanten auf ihrem Weg zum Pixel nicht zu vernichten (bis halt auf die notwendigen Farbfilter)?

Die Überschrift verrät es schon: Man muss das Pixel größer machen. Im Smartphone haben die Sensoren Pixelgrößen um 1µm und darunter. Bei Fotoapparaten kann man sich schon um die 5µm erlauben. Warum?

Wir möchten später im Bild eine bestimmte Mindestauflösung der Details haben. Fürs Filmen ist UHD Standard, 4k aktuell auch bei den Konsumer-Kameras im Kommen. Und bei Fotos hätten wir doch gerne wenigstens zwischen 10 bis 40 Megapixel. Nun ist ein Mikrometer zwar winzig klein, aber 1cm Kantenlänge sind letztlich auch nur 10.000µm. Ein Sensor im Smartphone kann sich keinen Zentimeter erlauben. Bei Kameras im üblichen Kleinbildformat gewährt man der langen Seite immerhin um die 3,4…3,6cm. Erkauft sich das aber auch mit entsprechend langen optischen Wegen zum Objektiv und entsprechenden Objektivgrößen, also Platz und Gewicht.

Nehmen wir an, wir möchten einen 24 Megapixelsensor im Verhältnis 4000×6000 Pixel auf 24x36mm herstellen. 36000 Mikrometer dividiert durch 6000 ist genau 6µm. Wollen wir eine höhere optische Auflösung, muss man entweder auf Lichtquanten pro Pixel verzichten (kleineres Pixel) oder die Fläche vergrößern. Zweiteres machen digitale Mittelformatkameras. Der Preis skaliert entsprechend. Und auch die Objektive werden nicht nur teurer, sondern auch größer (deshalb teurer in der Herstellung) und vor allem schwerer.

Das Ganze ist letztlich ein Optimierungsproblem und man kommt somit auf die allbekannte Spreizung zwischen Smartphonsensor über kompakte Kameras, kleinbildäquivaltente Kameras (24x36mm) bis hin zu Kameras, die für Spezialanwendungen (die auch das notwendige Geld einbringen müssen) mit größeren Sensoren optimiert sind.

Auch wir Fotoamatuere und Profis können uns drehen und wenden: Eine Immer-dabei-Kamera, die nicht übermäßig groß und schwer sein soll, also inklusive Objektiv, muss einen Sensor noch unterhalb des Kleinbildformates haben. Auflösung hoch, Pixelgröße runter – oder umgedreht. Das ist der verbleibende Spielraum, den wir kennen. Der Profi kann hier und da auch noch mehr Gewicht und Volumen mit sich rumschleppen, wenn sich das lohnt. Er benutzt dann eine Kamera mit einem Sensor irgendwo im Mittelformat. Und genau, weil das auf der Objektivseite schwer und kostspielig ist, wird das auch zukünftig nie ein Massenmarkt. Also werden auch die Kameras mit solchen Sensoren in kleinen Stückzahlen hergestellt und nicht billiger. Aber, selbst wenn die billiger würden: Die damit notwendige optische Leistung des Objektives bestimmt den Preis und das Gewicht.

Was ich damit sagen will: Bezüglich Auflösung und nahezu alles an Empfindlichkeit (s. oben) sind wir jetzt bereits an Grenzen angekommen, die nur noch wenig an das theoretische Maximum aufschließen werden.

Und?

Wie wir sehen, ist bezüglich Empfindlichkeit bezogen auf die theoretische Zahl und Auflösung an Lichtquanten das Ende der Fahnenstange schon fast erreicht. Die Theorie gibt uns noch etwa einen und nur theoretisch rund 1,5 Lichtwerte an die obere Grenze. Sind wir mit unseren Kameras deshalb tatsächlich schon an der Grenze des Machbaren?

Ohne den Koch

Bisher haben wir die Rechnung noch ohne den Koch gemacht. Wir haben die Zutaten angesehen, aber nicht beachtet, was im Kochtopf passiert. Betrachtet haben wir nur, wie viel Licht (Quanten) wie viel Einheiten (Elektronen oder von mir aus auch Wassertropfen) pro Pixel zur Messung generieren können. Was wir nicht betrachtet haben ist die Frage: Können wir denn tatsächlich auch alle Elektronen einzeln so genau zählen, dass sich die Quanteneffizienz als Empfindlichkeits- und Auflösungsmaß eignet?

Nein. Können wir nicht. Also nicht ganz. Wir haben nämlich nicht betrachtet, wie die Zählung der nach der Belichtung im Gefäß verbleiben Wassertropfen, also Elektronen, abläuft. Und wo da noch Schwächen sind, die verbessert werden können. Auch entfernen sich Elektronen während der Belichtung aus dem Pixel, ohne je ein Lichtquant gesehen zu haben. – Diese Fragen werden wir in einem späteren Artikel nachgehen, der sich mit Dunkelstrom, Rauschen und vor allem der notwendigen Digitalisierung befasst.

So viel zum Ende dieses Artikels:

Unsere Bilder, mit ihren digitalisierten Pixel-Lichtwerten, bekommen ihre Information aus der physikalischen Umwandlung von Lichtquanten in elektrische Ladungsträger sowie in der Digitalisierung dieser Ladungsträger in einen Zahlenwert. Wir haben in diesem Artikel nur den ersten Teil betrachtet. Nachdem das Pixel Licht gesehen hat und eine Restmenge an Elektronen in diesem Pixel verblieben ist, beginnt nun noch ein längerer Prozess, bis diese Elektronenzahl in einen Zahlenwert gewandelt wurde.

Ach… Da ist doch noch etwas:

Messbereich nach oben

Bisher haben wir untersucht, was wenig Licht auf unsere Pixel für Grenzen hat. Doch was ist mit viel Licht?

Wir haben ganz oben unseren winzigen Wasserbehälter mit 10.000 Tropfen Wasser gefüllt, bevor wir die Belichtung gestartet haben. Wenn wir nun etwa jedes zweite Lichquantum einfangen und es aus unserem Behälter einen Tropfen herausspritzen läßt, dann ist der nach 20.000 Lichtquanten leer. Und wenn noch mehr Lichtquanten eintreffen, bevor der Verschluß zu macht, dann wird er auch nicht leerer. Der Fachmann sagt dazu Sättigung. Der sieht den Behälter dabei umgangssprachlich anders rum: Also als ob er zuerst leer wäre und nach 10.000 Tropfen nicht mehr hinein geht, weil er überläuft. Er also gesättigt ist mit Tropfen.

Dass wir den Behälter zuerst füllen und mit Licht entleeren ist eine technische Besonderheit, die ich schon oben erwähnte. Man könnte es auch umgedreht machen: Zuerst den Kondensator von Elektronen entleeren und dann mittels Fotodiode füllen lassen. Egal, wie man es tut, ob man nun zuerst die Elektronen hinein füllt und dann leert oder bei der Messung sie erst hinein lässt: Es gibt technische Beschränkungen, die die Zahl der Elektronen begrenzt. Je nach Pixelgröße und Herstellungsverfahren liegt aktuell der Bereich bei um die 1.000 Elektronen bis um die 30.000 Elektronen „full well“, wie der Fachmann sagt (oder das Datenblatt). Das ist also die Start-Füllmenge an Elektronen. Wir können also bestenfalls, wenn wir tatsächlich jedes verbleibende Elektron nach der Belichtung abzählen, bestenfalls 30.000 Quantifizierungen über die vorher eingefallene Lichtmenge durchführen. Dieser Wert gilt aber nur für sehr große Pixel und sehr guter Sensoren.

Kommt mehr Licht auf das Pixel kann man es nicht leerer als leer machen. Und damit haben wir in diesem Artikel nicht nur die Empfindlichkeit besprochen, sondern auch die maximale Auflösung in dem Dynamikbereich, den der Sensor messen kann. Und nun nochmal mit Zahlenwerten:

Der Messbereich liegt also bei 0 bis (Größenordnung) 30.000 Messeinheiten (Elektronen oder Wassertropfen). Also bei 0 bis (Größenordnung) um die 60.000 Lichtquanten (ohne Farbfilter vor dem Pixel bei 50% Quanteneffizienz). Diese großen Zahlen entsprechen auch großen Pixeln. Bei normal-guten Kameras dürfte der Wert aktuell bei 10.000 bis 20.000 Elektronen pro Pixel liegen. Bei Smartphones und Kompakten geht er weiter runter.

11 Gedanken zu „Sensorwissen 1: Grenzen der Empfindlichkeit“
  1. Vielen Dank für die detaillierte Erklärung der Funktionsweise eines Kamerasensors.

    Die Einleitung macht allerdings den Eindruck als wäre der Artikel für ein anderes Blog geschrieben und nicht mehr angepasst worden.

    Ich habe noch ein paar Ergänzungen:

    Wenn es eine Möglichkeit gäbe, die Farbinformation in einer einzigen Pixelfläche ohne Filter zu erfassen, würde sich die Quanteneffizienz um 2/3 verbessern. […] In einem Pixel Quanten alle Wellenlängen zu erfassen ist also noch Utopie.

    Es gibt von Sigma den Foveon X3 Sensor, bei dem jedes einzelne Pixel für alle drei Farben empfindlich ist. Bisher geht dort allerdings wohl noch so viel Signal auf anderem Wege verloren, dass der Sensor nicht wesentlich empfindlicher ist als andere Sensoren.

    […] von 60% auf 100% Quanteneffizienz. […] Dieser maximale Verbesserungsfaktor von knapp 2 würde die Empfindlichkeit leider nur noch um […] eine ganze Blendenstufe […] verbessern. Aus praktischer Erfahrung wissen wir, dass das zwar schön, aber auch keine Weltbewegung ist.

    Also ich finde eine Blendenstufe schon viel. Bei Blende 2 kann meine µ4/3 Kamera noch wunderbar drinnen ohne Blitz fotografieren, bei Blende 3 geht das nicht mehr. Beim Objektiv bedeutet eine Blendenstufe mehr Lichtempfindlichkeit oft einen Faktor 3 oder mehr im Preis und beim Gewicht.

    Zum Glück ist Abhilfe in Sicht. Photometrics und Tucsen bieten inzwischen für Wissenschaftliche zwecke CMOS (keine CCD) Kameras mit über 90% Quanteneffizienz an. Ich hoffe, dass sich die Technologie auch bald im Consumer Markt wiederfindet.

  2. Bei unter 1 µm Pixelgröße nähern wir uns schon sehr der Wellenlänge des Lichts, zumindest im langwelligen, roten Bereich. Damit treten Beugungseffekte auf, unser Pixel liegt in der Größenordnung der Airy-Scheibe, je nach Apertur (f-Zahl), und die ganze Optik ist „diffraction limited“.

  3. @Till

    Bei großer f-Zahl (kleiner Apertur) gibt es Beugungseffekte auch bei der doppelten und dreifachen Wellenlänge. Siehe https://en.wikipedia.org/wiki/Airy_disk#Cameras:

    A typical setting for use on an overcast day would be f/8 (see Sunny 16 rule). For blue visible light, the wavelength λ is about 420 nanometers (see cone cells for sensitivity of S cone cells). This gives a value for x of about 4 µm. In a digital camera, making the pixels of the image sensor smaller than this would not actually increase optical image resolution. However, it may improve the final image by over-sampling, allowing noise reduction.

  4. Die Kamerasensoren sind schon an die Grenzen ihrer Möglichkeiten gekommen. Die Wiedergabegeräte nicht. Dort werden aus Kostengründen und aus Gründen der Standardisierung nicht alle Möglichkeiten genutzt.
    Was nützt mir ein Vollformatsensor (von der langen Brennweite mal abgesehen), wenn ich den Qualitätsunterschied auf meinem Monitor fast nicht wahrnehme, der Preisunterschied aber ein Vielfaches beträgt. In der Praxis haben die Digitalkameras die Analogkameras bereits überholt.
    Bei Astrokameras, wo es auf die Größe nicht ankommt, da können sich die Entwicklungsingenieure noch austoben.

  5. @Lercherl

    Bei großer f-Zahl (kleiner Apertur) gibt es Beugungseffekte auch bei der doppelten und dreifachen Wellenlänge.

    Da hast Du völlig recht. In dem Fall ist dann die Blende limitierend für die Auflösung, nicht die Pixelgröße. Das gilt aber für alle Pixelgrößen, wenn man die Blende klein genug macht, wird sie irgendwann limitierend für die Auflösung. Die Blende ( als Teil der numerischen Apertur) steht ja in der Gleichung für die Auflösung mit drin.

  6. Sichtbares Licht hört bei ca 800 nm auf, d.h. erst bei ca. 400nm Pixelgröße wäre der Sensor durch Beugung limitiert.

    Dabei habe ich vergessen das Nyquist theorem zu berücksichtigen: um keine Information zu verlieren (d.h. um pixelartefakte zu vermeiden), müssen die Pixel halb so groß sein, wie das Auflösungslimit (also 200nm). Aber das gilt, wie @lercherl schon gesagt hat“ nur für sehr offene Blenden.

  7. @alle:
    Besten Dank für die ersten Kommentare!

    @Till:
    Richtig. Florian hat für den Wettbewerb auch Artikel zugelassen, die nicht speziell für Scienceblogs.de entworfen werden. Ich starte mit diesem Beitrag eine kleine Serie auf meinem eigenen Blog. Dort steht, neben einigen Side-Kicks bereits Folge 2 noch unveröffentlicht am Start, zu der ich nur noch einige Experimente aufbereiten möchte. Dann auch mit Bildmaterial. Wenn diese Beitrag hier nicht mehr weiter kommentiert wird, geht er auf meinem Fotoblog fhotolab.fherb.de online. Wie gesagt: Dort ordnet er sich dann inhaltlich ein.

    @Till: Foveon X3 (Sigma)
    Danke! Sowas hatte ich schon versucht zu finden. Der Chiphersteller Dongbu HiTek Co. war mir noch kein Begriff. Die unterschiedliche Eindringtiefe war mir bekannt. Nicht jedoch, dass das schon mal versucht wurde auszunutzen. Wie in WikiPedia beschrieben, hat das Modell aber (noch) keine so großen Fortschritte gebracht. Mal sehen, ob ich dazu in nächster Zeit noch etwas finde. Manchmal nehen die Hersteller an Konferenzen teil, wo sie (sehr begrenzt) aus dem Nähkästchen plaudern.

    Eine Blendenstufe ist sicher schon nenenswert. Aber weit weg von irgendwelchen Hoffnungen, bei schlechtem Licht statt mit ISO1600 mal irgendwann mit ISO100 ohne Rauschen fotografieren zu können. Wegen des Photonenrauschens helfen da nur größere Pixel.

    @Lercherl
    Außerdem kann man bei diesen kleinen Flächen die Photonen noch besser „zählen“. Das heißt ganz unbeachtet von optischen Effekten steigt das Photonenrauschen zu stark. Das merkt man beim Smartphone, wo solche kleinen Pixel verwendet werden, nicht so sehr, weil die Software mit der Umwandlung zum JPG auch gleich das Bild entrauscht.

    @Helmut Wiedemann
    Dem kann ich nicht vollständig zustimmen. Die aktuellsten Wiedergabegeräte haben viel kleinere Pixel (Auflösung) und noch dazu ein zunehmend höheres Kontrastverhältnis. Das ist zwar ganz klar immer noch schlechter als der Tonwertumfang moderner Kameras und nur 8 Bit pro Farbkanal, aber die Kamera erzeugt zuerst das Rohbild. Und wenn man dieses mit der Hand „entwickelt“, um zu besseren Ergebnissen als die Kameraautomatik zu kommen, merkt man die Grenzen auch der guten Sensoren.

    Rein optisch ist der analoge Film bereits digital überholt. Allerdings bleibt Photonenrauschen, was fast nur noch mit größerer Pixelfläche zu verbessern ist (oder Software). Bei in die 20 Megapixel Kleibildformat sind die Zoomobjektive allesamt an der Grenze. Besser sind nur noch sehr gute Fix-Fokus. Für Profis, die für Verlage arbeiten, spielt eine hohe Auflösung aber eine Rolle. Deshalb benötigen die Mittelformatsensoren: Große Pixelfläche = weniger Rauschen; Viele Pixel = ausreichend Auflösung für Großformat; Große Pixel = große schwerere Optik, die für diese hohe Auflösung dann aber auch genügend Schärfe bietet.

    Was bei Monitorbildern (zumindest mich) am meisten stört, ist die Kodierung mit den nur 8Bit pro Farbkanal.

    In diesem Zusammenhang würde ich nun doch mal direkt auf weitere Beiträge von mir verlinken:

    Zum Photonenrauschen (dem bei modernen Sensoren dominierenden Rauschen): https://fhotolab.fherb.de/2016/09/09/laboratorium-licht-bringt-immer-photonenrauschen/

    Zur Problematik (und Lösung) der zu geringen Farbkanalauflösung beim JPG und Monitor (Stufenbildung): https://fhotolab.fherb.de/2016/09/04/dithering-ein-gimp-tutorial/

    Der letzte Link ist genau so zutreffend für eine Bildvorbereitung für Monitordarstellung. Denn, und hier muss ich natürlich Helmut Wiedemann zustimmen: Der Monitor bzw. die Grafikkarte arbeitet auch noch mit 8 Bit pro Kanal. Wie man dort sieht, kann aber eine Bildvorbereitung zur Darstellung auf dem Monitor ordentlich Arbeit machen. Holt aber aus dem Bild mehr raus, als der Monitor tatsächlich kann.

  8. @fherb

    Wegen des Photonenrauschens helfen da nur größere Pixel.

    Ist das Problem nicht eher das Dunkelrauschen (= dark noise), also das thermische Rauschen im Pixel in Kombination mit dem Rauschen des Detektors und A/D wandlers? Das Dunkelrauschen wird bei höheren ISO-Werten mit amplifiziert und macht dann in dunklen Bildbereichen das Bildrauschen aus. Größere Pixel sorgen dann für mehr Signal und somit einen höheren Signal-Rauschabstand, sodass man nicht so stark verstärken muss und das Dunkelrauschen nicht mehr auffällt. Photonenrauschen (=shot noise) ist soweit ich weiss bei ungekühlten Sensoren um ein vielfaches geringer als Dunkelrauschen. Ich denke, dass im Bereich des Dunkelrauschens das größte Potential liegt, um aktuelle Sensoren noch zu verbessern.

  9. @fherb

    Schöner Artikel, locker geschrieben, aber ein paar erkläredne Bildchen hätten ihm gut getan.

    Aber, halten wir fest, eine Farberfassung ohne Filter würde tatsächlich in der Größenordnung eines halben Lichtwertes etwas Empfindlichkeit bringen. Mir ist jedoch nicht bekannt, dass es da auch nur eine Idee gäbe, wie man das physikalisch machen kann. In einem Pixel Quanten alle Wellenlängen zu erfassen ist also noch Utopie.

    Schon mal von ARCONS gehört? Eher was für Profis, wer kann sein Handy schon bis zur Supraleitung runterkühlen, aber vielleicht ein Anfang.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.