Donnerstag, 25. April 2024

Archiv

Smartphones und Kameras
Wie neue Bildsensoren arbeiten

Fotozellen reagieren auf Helligkeit des darauf fallenden Lichts mit einem mehr oder weniger starken elektrischen Signal. Hinter Farbfiltern reagieren sie ebenso, aber abhängig von der Lichtfarbe.

Von Wolfgang Noelke | 19.12.2015
    Ein Fotoapparat steht in der Natur bei Weißkopfseeadlern.
    Bildsensoren sortieren die Farbinformationen in Windeseile (picture alliance / dpa / Hinrich Bäsemann)
    Zum Beispiel ist es hinter einem rot gefärbten Filter sehr hell, wenn rotes Licht darauf fällt. Sollte das Licht grün sein, bleibt es dunkel. Erst ein, hinter jeder Fotozelle geschalteter Prozessor, der einzelne Zellen einem bestimmten Farbfilter zuordnet, sortiert auch die Farbinformation des Bildes.
    Neben roten und grünen arbeiten auch, unter blauen Filtern verborgene Fotozellen auf Bildsensoren. Da herrscht strenge Ordnung, wie auf einem Schachbrett: Beginnt die erste Reihe zum Beispiel mit einem grünen Filter und setzt sich dann bis zum Rand des Chips abwechselnd blau-grün fort, beginnt die zweite Reihe mit einer rot-grünen Filterfolge, sodass ein Mosaik entsteht, auf dem niemals zwei Farben unter- oder nebeneinander angeordnet sind; ein Schachbrett-Mosaik, mit mehreren Millionen farbigen Feldern. Nicht jede, der darunter liegenden Fotozellen wird und muss funktionieren, denn direkt nach der Chipherstellung wird eine Software...
    "... erst mal die Fehler korrigieren, zum Beispiel defekte Pixel verschleiern, das Rauschen entfernen, die Farben rekonstruieren, sodass man pro Bildpunkt tatsächlich rot, grün und blau kennt - und das dann in den entsprechenden Farbraum bringen, sodass die Stimmung und der Eindruck stimmt."
    Neben dieser, für jeden Chip individuellen Information, so Joachim Kleinert, vom Fraunhofer Institut für Integrierte Schaltungen in Erlangen, ISS gibt es...
    "... aber auch Verfahren, um das sozusagen zu lernen, um Defekte, die dann im Nachhinein entstehen, korrigieren zu können."
    Am Elegantesten: auf die winzigen Pixel verzichten
    In Smartphones sei das noch nicht üblich, obwohl gerade deren Bildsensoren sehr störanfällig sind, so Kleinerts Kollege am ISS, Harald Neubauer:
    "Eine übliche Pixelgröße ist so etwas um einen Mikrometer und das ist schon relativ nahe an der Wellenlänge des Lichtes, die so ungefähr im Roten bei 0,6 µm liegt. Diese Pixel haben also damit eine sehr, sehr kleine Fläche. Das heißt, sie fangen auch nur wenige Photonen überhaupt ein und sind an dieser Stelle schon bei niedrigen Lichtintensitäten, einfach aufgrund der Anzahl der Photonen, die überhaupt auf dieses Pixel treffen, begrenzt. Kleine Pixel sind außerdem recht anfällig dafür, dass sie Informationen von einem Nachbarpixel bekommen, weil sie so klein sind. Man spricht von einem sogenannten Cross Talk, das heißt, dass ein rotes Pixel beispielsweise Farbinformationen von einem blauen Pixel bekommt, das eigentlich direkt benachbart ist. Und dafür gibt es verschiedene Technologien, gerade für die ganz kleinen Pixel, um diese Effekte abzumildern."
    Die eleganteste Methode sei, auf diese winzigen Pixel zu verzichten, was bei großformatigen Chips für Profi-Kameras Praxis ist. Aus diesem Grund könne man nur in der Theorie aus 50 Smartphone-Chips die Fläche eines 24 x 36 cm Vollformat-Sensors herstellen, erhielte damit aber keinesfalls eine fünfzigfach höheren Bildauflösung. Harald Neubauer:
    "Man sollte die eigentliche Pixelgröße angucken und da liegt man bei den Smartphones so um die 1 µm und bei den Digitalkameras ungefähr so bei 4 µm. Das ist die Kantenlänge. Das heißt die Fläche ist dann ungefähr das Quadrat davon. Das heißt, die Fläche eines Smartphones ist dann ungefähr 1,5 Quadratsmikrometer, die einer digitalen Spiegelreflexkamera so in der Gegend von 15 Quadratsmikrometer und das macht sich dann in der Bildqualität auch deutlich bemerkbar. Weniger bei Bildern, wo man mit relativ viel Licht arbeitet, aber ganz besonders wenn man bei niedrigen Lichtintensitäten Aufnahmen macht, da sieht man die Unterschiede dann sehr deutlich. Da kann man dann den Faktor 10 auch recht leicht in den Bildern entdecken."
    Aktueller Trend: Aufnahmekomponenten, Hardware und Software intelligent zu einer Einheit verknüpfen
    Diese fast zehnfache Verbesserung würde bei aktuellen Chips auch durch eine veränderte Belichtungstechnik erreicht. Das Licht trifft jetzt von der Rückseite auf die Pixel und muss nicht mehr durch die dünnen Metallschichten der Vorderseite dringen, wie früher. Auch das rot-grün-blaue Filtermosaik ist inzwischen anders gestaltet:
    "Sehr häufig wird dieser zweite grüne inzwischen weggelassen und wird durch ein weißes Pixel ersetzt, so dass man gerade mit der Schwäche, die Smartphones im Moment haben, bei schwachem Lichtintensitäten - damit umgehen kann. Man macht dann den tatsächlichen Kontrast des Bildes, hauptsächlich bei schlechtem Licht aus den weißen Pixeln und mischt dann ein bisschen Farbe aus den restlichen Pixeln hinzu, die allerdings eine wesentlich geringere Intensität haben, weil die Farbfilter relativ viel von dem Licht schlucken."
    Diese Arbeit leisten inzwischen winzige Prozessoren, die individuell mit jedem Pixel verbunden und erst dann auf der Matrix des Chips miteinander vernetzt sind. Der aktuelle Trend sei, alle Aufnahmekomponenten, Hardware und Software intelligent zu zu einer Einheit verknüpfen so Joachim Kleinert vom Fraunhofer IIS:
    "Eine Forschungsrichtung ist zum Beispiel das sogenannte Coputation Imaging Feld, wo man versucht, durch Algorithmen Eigenschaften der Sensoren zu verbessern, aber auch ganz neue rein zu bringen, zum Beispiel den Dynamik-Umfang zu erhöhen oder den Fokuspunkt zu erhöhen, nach der Aufnahme zu verschieben. Da gibt es ganz viele Möglichkeiten, was man machen kann, wenn man wirklich diese Einheit von Sensorik, Optik und Algorithmik betrachtet."
    Im Idealfall hätte ein Bildsensor dann, ähnlich wie für Schriftsteller die Tastatur, die Eigenschaft eines ebenso multiplen Werkzeugs. Alle Ideen wären programmierbar.