4. Sensor

Der Fotosensor ist das zentrale Bauteil jeder Digitalkamera. Es gibt inzwischen eine Vielzahl unterschiedlicher Sensormodelle und die Entwicklung geht rasant weiter. Wer sich über die Vor- und Nachteile eines bestimmten Sensormodells informieren will, sollte sich möglichst aktuell in der Fachpresse informieren.

Hier soll und kann nur ein kurzer Einstieg und Überblick über die grundlegenden Funktionsweisen der gängigen Sensortypen gegeben werden.

CCD- und CMOS-Sensor

Die große Mehrheit digitaler Kameras ist heute mit CCD- oder CMOS-Sensoren ausgestattet.

Bei diesen Sensortypen sind die Dioden nebeneinander angeordnet. Grob vereinfacht kann man sich die Sensoren als ein riesiges Schachbrett vorstellen, auf dem Fotozelle neben Fotozelle liegt. Dies gilt sowohl für CCD- wie für CMOS-Sensoren. Der wesentliche Unterschied beider Sensortypen liegt darin, wie die Signale der Dioden ausgelesen werden.

Die Fotodioden sind farbenblind. Sie reagieren nur auf die einfallende Lichtmenge und nicht auf Farben oder genauer gesagt auf die Wellenlänge des Lichts, die die Farbe bestimmt. Sie erfassen deshalb nur Helligkeitsunterschiede, aus denen sich Graustufenbilder (Schwarzweißaufnahmen) bilden lassen.

CCD-/CMOS-SensorUm dennoch ein Farbbild zu erhalten, wird das Licht bei CCD- und CMOS-Sensoren gefiltert, bevor es auf die Diode trifft. Auf die einzelne Fotozelle trifft entweder nur rotes, grünes oder blaues Licht. Die Zelle reagiert nur auf das Licht mit der gleichen Wellenlänge seines Farbfilters. Sie ist also nur für eine der drei Primärfarben der additiven Farbmischung zuständig.

Da der Mensch Helligkeitsunterschiede im Wellenlängenbereich von grünem Licht besser differenzieren kann als in den Bereichen von rotem und blauen Licht, erfassen in der Regel etwa die Hälfte der Fotodioden des Sensors nur grünes Licht und jeweils etwa ein Viertel der Dioden rotes und blaues Licht. Einige Kamerahersteller versuchen die Bildqualität dadurch zu verbessern, dass sie weitere Farben filtern (z.B. Smaragdgrün) oder die Verteilung der Farbanteile ändern.

ohne FarbinterpolationInfolge der Filterung liefert der Sensor quasi drei Bilder, die jeweils die Helligkeitsunterschiede des Motivs für rote, grüne und blaue Farben wiedergeben. Mit den Helligkeitsinformationen der drei Primärfarben lässt sich jeder beliebige Farbton wiedergeben (additive Farbmischung).

Allerdings sind die Informationen des Sensors lückenhaft, da nur jede zweite Diode die Werte für Grün misst und sogar nur jede vierte Diode für Rot bzw. Blau. Um einen farbigen Bildpunkt (Pixel) darstellen zu können, werden jedoch die Helligkeitswerte in allen drei Farbkanälen benötigt. Allein die vom Sensor gelieferten Informationen reichen hierzu nicht aus.

FarbinterpolationDas Problem wird gelöst, indem sehr komplexe und ausgefeilte Computerprogramme die fehlenden Farbinformationen für das einzelne Pixel aus den Informationen der jeweils benachbarten Pixel errechnen (sog. Farbinterpolation). Dies gelingt inzwischen erstaunlich gut. Immerhin liefert der CCD- bzw. CMOS-Sensor nur ein Drittel der Bildinformationen einer Farbaufnahme während die übrigen zwei Drittel von einer Software "geschätzt" werden.

Im Rahmen der Farbinterpolation (sog. Pattern-Verrechnung oder Bayer-Mosaik-Auflösung) geht es aber nicht allein darum, fehlende Farbinformationen zu "erraten". Gleichzeit müssen auch mögliche weitere Probleme umgangen werden, wie z.B. Detailverluste, Moirés, Farbsäume oder andere Bildartefakte. Die hierfür verwendete Software - egal ob als Firmware der Kamera oder als RAW-Konverter am Computer - muss sehr komplexe Berechnungen vornehmen und hat damit entscheidenden Einfluss auf die Bildqualität.

An den meisten Kameras wird versucht, die Probleme dadurch zu verringern, dass vor dem Bildsensor ein Anti-Aliasing-Filter (AA-Filter) angebracht wird. Dieser Filter streut das auftreffende Licht geringfügig, wodurch Farbinformationen auch auf benachbarte Fotozellen verteilt werden. Die Streuung des Lichts führt aber gleichzeitig auch zu einer entsprechenden (geringfügigen) Unschärfe im Bild, der mit dem sog. digitalen Nachschärfen begegnet werden muss.

Foveon-Sensor

Die allermeisten Digitalkameras sind mit CCD- oder CMOS-Sensoren ausgestattet, wenn auch in den unterschiedlichsten Bauarten. Alle arbeiten jedoch im Grunde nach demselben oben geschilderten Grundprinzip. Ein gänzlich anderer Ansatz wurde hingegen beim Foveon-Sensor gewählt.

Foveon-SensorDer Foveon-Sensor arbeitet nach einem ähnlichen Prinzip, mit dem in der analogen Fotografie der Farbfilm realisiert wurde. Auf dem Sensor liegen drei jeweils mit Fotodioden bestückte Siliziumschichten übereinander. Das Silizium hat die Eigenschaft, die auftreffende Lichtmenge je nach Wellenlange (Farbe) mehr oder minder tief ins Material eindringen zu lassen. Das kurzwellige blaue Licht wird nahe der Oberfläche absorbiert, während grünes Licht weiter unten und das langwellige rote Licht noch weiter unten absorbiert wird. Die Fotodioden in den einzelnen Schichten können so für jeden Bildpunkt die Farbinformationen in allen drei Farbkanälen aufzeichnen. Ein Farbinterpolation entfällt. Gleichzeitig werden Farb- und AA-Filter überflüssig, was sich positiv auf die Lichtempfindlichkeit und Bildschärfe auswirkt.

Trotz dieses innovativen Prinzips gibt es bislang nur einen namhaften Kamerahersteller, der den Foveon-Sensor in seinen Kameras verwendet.

Sensorgröße und -format

Sensorgrößen im VergleichNeben der Technik haben auch Größe und Format des Kamerasensors einen erheblichen Einfluss auf die digitale Fotografie. Zu Zeiten der analogen Kleinbildfotografie hatte das Aufnahmemedium stets die gleiche Größe, das sog. Kleinbildformat von 24 x 36 mm mit einer Bilddiagonalen von 35 mm. Sensoren mit dieser Größe, sog. Vollformatsensoren, sind heute nur in einigen wenigen Spiegelreflexkameras zu finden, die für den professionellen Einsatz konzipiert sind.

In der Regel sind die Sensoren digitaler Kameras kleiner. Gängige Spiegelreflexkameras verwenden Sensoren im APS-C-Format (22 x 15 mm) oder im 4/3''-Format (18 x 13,5 mm). Die deutlich kleineren Kompaktkameras benötigen auch einen entsprechend kleineren Bildsensor. Bei ihnen sind Größen von 2/3'' (8,6 x 6,6 mm) bis 1/2,5'' (5,8 x 4,3 mm) die Regel.

Der im Vergleich zum Kleinbildformat kleinere Sensor einer Spiegelreflexkamera hat zur Folge, dass das in der Kleinbildfotografie immer eindeutige Verhältnis von Brennweite des Objektivs und Bildwinkel nicht mehr gegeben ist. Kamerahersteller geben deshalb bei Spiegelreflexkameras mit kleineren Sensoren einen sog. Formatfaktor an, der oft technisch falsch auch Brennweitenverlängerung genannt wird. Mit diesem Faktor können die durch den kleineren Sensor verursachten Verschiebungen zwischen Brennweite und Bildwinkel umgerechnet werden. An einer Kamera mit dem Formatfaktor 1,5 ergibt beispielsweise ein 50-mm-Objektiv den gleichen Bildwinkel wie ein Objektiv mit (50 x 1,5) 75 mm Brennweite an einer Kleinbildkamera. Umgekehrt wird für eine Kamera mit Faktor 1,5 ein (50 : 1,5) 33-mm-Objektiv benötigt, um den gleichen Bildwinkel wie ein 50-mm-Normalobjektiv an einer Kleinbildkamera zu erzielen.

FormateNicht nur die Größe variiert stark, sondern auch das Format der Sensoren, genauer gesagt das Verhältnis der Seitenränder. Im klassischen Kleinbildformat beträgt das Verhältnis der längeren (36 mm) zur kürzen (24 mm) Seite 3:2. In digitalen Spiegelreflexskameras haben Bildsensoren meist in etwa das gleiche Seitenverhältnis. Oft wird dieses Format als besonders harmonisch bezeichnet, weil es dem Verhältnis des "goldenen Schnitts" besonders nahe kommen soll. Im Querformat mag dies auch zutreffend sein, im Hochformat wirkt das Bild jedoch etwas unvorteilhaft in die Länge gezogen. Tatsächlich spricht vieles dafür, dass bei der Festlegung dieses Seitenverhältnisses für das Kleinbildformat weniger die Ästhetik als mehr die Technik entscheidend war.

Insofern ist es nicht erstaunlich, dass die Sensoren der für den Massenmarkt entwickelten Kompaktkameras ein wenig zusammengestaucht wurden. Bei ihnen beträgt das Seitenverhältnis meist in etwa 4:3. Im Querformat liefern sie deshalb etwas schmalere Aufnahmen, im Hochformat wirken die Fotos allerdingst nicht mehr so lang gestreckt.

Werden die Fotos später am Computer nicht beschnitten oder mehrere Aufnahmen mit einer Panoramasoftware miteinander verbunden, gibt das Seitenverhältnis des Bildsensors das Seitenverhältnis des späteren Bildes vor. Einige Kameramodelle bieten die Möglichkeit das Seitenverhältnis der Aufnahme in der Kamerasoftwäre auszuwählen. Doch Vorsicht, die physikalische Größe des Sensors wird hierdurch nicht verändert. Je nach vorgewähltem Bildformat beschneidet die Kamerasoftware vielmehr die Aufnahme, wodurch Bildinformationen verloren gehen.

Auflösung

Was für den Autofan die Pferdestärken sind, ist für viele Hobbyfotografen die Auflösung des Kamerasensors. Angegeben wird die Auflösung in Megapixeln (MP), die fett gedruckt die Werbung dominieren. "Je mehr Pixel, desto besser die Kamera" ist die einfache wie auch grundlegend falsche Vorstellung vieler Konsumenten.

Die Auflösung hängt zunächst von der Anzahl der Sensorelemente (Dioden) auf dem Kamerasensor ab. Doch Vorsicht, die Anzahl der Sensorelemente ist nicht immer mit der vom Kamerahersteller angegebenen Auflösung identisch. Bei einigen Kameras werden zusätzlich noch weitere Bildpunkte hinzugerechnet (interpoliert), um die Auflösung künstlich zu erhöhen.

Pixelwahn

Groß oder klein?Für die Bildqualität fast noch wichtiger als die Anzahl der Sensorelemente ist die Größe der einzelnen Dioden auf dem Sensor. Je mehr Dioden auf einem Sensor angeordnet werden, umso kleiner wird der Platz für die einzelne Diode. Noch weniger Platz steht zur Verfügung, wenn der Sensor selbst kleiner als ein Daumennagel ist. Bei einem 1/2,5''-Sensor mit 7,2 MP (3.112 x 2.328) bleiben rein rechnerisch für das einzelne Sensorelement ein Platz von 0,0000035 mm². Bei einem Sensor im APS-C-Format hätte das einzelne Element etwa 15x mehr Platz. Je weniger Platz für die einzelne Diode vorhanden ist, umso größer werden die technischen Probleme.

Je kleiner die Diode ist, umso weniger Licht kann sie einfangen. Das von ihr gelieferte elektronische Signal muss mehr verstärkt werden als bei einer größeren Diode, die mehr Licht einfängt. Diese Verstärkung führt aber gleichzeitig zu einem stärkeren Bildrauschen.

Je mehr Dioden auf einem Sensor angeordnet sind, umso enger liegen die Elemente nebeneinander. Dies erhöht die Gefahr, dass sich die Elemente gegenseitig störend beeinflussen und dadurch die Bildinformationen verfälschen.

Schließlich nützt die höchste Sensorauflösung nichts, wenn nicht auch die Optik ein entsprechend aufgelöstes Bild auf den Sensor wirft. Mit zunehmender Sensorauflösung steigen die Qualitätsanforderungen an das Objektiv. Vor allem bei den sehr kleinen Objektiven vieler Kompaktkameras, die zu Dumpingpreisen auf den Markt geworfen werden, darf bezweifelt werden, dass sie diesen Qualitätsansprüchen genügen.

Wie viele Pixel brauche ich?

Welche Auflösung tatsächlich benötigt wird, hängt von der späteren Verwendung der Aufnahme ab.

Wer seine Aufnahmen ausschließlich am Bildschirm betrachtet, benötigt nur so viel Pixel, wie der Bildschirm darstellen kann. Ein gängiger Bildschirm mit 1.280 x 1.024 Bildpunkten kann gerade einmal 1,3 Megapixel darstellen. Alle weiteren Pixel liefern keinen Qualitätsgewinn. Im Internet werden meist noch kleinere Bilder genutzt, da nicht jeder Surfer einen großen Bildschirm besitzt. Zudem bietet eine geringere Auflösung auch einen kleinen Schutz vor Bilddiebstählen.

Anders ist es, wenn die Aufnahme als Foto ausgedruckt oder ausbelichtet werden soll. Eine zu geringe Auflösung der Aufnahme kann hier dazu führen, dass die einzelnen Pixel für das Auge sichtbar werden und kurvenförmige oder diagonale Linien gezackt erscheinen oder treppenstufenförmige Kanten entstehen.

Um eine Aufnahme in Fotoqualität ausdrucken zu können, benötigen Sie eine Auflösung, bei der 300 Bildpunkte auf einer Strecke von einem Zoll gedruckt werden (300 ppi - pixel per inch); das entspricht etwa 118 Pixel auf einem Zentimeter. Nur wenige Tintenstrahldrucker erreichen ihre beste Qualität bei einer Auflösung von 360 ppi. Mit einer noch höheren Auflösung wird in der Regel kein sichtbarer Qualitätsgewinn erzielt.

Für einen Ausdruck im Fotoformat 10 x 15 cm benötigen Sie bei 300 ppi eine Aufnahme mit 1.181 x 1.772 Pixel = 2,1 MP. Für einen Ausdruck im DIN-A-4-Format (21 x 29,7 cm) bedarf es bei gleicher Auflösung schon 3.508 x 2.480 Pixel = 8,7 MP.

Eine Druckauflösung von 300 ppi ist sicherlich das Optimum. Bei den meisten Motiven kann jedoch auch mit einer Auflösung 240 ppi eine sehr gute Fotoqualität erreicht werden. Für ein DIN-A-4-Format würden bei dieser Druckauflösung bereits 2.806 x 1.984 Pixel = 5,6 MP reichen.

Hinzu kommt, dass mit zunehmender Größe des Ausdrucks auch der Abstand wächst, aus dem das Bild in der Regel betrachtet wird. Als Faustregel gilt, dass der Betrachtungsabstand das Doppelte der Bilddiagonalen beträgt. Mit zunehmendem Betrachtungsabstand wird es für das menschliche Auge aber immer schwieriger, Details zu erkennen. Deshalb reichen für große Ausdrucke z.B. im DIN-A-3-Format oft Druckauflösungen zwischen 200 und 300 ppi oder im DIN-A-2-Format zwischen 180 und 240 aus.

Bei der Anschaffung einer neuen Kamera sollte also genau bedacht werden, wie die Aufnahmen später präsentiert worden sollen. Zudem sollten Sie sich nicht durch eine hohe Megapixelzahl blenden lassen. Eine Verdoppelung der Auflösung erfordert bei gleichem Bildformat die vierfache Pixelzahl. So hat ein 12-MP-Sensor etwa die doppelte Auflösung eines 3-MP-Sensors. Diese Berechnung zeigt, wie gering die Auflösungsvorteile beispielsweise zwischen einem 8-MP- und einem 6-MP-Sensor sind. Wer dennoch auf eine große Megapixelzahl Wert legt, sollte im Zweifel besser eine Spiegelreflexkamera mit einem größeren Bildsensor wählen.