News & SzeneTechnik

Vier Faktoren für das perfekte Bild

Im Wesentlichen sind es vier Faktoren, die maßgeblich die Qualität digitaler Aufnahmen bestimmen: das Objektiv, der Bildsensor, der Bildprozessor und das kamerainterne Bildverarbeitungsprogramm. Jedes einzelne Glied dieser „Imaging Chain“, der Kette des Entstehungsprozesses digitaler Bilder, hat Einfluss auf das Endergebnis.

Das Objektiv

Da Bildsensoren das vom Objektiv projizierte Bild anders erfassen als früher der Film, sind viele alte Objektive nur bedingt geeignet, das Optimum der möglichen Sensorauflösung zu nutzen. Moderne, für Digitalkameras gerechnete Objektive weisen einen telezentrischen Strahlengang auf, das heißt, die Lichtstrahlen werden möglichst parallel und senkrecht auf den Sensor gelenkt. So können die röhrenförmigen Pixel das einfallende Licht besser auffangen, als es mit schräg auftreffenden Strahlen möglich ist. Ebenso wichtig ist die Auflösung des Objektivs, sprich seine Fähigkeit, feine Strukturen zu unterscheiden. Je feiner die Linienpaare, die ein Objektiv noch unterscheiden kann, umso präziser treffen die Strahlen auf die einzelnen Pixel und umso weniger kommt es zu Überschneidungen, die dazu führen können, dass ein Lichtstrahl Pixel mit unterschiedlichen Farben trifft. Die wichtigsten Innovationen in der Objektiventwicklung für eine verbesserte Bildqualität von Digitalkameras betreffen die Auflösung, den telezentrischen Strahlengang, die Nanovergütung für Reflexfreiheit und Farbsteuerung, den Einsatz asphärischer Linsen und optischen Gläsern mit anomaler Dispersion für die Korrektur konstruktionsbedingter Abbildungsfehler, wie Aberrationen, Randabschattungen oder Verzeichnungen.

Der Sensor

Damit der Sensor das perfekt projizierte Bild auch ebenso perfekt erfassen kann, sollte sein Pixelraster der Auflösung des Objektivs entsprechen. Sensoreigenschaften, die für die Bildqualität maßgeblich sind, betreffen seine Gesamtgröße, Zahl, Größe, Aufbau und Empfindlichkeit der einzelnen Pixel (Picture Elements) sowie das verwendete Filterraster zur Erfassung der Farbinformationen. Aber auch Eigenschaften, die das Auslesen der erfassten Bildinformationen betreffen, sind entscheidende Qualitätsmerkmale. Sie bestimmen beispielsweise, wie schnell die Daten erfasst werden und in welchen Intervallen neue Aufnahmen gemacht werden können. Der Signal-Rausch Abstand der ausgelesenen Informationen beeinflusst die spätere Entwicklung des digitalen Bildes durch den Prozessor.
Sensortyp
Im Wesentlichen werden drei Sensortypen für die digitale Bilderfassung eingesetzt: CCD (Charged Coupled Device = Ladungsgekoppelter Halbleiter), CMOS (Complementary Metal Oxide Semiconductor = Komplementärer Metall Oxyd Halbleiter) und die entsprechenden Ableitungen dazu, wie beispielsweise die Foveon Sensoren. Letzterer ordnet die lichtempfindlichen Pixel nicht neben-, sondern übereinander an. So lassen sich nicht nur mehr oder größere Pixel pro Fläche unterbringen, sondern auch alle Farbinformationen innerhalb eines Bildpunktes erfassen. Wegen bestimmter Vorzüge in Bezug auf die Fertigung und auch der Möglichkeit, spezielle Steuerfunktionen direkt auf dem Sensor zu integrieren, zeigt sich ein deutlicher Trend hin zum CMOS-Sensor. Für die Erfassung der Farbinformationen verwenden CCD und CMOS Sensoren (ausgenommen der Foveon Sensor) zum Teil recht unterschiedlich angeordnete Farbfilterraster. Diese Filterraster bewirken, wie die Rot-, Grün- und Blauanteile des Lichts ermittelt werden.
Sensorgröße
Die Größe des Sensors setzt die Grenze für die Anzahl der auf ihm unterzubringenden Pixel. Entweder können mehr kleinere oder weniger große Pixel auf einer definierten Fläche untergebracht werden. Mehr und kleinere Pixel können weniger Licht erfassen und benötigen daher stärkere Transistoren zur Signalverstärkung, was zu einem höheren Bildrauschen oder einer geringeren ISO-Empfindlichkeit führen kann. In D-SLR-Kameras sind die Sensorformate APS-C oder das Kleinbildformat gebräuchlich. Die kompakten Systemkameras sind entweder mit Micro Four Thirds (MFT) beziehungsweise APS-C-Sensoren ausgestattet oder aber professionelle Kameras verwenden teilweise auch sogenannte Überformatsensoren, die den Mittelformaten beim Film nahe kommen. Die meisten Kompakt- oder Superzoomkameras setzen kleinere Sensoren ein.
Sensoraufbau
Um einen optimalen Kompromiss zwischen Sensorauflösung, ISO-Empfindlichkeit und Signal-Rausch-Abstand zu realisieren, haben sich die Sensorentwickler eine Menge Tricks einfallen lassen. So sind die meisten in hochwertigen Digitalkameras der neuesten Generation verbauten Sensoren sogenannte Backlit Sensoren (Backside Illuminated oder BSI bzw. BI), bei denen die Leiterbahnen auf die Rückseite des Sensors belichtet werden. Damit liegen diese Leitungen hinter den lichtempfindlichen Pixel, die so nahtlos zusammenrücken können. Das hat zwei Vorteile. Es können entweder mehr oder größere Pixel auf der gleichen Fläche untergebracht werden. Eine größere Pixelzahl schafft die Voraussetzung für eine höhere Auflösung. Größere Pixel können mehr Licht einfangen und ermöglichen damit höhere Empfindlichkeiten für Aufnahmen bei wenig Licht. Ein schon länger gebräuchlicher Trick, die Empfindlichkeit zu steigern und die Lichtstrahlen zu bündeln beziehungsweise zu fokussieren, sind die auf jedem Pixel aufgebrachten Mikrolinsen. Sie ermöglichen, dass der Sensor mehr Licht erfassen kann.

Der Bildprozessor

Das Auslesen und Verarbeiten der vom Sensor erfassten Signale übernimmt der Bildprozessor. Seine Rechenleistung und die von ihm verwendeten Algorithmen der Bildentwicklung bestimmen die Bildqualität und die Geschwindigkeit, mit der Bilder erfasst, verarbeitet und wiedergegeben werden können. Um die Verarbeitungsgeschwindigkeit zu erhöhen, werden auch mehrere Prozessoren, teilweise auch für unterschiedliche Aufgaben, verwendet. Die Leistungsstärke des Prozessors zeigt sich sowohl in der Bildqualität als auch in der Geschwindigkeit, mit der diese erreicht wird. Dabei sind Hardware als Voraussetzung für die Geschwindigkeit der Datenverarbeitung als auch Software für die Bildentwicklung und Optimierung, wie beispielsweise Helligkeit, Farbbalance und Farbsättigung, als auch die Effektivität der Rauschunterdrückung bei schwacher Motivbeleuchtung wesentlich für das Bildergebnis.
Zwar läuft das Pixelrennen noch immer, aber Industrie und Verbraucher haben festgestellt, dass größere Sensoren mit weniger Pixel durchaus gleich gute oder sogar bessere Ergebnisse liefern können als Systeme mit kleinen Sensoren und mehr Pixel. Manche neue Generation der Premiumklasse im Kompaktkamerabereich überrascht mit weniger Pixel im Vergleich zu den Vorgängermodellen und bietet dennoch sowohl eine höhere Bildqualität unter schwierigeren Lichtbedingungen und kürzere Bildintervalle für schnelle Serienaufnahmen und hochwertiges, ruckfreies Video in Full-HD-Qualität mit mehr Frames pro Sekunde. Die perfekte Abstimmung aller Stationen der Imaging Chain bedingt letztlich die erreichbare Bildqualität. Nur, wenn alle Faktoren optimal ineinandergreifen und aufeinander aufbauen können, sind auch perfekte Bilder zu erwarten.
Quelle: www.prophoto-online.de

Zeig mehr

Johannes Wilwerding

Johannes Wilwerding hat bereits Mitte der Achziger Jahre und damit vor dem Siegeszug von Photoshop & Co. Erfahrungen in der Digitalisierung von Fotos und in der elektronischen Bildverarbeitung gesammelt. Seit 2001 ist er freiberuflicher Mediengestalter und seit 2005 tätig für das DOCMA-Magazin.

Schreiben Sie einen Kommentar

Bitte melden Sie sich an, um einen Kommentar zu schreiben.

Back to top button