RSS

Zwei Bit machen den Unterschied

Unter dem Titel „Bitte 10 Bit!“ bemängelte Martin Fischer in der aktuellen c’t 10/2015 Apples „10-Bit-Lücke“. Das blieb – speziell unter Apples eingeschworenen Fans – nicht ohne Widerspruch, aber was hängt wirklich an diesen zwei Bit, die bessere Grafikkarten liefern und die etliche Monitore verarbeiten könnten, denen Apples Betriebssystem aber den Durchlass verweigert?

Grafikkarten für gehobene Ansprüche können gewöhnlich 1024 statt 256 Helligkeitswerte pro RGB-Kanal auflösen – wenn das Betriebssystem es ihnen erlaubt. (Foto: Nvidia)

Grafikkarten für gehobene Ansprüche können gewöhnlich 1024 statt 256 Helligkeitswerte pro RGB-Kanal auflösen – wenn das Betriebssystem es ihnen erlaubt. (Foto: Nvidia)

Auch in der DOCMA hatten wir schon verschiedentlich auf diesen Umstand hingewiesen: Hochwertige Monitore, wie sie typischerweise auf dem Arbeitsplatz des Bildbearbeiters stehen, können mehr als nur die 256 Helligkeitsabstufungen auflösen, die sich mit 8 Bit pro RGB-Kanal kodieren lassen. Grafikkarten bieten deshalb oft die Option, 10 statt 8 Bit zu liefern, womit die Auflösung auf 1024 Helligkeitsstufen und rund eine Milliarde Farbabstufungen (statt 16,8 Millionen bei 8 Bit) steigt. Auch Anwendungen wie Photoshop unterstützen die Ausgabe von 10 Bit pro Kanal oder 30 Bit insgesamt. Den Nutzen davon haben aber nur die Besitzer eines Windows-PCs – Macintosh-Anwender mögen die gleichen Grafikkarten, Monitore und Bildbearbeitungsprogramme verwenden, bleiben aber auf 8 Bit beschränkt, weil Apples Betriebssystem nicht mitspielt. Selbst wenn man (mit Hilfe von Bootcamp) Windows auf dem Mac installiert, bleibt einem die 10-Bit-Option verschlossen, denn der von Apple zertifizierte Grafikkartentreiber bietet sie nicht an.

Die beiden Grafikkarten im Mac Pro könnten 10 Bit pro Kanal ausgeben, wenn Apple das zuließe. (Foto: Apple)

Die beiden Grafikkarten im Mac Pro könnten 10 Bit pro Kanal ausgeben, wenn Apple das zuließe. (Foto: Apple)

Diesen schwer zu rechtfertigenden Nachteil, den selbst noch das teuerste und am besten ausgestattete Mac-Pro-Modell plagt, hat die c’t kritisiert und sich damit den Zorn einiger Apple-Fans zugezogen – zumindest jener, die der These „Was Apple nicht hat, braucht kein Mensch“ anhängen. Apple mag inzwischen das wertvollste Unternehmen der Welt sein, aber manch langgedienter Mac-Anwender hat die Leidenszeit als verspotteter Underdog nie überwunden und fühlt sich angegriffen, auch wenn man ihm gar nichts Böses will.

Aber braucht man die zusätzlichen zwei Bit pro Kanal tatsächlich? Bei Debatten über die Bit-Tiefe geht oft einiges durcheinander, denn man kann sie an verschiedenen Stellen im Workflow messen. Fangen wir mit dem Anfang an, nämlich der Stelle, an der die analogen Werte eines Bildsensors in Kamera oder Scanner digitalisiert werden. Kameras für höhere Ansprüche digitalisieren heutzutage meist 14 Bit, können also 16384 Helligkeitswerte unterscheiden. Eine noch feinere Unterscheidung würde lediglich mehr Rauschen auflösen und lohnt daher nicht. Diese Helligkeitsskala ist linear, nicht logarithmisch, wie es unserem Helligkeitsempfinden entspricht, und nachdem sie der Raw-Konverter passend umgerechnet hat, werden die Tonwerte in den Lichtern sehr viel feiner als die in den Schatten aufgelöst. Tatsächlich ist die Auflösung in den Lichtern sogar absurd hoch, während man sich in den Schatten mehr Differenzierung wünschen würde.

In der Bildbearbeitung mit Photoshop haben Sie dann die Wahl, mit 8, 16 oder 32 Bit pro Kanal zu arbeiten; manche Grafikformate wie beispielsweise JPEG sind allerdings auf 8 Bit pro Kanal beschränkt. Diese Bit-Tiefen sind rein technisch motiviert: Das Byte mit seinen 8 Bit ist typischerweise die kleinste adressierbare Einheit des Speichers, so dass es naheliegt, mit Vielfachen von 8 Bit zu arbeiten. Mit 3 mal 8 Bit löst man zwar etwas weniger Farbabstufungen auf, als wir selbst unterscheiden können, aber insgesamt 24 Bit würden unter günstigen Umständen ausreichen, Bilder ohne sichtbares Banding in Farb- oder Helligkeitsverläufen zu erzeugen.

Ganz so einfach ist es jedoch nicht. Fast alle Schritte in der Bildbearbeitung haben die Eigenheit, dass sie benachbarte Tonwerte zu einem einzigen zusammenschieben oder umgekehrt zwischen den Tonwerten Lücken aufreißen lassen. Am Ende der Bearbeitung haben Sie daher generell weniger Tonwertunterschiede im Bild, als zuvor noch vorhanden waren. Eine Vergrößerung der Farbtiefe auf 16 oder gar 32 Bit pro Kanal schafft den nötigen Platz zwischen den Tonwerten, damit unterschiedliche Werte auch bei gravierenderen Eingriffen unterschiedlich bleiben. Die höhere Farbtiefe ist nicht deshalb angeraten, weil wir so feine Abstufungen erkennen könnten, sondern damit die ursprünglich vorhandenen Abstufungen erhalten bleiben. Selbst wenn Sie am Ende ein JPEG mit 8 Bit pro Kanal erzeugen müssen und dabei wieder Tonwertabstufungen verlieren, tritt dieser Verlust nur einmal auf – würden Sie dagegen von vornherein im 8-Bit-Modus arbeiten, könnte jeder einzelne (destruktive) Bearbeitungsschritt solche feinen Abstufungen kosten.

Zu einer solchen Vergröberung der Tonwerte auf 8 Bit pro Kanal zwingt aber auch der Apple Mac. Wenn die so auflösbaren 256 Helligkeitswerte gleichmäßig auf der Tonwertskala verteilt wären – gleichmäßig entsprechend unseres Helligkeitsempfindens wohlgemerkt –, würden diese 8 Bit vermutlich völlig ausreichen, aber dem steht die Notwendigkeit entgegen, den Monitor zu kalibrieren. Wenn die Farben auf dem Bildschirm den realen Farben möglichst präzise entsprechen sollen, müssen sie mit einer Look-up-table umgerechnet werden – bei einer Software-Kalibrierung im Computer, bei einer qualitativ besseren, weil feiner aufgelösten Hardware-Kalibrierung im Monitor. Wie ein Bildbearbeitungsschritt verschiebt auch die Look-up-table die Tonwerte, und so werden die Abstufungen an manchen Stellen der Tonwertskala feiner, an anderen jedoch gröber. Bei einer Software-Kalibrierung gehen sogar Tonwertabstufungen verloren. Hier zahlt es sich nun aus, wenn die Grafikkarte 1024 statt 256 Helligkeitsabstufungen auflöst, denn auch nach der durch die Kalibrierung nötigen Anpassung der Tonwerte bleiben die Abstufungen dann überall fein genug.

Auch wenn die 10-Bit-Option der Grafikkarte aus Apples Sicht ein „not invented here“ Feature ist, sollte man in Cupertino ein Einsehen haben und es den eigenen Kunden nicht länger vorenthalten.

Related Posts

Mitdiskutieren