Blog

Miniatureffekt – wie funktioniert das?

Der populäre Miniatureffekt, der eine gewöhnliche Szene wie ein miniaturisiertes Modell erscheinen lässt, ist oft schon im Kameramenü auswählbar, und wie Sie diesen Effekt mit Photoshop erzielen, zeigen wir in der aktuellen Ausgabe. Aber wie kommt es überhaupt, dass wir eine vorgetäuschte geringe Schärfentiefe so interpretieren, dass wir eine Miniatur betrachten?

Miniatureffekt – wie funktioniert das?
Eine Seebrücke an der Ostsee, in Photoshop mit einem Schärfeverlauf in eine vermeintliche Miniatur verwandelt. (Foto und Bearbeitung: Thorsten Wiegand)

Die Antwort erscheint zunächst einfach: Je kürzer die Entfernung, desto geringer die Schärfentiefe, und so können wir umgekehrt von einer geringen Schärfentiefe auf eine geringe Entfernung und damit auf eine geringe Größe der abgebildeten Motive schließen. Aber genau besehen ist das nicht wirklich plausibel.

Wer sich ernsthaft mit der Fotografie beschäftigt, dem ist der Zusammenhang zwischen fokussierter Entfernung und Schärfentiefe bewusst, den allermeisten Menschen aber nicht. Man könnte denken, dass wir vielleicht unbewusst registriert haben, dass Nahaufnahmen eine geringe Schärfentiefe haben, aber das ist zweifelhaft. Es ist nicht einmal sicher, dass diese Generalisierung überhaupt gültig ist, denn man versucht ja meist, die Schärfentiefe von Nahaufnahmen auszudehnen – indem man, der Gefahr der Beugungsunschärfe trotzend, stark abblendet, oder heutzutage oft mit der Methode des Focus-Stacking. Fotografen streben oft gerade danach, Makrofotos nicht wie typische Makrofotos aussehen zu lassen. Und dennoch funktioniert der Miniatureffekt, und zwar bei praktisch allen Menschen, auch wenn sie nicht besonders dafür konditioniert sind.

Wie schätzen wir denn überhaupt die Entfernung von Objekten (und damit indirekt auch deren Größe) ab? Man denkt da zuerst an das stereoskopische Sehen: Da wir ein Objekt mit beiden Augen und damit aus zwei leicht unterschiedlichen Perspektiven sehen, kann das Gehirn aus der Parallaxe die Entfernung berechnen. Das nützt allerdings nichts, wenn wir ein Foto betrachten, denn die Parallaxe sagt uns nur, wie weit das Bild entfernt ist; wie weit die Motive von der Kamera entfernt waren, wissen wir immer noch nicht. Diese Methode funktioniert ohnehin nur in einem begrenzten Entfernungsbereich; bei großen Distanzen ist die Parallaxe zu klein, als dass sie noch auswertbar wäre.

Unser Gehirn greift deshalb auf eine Vielzahl von Kriterien zur Entfernungsabschätzung zurück. Eines davon basiert auf der Perspektive und unserer Erfahrung: Wir wissen, wie groß Objekte des täglichen Lebens sind, und können daher aus ihrer scheinbaren Größe auf ihre Entfernung schließen. Diese Methode müssten allerdings dem Miniatureffekt entgegen wirken, denn wenn wir beispielsweise ein kleines Auto sehen, gehen wir normalerweise davon aus, dass es sich um ein normal großes Auto in weiter Entfernung handelt, statt um ein Modellauto in kurzer Distanz.

Die Erklärung für den Miniatureffekt habe ich schließlich in einem Fachaufsatz zweier Psychologen gefunden: „Retinal blur and the perception of egocentric distance“ (Journal of Vision, Vol. 10. No. 10, August 2010). Sie hängt mit dem Aufbau der Netzhaut unserer Augen zusammen, genauer gesagt den Aufgaben der peripheren Sinneszellen. Scharf und fein aufgelöst sehen wir nur in einem relativ kleinen Teil der Netzhaut, der Sehgrube (Fovea centralis) mit einem Durchmesser von etwa 1,5 Millimeter. Deshalb tasten unsere Augen die Umwelt in schnellen Bewegungen ab, wobei wir uns auf die besonders relevanten Details konzentrieren. Das Gehirn setzt aus den einzelnen so gewonnenen Eindrücken eine Vorstellung der Umgebung zusammen.

Käme es aber nur auf die Sinneszellen in der Sehgrube an, wäre es so, als würden wir uns eine Pappröhre vor die Augen halten – mit diesem extremen Scheuklappenblick würden wir ständig mit Hindernissen kollidieren, die wir gerade nicht im Blick hatten. Aber es gibt ja noch die peripheren Sinneszellen außerhalb der Sehgrube, deren Auflösung zwar geringer ist – die Dichte der farbempfindlichen Zapfen beträgt nur etwa 1/30 ihrer Dichte in der Sehgrube und die der nur helligkeitsempfindlichen Stäbchen nur etwa ein Viertel –, aber immer noch ausreicht, um uns zu orientieren.

Die niedrig aufgelösten Bilder, die die peripheren Sinneszellen liefern, gelangen zwar nicht in unser Bewusstsein, aber das Gehirn wertet sie dennoch aus. Wenn sich am Rande des Bildfelds irgendetwas potentiell Wichtiges zu ereignen scheint, richtet es unseren Blick dorthin, um es hochaufgelöst in Augenschein zu nehmen. Die peripheren Sinneszellen reagieren besonders empfindlich auf Veränderungen – eine überlebenswichtige Eigenschaft, denn so kann sich ein Raubtier nicht so leicht unbemerkt anschleichen. Dies macht sich beispielsweise auch bemerkbar, wenn ein Bildschirm oder eine Lampe leicht flimmert: So lange wir direkt darauf schauen, nehmen wir das Flimmern vielleicht nicht wahr, aber am Rande des Bildfelds fällt es störend auf.

Miniatureffekt – wie funktioniert das?
Das unbearbeitete Foto der Felsen (links) lässt deren Größe nicht sicher erkennen; mit einem künstlich hinzugefügten Schärfeverlauf (rechts) erscheinen sie kleiner und ihre Ausrichtung stärker geneigt. (Aus: „Retinal blur and the perception of egocentric distance“ von Dhanraj Vishwanath und Erik Blaser)

Die Auflösung im peripheren Bildfeld – insbesondere die für die Helligkeit – ist immer noch groß genug, um einen Schärfeverlauf zu erkennen. Dass unsere Augen eine begrenzte Schärfentiefe haben, nehmen wir gewöhnlich nicht wahr, denn während unser Blick von Punkt zu Punkt springt, passen die Augen auch die Fokussierung immer wieder an. Was wir hochaufgelöst in der Sehgrube sehen, ist also praktisch immer scharf. Dank der peripheren Sinneszellen nehmen wir aber ein viel größeres Bildfeld wahr, und das Gehirn wertet deren Signale aus, um unter anderem die Ausdehnung der Schärfenzone zu ermitteln. Ein ausgeprägter Schärfeverlauf weist auf eine geringe Schärfentiefe und indirekt auf eine geringe Entfernung hin, und dieses Kriterium zur Entfernungsabschätzung lässt uns in Bildern mit geringer Schärfentiefe verkleinerte Modelle erkennen. Der Miniatureffekt beruht also auf dem grundlegenden Aufbau unserer Augen und des visuellen Cortex unseres Gehirns, und daher stellt er sich auch bei Betrachtern ein, die über keinerlei Erfahrung mit der Fotografie und mit Nahaufnahmen verfügen.

Miniatureffekt – wie funktioniert das?

Wie Sie mit den Mitteln von Photoshop einen Miniatureffekt erzielen können, zeigt Thorsten Wiegand in DOCMA 97 ab Seite 10.

Zeig mehr

Michael J. Hußmann

Michael J. Hußmann gilt als führender Experte für die Technik von Kameras und Objektiven im deutschsprachigen Raum. Er hat Informatik und Linguistik studiert und für einige Jahre als Wissenschaftler im Bereich der Künstlichen Intelligenz gearbeitet.

Ähnliche Artikel

4 Kommentare

  1. Zitat: Je kürzer die Entfernung, desto geringer die Schärfentiefe
    Leider ist das unrichtig. Denn der Bereich der Schärfenebenen hängt von der Blendenöffnung und der Größe der Pixel ab. Wären die Pixel unendlich klein, hätte man nur eine einzige Schärfenebene (unter Vernachlässigung der unterschiedlichen Wellenlängen des Lichts).
    Wer schon einmal mit Brennweiten ab 400 mm bei einer Sportveranstaltung fotografiert hat weiß, dass man bei Entfernungen von 50 m bis 100 m gerade mal ein paar Meter scharf abbilden kann. Also nicht gerade Aufnahmen aus kurzer Entfernung.
    Dass Menschen Unschärfe von Aufnahmen mit Tilt-Objektiven oder von Bildbearbeitungsprogrammen gefaket mit Aufnahmen von Miniaturen assoziieren liegt einfach daran, dass sie entsprechend konditioniert sind. Weil es eben technisch nicht anders geht, gewöhnt man sich daran. Man wird ja vieles gewohnt.

    1. Die Größe der Pixel geht nicht direkt in die Berechnung der Schärfentiefe ein – höchstens indirekt, wenn man die Anforderung an die Schärfe, also den maximalen Unschärfekreisdurchmesser, entsprechend der Pixelgröße wählt – etwa 40 Prozent mehr als das Pixelraster wäre ein guter Anhaltspunkt, wenn es um pixelscharfe Bilder geht. Traditionell wird aber mit einem Unschärfekreisdurchmesser gerechnet, der einem Bruchteil der Bilddiagonale entspricht. Früher rechnete man meist mit 30 µm, was ungefähr 1/1500 der Diagonale des Kleinbildformats entspricht – die Schärfentiefenskalen von Leica-M-Objektiven sind bis heute so gerechnet –, aber heutzutage sind die Schärfenanforderungen gestiegen und man sollte besser mit 1/3000 der Bilddiagonale rechnen.

      Dass die Schärfentiefe von der fokussierten Entfernung abhängt und im Nahbereich am geringsten ist, das ergibt sich aus den Formeln zur Berechnung der Schärfentiefe, aber es ist halt auch eine jedem Makrofotografen leidvoll bekannte Erfahrungstatsache.

      Weshalb der Miniatureffekt eben nicht auf einer speziellen Konditionierung beruhen kann, habe ich ja erklärt; darüber hinaus empfehle ich den verlinkten Artikel, in dem Sie ganz genau nachlesen können, worauf der Effekt beruht.

      Wenn Sie sich näher mit der Schärfentiefe beschäftigen wollen, empfehle ich meinen Schärfentiefenrechner: https://digicam-experts.de/schaerfentiefe.php

  2. Lieber Herr Hußmann,
    die Schärfentiefe wächst keineswegs dadurch, dass man die Anforderungen erhöht. Das ist mathematischer Quark, ein hübsches Beispiel für ein Storchenproblem. Es ist vollkommen egal, ob eine Variable von 1500, 2121, 3000 oder 4243 für die Berechnung eingestellt wird – am Foto selbst ändert sich genau nix. Vielmehr kann man ohne jede Übertreibung sagen, dass die Globuli der alternativen Heilkunde allein durch den Placebo-Effekt eine weit höhere Wirkung haben.
    .
    Da aber die Schärfentiefe ein immer wieder gern diskutiertes Thema ist, könnten Sie doch einmal recherchieren und berichten, was das ursprüngliche Ziel dieser Rechnerei war. Mit Schärfe hatte das damals durchaus etwas zu tun, nicht aber mit Tiefe. Weshalb das Prinzip erst später für eine Tiefenrechnung missbraucht wurde.

Schreiben Sie einen Kommentar

Bitte melden Sie sich an, um einen Kommentar zu schreiben.

Das könnte Dich interessieren
Close
Back to top button