BlogTechnik

Das 180-Megapixel-Phantom: Fortschritt oder ein Schreckgespenst?

180 Megapixel in einer Kamera sind für die meisten Fotografen so sinnvoll wie ein Lastwagen für den Weg zum Bäcker – technisch beeindruckend, praktisch grotesk. Wer braucht das? Außer Pixel-Peepern, Angebern und vielleicht dem Louvre vermutlich niemand. Moderne KI macht aus 24 Megapixeln ohnehin alles, was das Herz begehrt.

In den digitalen Korridoren der Fotowelt geistert gerade ein neues Gerücht umher, ein Flüstern, das sich zu einem vernehmlichen Rauschen steigert: Fujifilm soll an einer Kamera mit 180 Megapixeln arbeiten. Einhundertachtzig. Diese Zahl allein besitzt eine fast hypnotische Kraft, ein Versprechen von nie da gewesener Detailfülle und Schärfe. Sie klingt nach Zukunft, nach dem nächsten großen Ding. Doch bei genauerer Betrachtung, befreit vom Marketing-Nebel, entpuppt sich dieser angebliche Fortschritt als ein ein weiterer potenzieller Irrweg. Es ist die Verlockung einer technischen Superlative, die für die allermeisten Anwender in der Praxis nicht nur keinen nennenswerten Vorteil böte, sondern einen Rattenschwanz an Problemen und Kosten nach sich zöge, der jeden vernünftigen Workflow sprengt. Bevor wir uns also dem Sirenengesang der Megapixel hingeben, sollten wir einen kühlen Kopf bewahren und die Frage stellen: Wer, außer dem Marketing, profitiert wirklich davon?

Die Lawine der Folgekosten

Stellen wir uns den Arbeitsalltag mit einer solchen Kamera vor. Jedes einzelne Bild, eine unkomprimierte Rohdatei, würde mühelos die Marke von 200 Megabyte überschreiten. Ein kurzer Ausflug am Wochenende mit ein paar hundert Aufnahmen? Das sind schnell 40 Gigabyte an Daten, die nicht nur sicher auf die Festplatte, sondern auch zusätzlich ins Backup wandern müssen. Wer professionell arbeitet, weiß, was das bedeutet: Die Investition in die Kamera selbst ist nur der Anfang einer teuren Kaskade. Es braucht größere, schnellere Speicherkarten, deren Kapazität nicht nach der ersten Stunde erschöpft ist. Es braucht potentere Rechner mit massiv ausgebautem Arbeitsspeicher und den schnellsten Prozessoren, nur um diese Datenmonster flüssig sichten und bearbeiten zu können. Die heimische Festplattensammlung wächst zu einem kleinen Rechenzentrum im Keller an, und die Kosten für Cloud-Speicher und Backup-Lösungen explodieren. Dieser ganze finanzielle und technische Aufrüstung – für was? Für die Möglichkeit, das Nummernschild eines Autos am Horizont entziffern zu können, das für die Bildaussage vollkommen irrelevant ist? Die Relation zwischen Aufwand und Nutzen gerät hier in eine bedenkliche Schieflage.

Intelligenz schlägt Brute-Force-Auflösung

Die Krux an der ganzen Debatte ist: Die Notwendigkeit für derart gigantische native Auflösungen wird durch den Fortschritt in einem anderen Bereich längst untergraben: der künstlichen Intelligenz. Moderne Softwarelösungen zur Bildvergrößerung haben in den letzten Jahren enorme Fortschritte gemacht. Programme wie Gigapixel von Topaz Labs oder Photoshops „Super Resolution“-Funktion sind heute in der Lage, aus einer grundsoliden 24- oder 45-Megapixel-Datei ein Ergebnis zu errechnen, das für einen großformatigen Druck oder eine extreme Ausschnittvergrößerung mehr als ausreicht. Diese Algorithmen analysieren Bildinhalte und fügen strukturelle Details hinzu, die so überzeugend sind, dass der Unterschied zu einer nativ höher aufgelösten Aufnahme oft nur im direkten Vergleich beim 400%-Pixelpeepen zu sehen sind. Es macht bestimmt Spaß, dann nach Artefakten zu suchen. Aber das muss man mögen. Der Bild sieht man den Unterschied nicht an – ganz gleich ob gedruckt oder in Instagram-Auflösung.

Christoph Künne

Christoph Künne, von Haus aus Kulturwissenschaftler, forscht seit 1991 unabhängig zur Theorie und Praxis der Post-Photography. Er gründete 2002 das Kreativ-Magazin DOCMA zusammen mit Doc Baumann und hat neben unzähligen Artikeln in europäischen Fachmagazinen rund um die Themen Bildbearbeitung, Fotografie und Generative KI über 20 Bücher veröffentlicht.

20 Kommentare

  1. Diese Gerüchte sind derzeit noch recht vage. Allerdings hat Sony ja schon seit Jahren einen APS-C-Sensor mit 40 Megapixeln im Sortiment, und wenn sie Pixel derselben Technologie auf einer Fläche von 44 mm × 33 mm anordnen, käme ein Mittelformatsensor mit rund 160 Megapixeln dabei heraus. Das wäre nicht weit von 180 Megapixeln entfernt, aber eben auch nicht dasselbe; ein 180-MP-Sensor müsste daher eine Neuentwicklung sein. Denkbar wäre so etwas natürlich, nur werden sensortechnische Innovationen typischerweise nicht im Mittelformatsegment eingeführt, sondern bei APS-C oder Kleinbild (oder bei Smartphone-Sensoren, was das betrifft).

    Jedenfalls wäre die Auflösung selbst keine Herausforderung und 180 Megapixel im „kleinen Mittelformat“ erforderten keinen technologischen Durchbruch – mit der Technologie von Smartphone-Sensoren könnte man auch gleich einen Gigapixel-Sensor für Mittelformatkameras bauen. Das Problem besteht darin, so viele Pixelwerte schnell genug zu digitalisieren. Wenn es zu lange dauert, beschränkt das nicht nur die Serienbildfrequenz, sondern bremst auch den Autofokus und verlangsamt den elektronischen Verschluss so stark, dass er nicht mehr praktikabel wäre. Ein beschleunigtes Auslesen würde allerdings das Rauschen verstärken (16 Bit wären dann nicht mehr drin) und wohl auch mehr Wärme erzeugen, wobei die gestiegene Pixelzahl auch schon zu mehr Wärme führt. Eine noch stärker parallelisierte Digitalisierung (indem man also nicht nur alle Pixel einer Zeile, sondern mehrere Zeilen gleichzeitig digitalisiert) würde das Problem mit dem Rauschen, dem Dynamikumfang und der Bittiefe lösen, nicht jedoch das Wärmeproblem.

    Warten wir es ab. Wenn es Sony (oder einem anderen Sensorhersteller) gelingen sollte, einen solchen Sensor zu entwickeln, werden über kurz oder lang auch Kameras mit diesem Sensor auf den Markt kommen, sei es von Fuji oder Hasselblad. Ich habe allerdings nicht den Eindruck, dass ein 180-MP-Sensor im Format 44 mm × 33 mm hoch auf irgendjemandes Wunschliste steht. Der Markt dafür dürfte eher überschaubar sein. Bei der Sensorauflösung gibt es ein law of diminishing returns, und die Kosten/Nutzen-Rechnung sähe in diesem Fall nicht so überzeugend aus.

  2. Grundsätzlich gehe ich mit der Argumentation des wofür das gut sein soll mit.
    Es gibt allerdings Spezialfälle. Ich fotografiere wahnsinnig gern mit dem Dual Fisheye von Canon. Selbst die 45MP der EOS R5II reichen bei weitem nicht aus um eine sehr gute Qualität im VR-Headset zu erreichen. Zwar rechne ich nachher mit Gigapixel mit dem Faktor 2 die Bilder hoch, allerdings entstehen dabei Rechenfehler, welche man beim Betrachten wahrnimmt. In diesem Spezialfall wären 100MP eine gute Option um das volle Potential der VR-Brillen zu entfalten.

    1. Das ist der Punkt: Solche Auflösungen sind für spezielle Aufgaben erforderlich, im Regelfall aber nicht. Weshalb man sich so hochauflösende Kameras eher mietet, wenn ein Auftrag sie erfordert, als dass man sie sich kauft. Was für den Hersteller wiederum bedeutet, dass es dafür nur einen kleinen Markt gibt,

      Fuji war mit dem GFX-System angetreten, das Mittelformat in den Mainstream zu bringen, und Hasselblad hat versucht, ihnen darin zu folgen, was mittlerweile auch schon wieder besser gelingt. Für die höchsten Ansprüche und wenn Geld keine Rolle spielt, gibt es weiterhin Phase One, mit noch größeren Sensoren und noch mehr Megapixeln. Was für eine Rolle eine hypothetische Mittelformatkamera mit einem 44 mm × 33 mm Sensor und 180 Megapixeln hier spielen könnte, ist mir nicht recht klar.

  3. Die erkennbaren Details bei den GFX 100-Modellen ist schon faszinierend. Allerdings wundere ich mich schon lange, warum sogar die 100S II noch 2 SD-Karten hat und sogar die 100 II noch 1 hat. Nicht eben ein Merkmal einer professionellen Kamera, auch wenn da sicher einige wiedersprechen werden.
    Das Hauptkriterium bei hoch auflösenden Sensoren was und ist immer noch, ob die Qualität eines breiten Produktsortiments an Objektiven diese überhaupt versorgen können. Seit der CANON 5D musste ich mit steigender Sensorauflösung nach ein paar Jahren selbst die hochwertigen Festbrennweiten durch neue Modelle ersetzen. Die neuen Kameras konnten ihre Bildauflösung mit alten Objektiven nicht mehr bringen. Nun hat Fuji ein zwar nicht so umfangreiches doch immerhin ein recht breites Sortiment an qualitativ sehr guten Objektiven für 100 Mpixel-Sensoren, doch 180 MPixel sind mehr als ein bisschen mehr.
    Dass eine 100 Mpixel-Kamera kein Alltagsgerät ist ist ohnehin klar, allein die langen Zeiten zum Überspielen auf den Rechner ist sehr hoch und der Ressourcenbedarf ist beachtlich. Ein verlustfreies RAW-Foto kann je nach Farbtiefe bis an die 200 MByte groß sein. Da kommt bei einem Fotoshooting einiges zusammen.
    Die Sensoren sind vermutlich das kleinere Fertigungsproblem, immerhin hat Fuji mit der H2 im APS-Format mit 40 MPixel sehr gute Sensoqualität bewiesen und die 180 MPixel klingen viel, doch sie rechnen sich ja auch mit 44 x 33 mm. Das rache Auslesen der Datenmenge vom Sensor wird eher ein Porblem als die Pixelgröße.

    1. Raw-Dateien der verschiedenen GFX-100-Varianten sind zwar um die 100 bis 130 Megabyte groß (verlustfrei komprimiert, was das gängigste Speicherformat sein dürfte), aber bei einer Serienbildfrequenz von maximal 8 Bilder/s sind schnelle SDXC-Karten meist immer noch schnell genug. Wir befinden uns ja immer noch in einer Übergangsphase zwischen SD und CFe, weshalb viele Fotografen über einen Haufen schneller SDXC-Karten verfügen werden und nicht neue Karten (und einen Kartenleser) kaufen wollen, so lange deren höherer Durchsatz nicht zwingend erscheint. Bei Presse-Events hat Fuji die Kameras auch immer mit SDXC-Karten ausgestattet, offenbar in der Annahme, dass die Kameras damit nicht zu langsam sind.

      Was die Objektive betrifft: Die ersten GFX-Modelle hatten ja 50-MP-Sensoren, wobei Fuji aber immer gesagt hat, dass die GF-Objektive bereits für eine doppelt so hohe Auflösung gerechnet seien. Für die GFX100-Modelle brauchte man keine neuen Objektive. Eine noch höhere Auflösung wäre auch nicht unbedingt ein Problem, denn die hohe Auflösung bedeutet einfach, dass das optische Bild feiner abgetastet wird; es gibt also ein höheres Oversampling, was der Qualität förderlich ist. Auch wenn man die Bilder am Ende nachschärft, ob mit konventionellen Algorithmen oder mit KI-basierten Verfahren, wird das Oversampling zu besseren Ergebnisse führen. Insofern wird es kein Objektiv geben, dass in Verbindung mit einer höher auflösenden Kameras ungeeignet wäre. Allerdings wird es zwischen verschiedenen Objektive Unterschiede in der Detailauflösung geben, die sich bei einer 180-MP-Kamera deutlicher zeigen als bei einer 100-MP-Kamera.

      Wobei man dazu sagen muss, dass die begrenzte Kontrastübertragung bei sehr hohen Ortsfrequenzen ja eine Form der Tiefpassfilterung ist und damit Moiré vermeidet. Umgekehrt heißt das, dass ein höher auflösender Sensor Moiré vermeidet, eben weil er höher auflöst als das Objektiv – Oversampling ist die beste Maßnahme gegen Moiré. Etwas überspitzt könnte man sagen, dass man erst dann das Optimum aus einem Objektiv herausholt, wenn man es mit einem Sensor kombiniert, der die Grenzen von dessen Detailauflösung aufzeigt.

      1. Eine der wenigen tatsächlich professionellen Bodies war die D1-Serie von CANON. Die hatten immer schon CF-Karten und die R1 ist jetzt professionelle Sportkamera mit 2 CF Express-Slots. Viele solche Kameras gibt es nicht. Es gibt eben professionelle Datenträger und möglichst billige, denen man mit diversen Verfahren Geschwindigkeit, doch keine Speicherkapazität beibringt. Oder gibt es schon SD-irgendwas mit 1 TB oder 4 TB? Mit meiner R1 haben Raw-Fotos um die 25MByte. Wissen Sie wie viele Fotos bei einer Sportveranstaltung damit auf eine 1 TB-Karte passen? Bei bis zu 40 Fotos pro Sekunde? Da benötige ich eine Hosentasche voll SD-Karten.
        Noch eine OT-Bemerkung: Mit der 1Dx konnte ich mit einem Akku 3 bis 4 Stunden ununterbrochen fotografieren, das waren locker 4000 Fotos. Die spiegellosen Modelle sind energiehungriger, doch mit 2 Akkus schafft man mit der R1 auch ein Footbalspiel mit etwa 2500 Fotos. Machen Sie das mal mit einem anderen Kamermodell mit den kleinen Akkus mit wenig Kapazität, da benötigen Sie fast so viel Reserveakkus wie SD-Karten.

        Dass Fuji Objektive für eine neu entwickelte GF-Serie für die damals schon geplante GFX 100 qualitativ ausreichene Objektive gebaut hat ist ja offensichtlich. Sonst wäre Fuji ein Stadtteil von Schilda. Ob das Sortiment tatsächlich auch für 180 MPixel-Sensoren reicht kann man erst seriös beantworten, wenn es solche Kameras geben wird. Da spekuliere ich nicht und erstelle keine Prognosen. Sollte es wirklich jemals so eine Kamera geben werden Tests möglich sein. Auch die Rumors müssen ihre Seiten füllen.
        Dass man durch das Erfinden von Pixeln recht glaubwürdig vergrößern und verkleinern kann ist evident. Wenn die Abbildungsleistung eines Objektivs nur durch irgendeinen Algorithmus nach dem Auslesen der Pixel den Möglichkeiten eines Sensors hochgerechnet wird kann ich mir den Kauf des Produkts ersparen. Dass viel der sichtbaren Qualität durch viele Verbesserungen der Firmware erfolgten ist klar, Wunder passieren kaum. Aber ebenso sind eine Menge Änderungen an Sensoren für eine echte Qualitätsverbesserung verantwortlich. Filme wurden in viele Jahrzehnten auch durch Änderungen der Produktion des Materials verbessert. Das nennt man Entwicklung.

        Natürlich werden Medien alles hochjubeln, was eine Neuheit sein soll. Davon leben sie ja. Doch wenn ich an das von Nikon erhaltene Testequipement mit der 800E-Kamera und ein paar Festbrennweitenobjektiven, z.B. ein Makro- und ein T/S-Objektiv, erinnere dann weiß ich genau warum ich mir das Geld dafür erspart habe. Wurde aber überall hochgejubelt, war ja von Nikon, un wenn man Nikon nicht bejubelt ist es fast so arg wie wenn man moderne Leicas nicht schätzt.

  4. Ich frage mich ganz ernsthaft, ob sich an den Bedürfnissen im Plakatdruck etwas geändert hat. Nach den gängigen Standards von 75-100 dpi für Großformate unter der üblichen Berücksichtigung der Betrachtungsabstände kann ich mit meiner 47-Megapixel-Nikon problemlos mehrere Quadratmeter Plakat erzeugen. Bei Kameras wie dieser darf man also den Praxis-Wert hinterfragen. Ich habe schon vor ewigen Jahren von einem befreundeten Industriefotograf, die mit Fachkamera und Digitalrückteil gut ausgestattet war, die Aussagen gehört, dass seine für Reportagezwecke angeschaffte Nikon D200 (APS mit 10 Mpx) auf für Bannerdrucke schon so weit reicht, dass er damit viele Jobs abwickeln könne. Das ist wohlgemerkt Stand von vor 20 Jahren.
    Im Fotobereich ist man immer schnell dabei, gewisse Parameter, insbesondere Auflösung und Autofokus als essentiell hinzustellen. Im Fernsehsektor, wo man auf einem deutlich niedrigeren Niveau arbeitet, ticken die Uhren deutlich langsamer. Da muss nämlich die gesamte Kette mitspielen. Prompt schauen wir auf 50-60 Zoll-Geräten und empfinden sogar ein gutgemachtes Full-HD-Bild mit knapp 2 !!! Megapixeln als vernünftig.
    Ich finde es mutig, so ein 180-Megapixel-Monster auf den Markt zu bringen, aber der Bezug zur regulären Fotografie ist für mich damit nicht mehr gegeben. Und viele Bereiche wie die Produktfotografie sind eh vom Tisch, weil Bilder direkt aus dem CAD gerendert werden oder direkt aus der KI kommen. Wo ich allerdings wirklich einen Anwendungsbereich sehe ist die wissenschaftliche Fotografie. Für Archäologen z.b. kann es sehr interessant sein, Funde oder Gebäude mit extremer Auflösung zu dokumentieren.

  5. Ist es nicht immer die ähnliche Geschichte? Manche der Kunden finden es „geil“, wenn ihre Aufträge mit der Leica geschossen werden und fühlen sich bzw. ihre Produkte dadurch geadelt. Das geht von den Hochzeitskunden bis zu Autoherstellern. Der eigentliche Sinn jedweder techn. Entwicklung, das Produkt bzw. das Ergebnis zu verbessern, verblasst hinter dem Image.

    M.E. hat sich die Qualität selbst grosser Prints seit den 50MP Backs nicht mehr gesteigert, weder bei POne noch Hasselblad. Sicher kann man besser pixelpeepen als vorher, aber der ästhetische oder gar künstlerische Eindruck, den ein Bild hinterlässt, hat kaum dazugewonnen.

  6. Gut gebrüllt, Löwe!
    Mir fallen immer mehr handwerklich schlechte Bilder auf, die publiziert werden. Was ein Helmut Newton oder auch Peter Brodbeck, der sich Lindbergh nannte, schufen, entstand mit Kameras, die aus heutiger Sicht recht einfach waren. Heute müssen es technische Kanonen sein, um auf Spatzen zu schiessen. Erinnert an Automobile, die immer kräftiger und schneller sein müssen. Aber sinnvoll sind sie nur für wenige Rennfahrer mit mindestens einer B-Lizenz 😉

  7. A propos „Folgekosten“!
    – dürfen wir annehmen, daß für die Kamera, wenn es sie denn mal geben wird, die (alle) bisher erhältlichen GFX-Objektive verwendbar sind? Oder gibt es zu dem Protz wieder ein anderes Mount-Format – kompatibel zu nichts anderem…
    – vermutlich werden doch CFexpress-Karten zum Einsatz kommen müssen, Mindestgröße, Anzahl – oder wieder ein neues Kartensystem, das mit dem zu erwartenden Datenstrom zurechtkommt? und mit der Hitze, die dabei anfällt…
    – wie steht es mit Video? wieviele Sekunden am Stück sind denn machbar (bzgl. Datenstrom und Dateigröße)
    Nur nebenbei: FAT32 schafft nur bis 4GB Dateigröße, muß dafür jetzt NTFS her für die Speicherkarten oder ein Dateisystem aus der Linux-Parallelwelt? Oder mal wieder was selbstgestricktes?

    … und was den Lastwagen angeht: einer und ’n anderer wird es schon tun… 🙂
    Und, warum sollte Fuji das Geschäftsmodell mit so einem Boliden nicht auf „Angebern “ aufbauen? Leica tut das ja auch. Fuji aber wohl mit mehr Nutzwert für den anfallenden Rechnungsbetrag…

    1. Es gibt ja derzeit weder die Ankündigung einer solchen Kamera, noch auch nur den leisesten Hinweis von Fuji, dass es eine solche Ankündigung geben könnte. Davon abgesehen …

      Vorhandene Objektive werden immer verwendbar bleiben, wie ich oben schon schrieb. Die Bilder, die sie auf den Sensor projizieren, würden gegebenenfalls nur feiner abgetastet. Das nennt man Oversampling und im Audiobereich gilt es als eine gute Sache; im optischen Bereich ist es das aber auch.

      CFe-Karten des Typs B sind der neue Industriestandard, wenn SDXC nicht reicht; daran wird sich nichts ändern. Wer in dieses Format investiert, macht nichts falsch; CFe Typ A wird nur von Sony unterstützt und Typ C spielt gar keine Rolle.

      Für Video würde man wohl eher nicht zu einer 180-MP-Kamera greifen; das ergäbe keinen Sinn. Wenn es überhaupt eine Video-Option geben sollte, dürfte die Bildfrequenz nicht sehr hoch sein.

      FAT32 ist veraltet; aktuell ist exFAT das Format der Wahl für Speicherkarten, und das gibt es ja auch schon seit 20 Jahren.

      1. Klar ist es bisher nur eine „Androhung“. Wer weiß, welche technischen Probleme das Projekt dann womöglich doch verhindern bzw. auf kleineres Format zurückschrumpfen lassen.

        Klar kann man die vorhandenen GFX-Objektive weiter verwenden – aber auch mit DIESER? Ist denn jedes aktuell vorhandene GFX-Objekiv mit einem so großen „Lichtdurchlaß“ Gesegnet, daß sie für 180er Sensoren ausreichen? Kann doch sein, daß die Fuji-Leute (oder wer immer den Sensor bauen wird) merken, daß leider nur ein größerer „GFX II“-Mount den Sensor ausreichend belichtet. So mein ich. Wenn dem so wäre, könnte ich jetzt schon das „sparen darauf“ einstellen… Ein voll funktionsfähiges Kamera-System mit allem üblichen Zubehör avec SchnickSchnack würde dann wohl in gefährliche Nähe eines Jahresgehaltes entschweben.

        Das mit „Video“ habe ich mir nicht gut genug überlegt. Pardon. Natürlich dürfte das nicht wesentlich mehr werden als „beschleunigte Einzelbilder-Folgen“. Aber wer weiß, was den Fuji-Leuten eingefallen ist. Oder einfallen muß. Am Ende scheitert’s daran, wie die Dichtung für 20 Cent, die den 300 000€-Rennwagenmotor abmurkst- die für 5€ hätte es überstanden, aber die war ja zu teuer.

        Allerdings haben schon andere „spinnete Ideen“ die Technik stark vorangetrieben, wie den Chef , der seinen Leuten eine Holzquader hinlegte und meinte „In der Größe baut ihr mir eine Kamera, die sofort nach der Aufnahme fertige Papierbilder rausgibt!“ Das hat funktioniert damals!

        Warum soll sich sowas nicht wiederholen lassen?????

        Es gibt auch CFex Typ C????? Bin ich ja noch nie drauf gestoßen. Wohl: WEIL sie keine Rolle spielen.

        1. „Klar ist es bisher nur eine „Androhung““.

          Fuji hat bislang nichts über eine hypothetische GFX mit 180 MP verlauten lassen, und schon gar nicht damit gedroht. Es ist bloß ein Gerücht, und wer fürchtet sich ernsthaft vor Gerüchten?

          „Klar kann man die vorhandenen GFX-Objektive weiter verwenden – aber auch mit DIESER? Ist denn jedes aktuell vorhandene GFX-Objekiv mit einem so großen „Lichtdurchlaß“ Gesegnet, daß sie für 180er Sensoren ausreichen?“

          Jedes Objektiv wäre für eine höher auflösende Kamera geeignet; das war doch das Thema. Was der Lichtdurchlass mit der Sensorauflösung zu tun haben soll, erschließt sich mir nicht; da gibt es keinen Zusammenhang.

          „Kann doch sein, daß die Fuji-Leute (oder wer immer den Sensor bauen wird) merken, daß leider nur ein größerer „GFX II“-Mount den Sensor ausreichend belichtet.“

          Nein, das wäre physikalisch unmöglich. (Übrigens: Fuji baut schon seit vielen Jahren keine Sensoren mehr. Der übliche Sensorlieferant ist Sony – wie bei den meisten Kameraherstellern mit der Ausnahme von Canon.)

          „Es gibt auch CFex Typ C????? Bin ich ja noch nie drauf gestoßen. Wohl: WEIL sie keine Rolle spielen.“

          Vermutlich. Ich habe auch noch keine gesehen. Aber in der CFe-Spezifikation sind sie halt vorgesehen.

  8. Mal davon abgesehen das wir hier über ein Gerücht reden, ich kann den Wunsch als Vater des Gedankens nachvollziehen.
    Staune aber über die hier fast durchgehend vorgebrachten Bedenken hinsichtlich Kameratechnik und Sinnhaftigkeit.
    Solch eine Kamera würde sich ja nicht an Sport- und Aktionfotografen richten, also Auslesegeschwindigkeit, auch angesichts des zu erwartenden technischen Fortschritts, sicher kein Thema (s.u.). Ebenso die Speicherfrage.

    Ich würde mir solch eine Kamera sofort kaufen, wenn ich sie bezahlen könnte.
    Schon die GFX100RF hat mich in Versuchung gebracht. Und damit sind wir aus meiner Sicht am Punkt. Fujifilm würde solch eine Kamera sicher nicht mit Wechselobjektiven bringen.
    Bei der GFX100RF hat man in „Telestellung“ bei 63 mm (KB) noch ca. 20 Mp Auflösung Das ist der Grund warum ich sie nicht gekauft habe. Ich fotografiere gern etwas mehr im Telebereich.
    Mit einer 160-180 Mp „“GFX180RF““ wären wir bei 63 mm (KB) vielleicht bei 35 Mp (geschätzt).Und mit 20 Mp Auflösung vlt. bei einer BW von 85/90 mm (KB). Damit wäre diese Kamera aus meiner Sicht alltagstauglich. Und das alles im Gehäuse der GFX100RF. „Nur“ ein neuentwickeltes, fest verbautes Objektiv. Ausschnitts- und Seitenverhältnis-Möglichkeiten ohne Ende.
    Erschließt aus meiner Sicht geradezu eine neue Dimension vor allem in der Landschafts-, Natur-, Architektur- und Industriefotografie.

    Einerseits beklagen manche die allgemeine Bilderflut besser die Flut unwichtiger Bilder, andererseits können Serienbildgeschwindigkeit, Automatiken und KI-basierter Autofokus nicht schnell genug sein … Apropo KI. Es ist doch wohl nicht euer Ernst KI-basiertes hochskalieren mit authentischer Auflösung gleichzusetzen. Bei aller Nützlichkeit KI-basierter Werkzeuge in der EBV, an dem Kriterium der Authentizität wird die KI auf absehbare Zeit scheitern.

    Video. Mal angenommen diese Kamera könnte auch noch 8K und daraus, meinetwegen mit Hilfe von KI, TipTop Standbilder mit ~30 Mp extrahieren, dann hätte sich auch die Frage der Serienbildgeschwindigkeit weitestgehend erledigt.

    Ich staune das hier soviel Skepsis herrscht, wenn das die Fujileute lesen vergeht es ihnen ja.
    Mit dieser Bedenkenlastigkeit würden wir wahrscheinlich noch mit Lochkameras fotografieren (was durchaus auch Spaß machen kann).

    Also meine Herren, bitte etwas mehr Aufgeschlossenheit und Kreativität, wir leben im Land der Dichter und Denker 😉
    Ich darf das sagen [bin Ü70, habe noch mit Planfilm fotografiert und mit allen digitalen Sensorformaten, ausser …. MF]

    „Wo kämen wir hin, wenn jeder sagte, wo kämen wir hin, und keiner ginge um zu sehen, wohin wir kämen wenn wir gingen.“

    1. „Es ist doch wohl nicht euer Ernst KI-basiertes hochskalieren mit authentischer Auflösung gleichzusetzen. Bei aller Nützlichkeit KI-basierter Werkzeuge in der EBV, an dem Kriterium der Authentizität wird die KI auf absehbare Zeit scheitern.“

      KI-basiertes Hochskalieren ist mittlerweile redaktioneller Alltag. Natürlich erzeugt es keine echten Details, aber darum geht es auch gar nicht. Viele Fotos aus älterer Zeit konnte man früher nicht sinnvoll drucken, weil es pixelig ausgesehen hätte. Heute geht es – dank der KI. Es waren ja in der Regel keine fehlenden Details, die der Verwendung der Bilder im Wege gestanden hätten – alles Wichtige war zu erkennen –, sondern dass es nicht gut ausgesehen hätte.

      Wenn man heute extrem hohe Auflösungen braucht, geht es selten um mehr Details. Solche Aufgabenstellungen kommen zwar vor, aber der Markt für entsprechende Produkte ist überschaubar, denn es genügt meist, wenn man eine solche Kamera für den Fall der Fälle mieten kann. Teilweise genügt auch schon eine Vervierfachung der Auflösung per Multi-Shot-Superresolution; das kommt auf die Aufnahmesituation an. Es geht eher darum, dass man sehr großformatig drucken will und befürchtet, dass ein Betrachter das Bild mit der Nasenspitze berühren möchte und dann auf Pixelstrukturen oder Unschärfe stößt. Dafür ist eine KI-basierte Skalierung perfekt geeignet, denn sie löst das Problem billiger und eleganter als eine extrem hochauflösende Kamera.

      Davon abgesehen: Bei Billboards scheint es nach meiner Erfahrung den meisten egal zu sein, dass man aus kurzer Distanz nicht nur keine Details, sondern Rasterpunkte sieht, weil die Leute, die so nah herantreten, nicht relevant sind.

      „Mal angenommen diese Kamera könnte auch noch 8K und daraus, meinetwegen mit Hilfe von KI, TipTop Standbilder mit ~30 Mp extrahieren, dann hätte sich auch die Frage der Serienbildgeschwindigkeit weitestgehend erledigt.“

      Das ist doch schon möglich, mit bereits existierenden Kameras. Dafür braucht man weder Mittelformat noch 180 Megapixel, und KI schon mal gar nicht. 8K Open Gate ergeben 44,7 Megapixel bei einem Kleinbildsensor im Seitenverhältnis 3:2 (bei einem Seitenverhältnis von 4:3 wären es 50,3 Megapixel). Bei 180 Megapixeln wäre das schwieriger, denn wenn man den Sensor komplett auslesen würde, wären riesige Datenmengen zu bewältigen, bevor man sie auf 8K heruntergerechnet hat, und wenn man von vornherein weniger Pixel ausliest, handelt man sich bei hochauflösenden Objektiven ein Moiré-Problem ein.

      1. … Dafür ist eine KI-basierte Skalierung perfekt geeignet, denn sie löst das Problem billiger und eleganter als eine extrem hochauflösende Kamera….

        Müssen wir das wirklich so sehen? Sie formulieren „löst das Problem…“, was bei mir Widerspruch hervorruft. Das Problem ist nicht gelöst im Sinne von „gestellte Aufgabe erfüllt“, denn es wird Inhalt dazugelogen. Auch wenn er bzw. seine Stimmigkeit noch so wahrscheinlich sein mag, er ist nicht wirklich da.

        1. Wie ich schon sagte: Es geht nicht um die feinsten Details. Die sieht sich eh niemand an. Das Ziel ist, hässliche Pixelstrukturen zu vermeiden. Alle wichtigen Details sind im Ausgangsbild vorhanden, und es kommt nur noch darauf an, es gut aussehen zu lassen. Das ist die Anforderung, die sich in der Praxis stellt, und die KI-Skalierung erfüllt sie perfekt.

    2. Das mit der „Versuchung“ kann man verstehen, wenn man mal die Bilder sieht, die die Dinger schießen. Aber, als Besitzer/Benutzer von GFX 100s und nun GFX 100II muß ich darauf hinweisen, daß der Einsatzbereich der Kameras etwas begrenzt ist.

      Nämlich in Bezug darauf, daß schnelle Bildfolgen wie bei Nikon Z9 z.B. problemlos sind, mit den GFXen eben nicht im Bereich des Machbaren liegen! Sobald es nur ein bißchen schattiger wird, nimmt das Belichten und dann Abspeichern noch mehr Zeit in Anspruch. Erstmal muß der Sensor ja ausreichend Licht abbekommen und dann muß der Datenwust ja auch weggeschrieben werden auf Karte. Beides klappt bei der 100II schon viel besser (schneller) als bei der 100s, aber andere sind denn doch deutlich(!) schneller. Freilich bei viel geringerer Auflösung – natürlich.

      Meine allererste Ausprobier-Runde im Stadtpark brachte Mengen von verwackelten Bilder zum Vorschein, eeill ich des häufigeren übersehen hatte, daß die Enten da im Halbschatten wohl doch 1 Sekunde Belichtungszeit bekommen werden, meinte die Kamera… Tschja…

      Also meiner nur für mich gültigen!!!, noch dazu milder Amateur-, Meinung nach sind die bisherigen GFXe eher „Sonnenlicht“-Kameras als „jede Helligkeit paßt“.
      Und bei in etwa doppelt so „großen“ Sensoren wird die Sache wohl nicht einfacher werden…

      Jedenfalls: wenn man das Belichtungsproblem für sich mal gelöst hat, sind die entstehenden Bilder nichts anderes als „beeindruckend“! Punkt.

      1. „Erstmal muß der Sensor ja ausreichend Licht abbekommen“

        Das ist bei einer Mittelformatkamera nicht schwieriger als bei einer Kleinbildkamera. Die Mittelformatkamera braucht für denselben Bildwinkel eine 25 Prozent längere Brennweite als die Kleinbildkamera, aber dafür darf die Lichtstärke auch im gleichen Maße geringer sein, damit gleich viel Licht auf den Sensor trifft.

        Konkret: Fujis GF 55 mm F1.7 R WR bringt (bei offener Blende) so viel Licht auf den Sensor wie ein 44 mm F1.4 an einer Kleinbildkamera.

Schreibe einen Kommentar

Bitte melden Sie sich an, um einen Kommentar zu schreiben.

Schaltfläche "Zurück zum Anfang"