Unterschiede zwischen Sensorformaten und Auswirkungen

    Die Anmeldung für den Wiener Fotomarathon 2019 am 28. September ist online. Infos & Anmeldung

    Gutscheine, Vergünstigungen und Geschenke beim Fotowettbewerb "Kulturstadt Wien" Jetzt mitmachen

    • Unterschiede zwischen Sensorformaten und Auswirkungen

      Hallo allerseits,

      vor ein paar Tagen entstand die Diskussion über die Auswirkungen verschiedener Sensorformarte in einem anderen Thread und ich habe versprochen, nochmals detaillierter darüber zu schreiben. Da es im anderen Thread ziemlich Offtopic ist, starte ich hiermit einen neuen Thread. Der Sinn des Threads ist es, eine Basis für eine technische Diskussion zu bieten bzw. Interessierten vielleicht etwas über die Technik hinter Digitalkameras zu erzählen. Gerne versuche ich auf alle Fragen und Anregungen einzugehen oder diskutiere über das Thema. Ich bitte jedoch darum sachlich zu bleiben, vor allem wenn Vor- oder Nachteile genannt werden und es nicht in einen Sensorformat- oder Hersteller-Krieg ausarten zu lassen.

      Vorweg: ich selbst will nirgendwo sagen, dass ein bestimmtes Sensorformat besser oder schlechter für den Fotografen ist, denn sowohl große als auch kleine Sensoren haben Vor- und Nachteile und jeder muss für sich abwägen, was einem besser liegt. Ich versuche diesen Post möglich faktenorientiert zu schreiben. Sollte es an irgendeiner Stelle anders klingen, dann bitte gerne darauf aufmerksam machen. Selbst nutze ich derzeit sowohl einen Vollformat-Sensor als auch einen 2/3“ Sensor für meine Bilder. Also einen recht großen und einen eher kleineren Sensor. Obendrein ist diese Betrachtung sehr theoretisch und in der Theorie große Unterschiede können sich in der Praxis durchaus relativieren. Der Einfachheit halber nehme ich zum Vergleich einen Vollformat und einen MFT-Sensor, da diese sich um den Faktor 2 (Crop-Faktor 2) in der Diagonale und um den Faktor 4 bei der Fläche unterschieden und somit ist mit diesen leichter zu rechnen. Brennweitenangaben beziehen sich immer auf den Vollformatsensor, wie es üblich ist (KB-Äquivalent). Dass beide einen leicht unterschiedliches Format (3:2 und 4:3) haben, lasse ich auch der Einfachheit halber fallen.


      Von mir verwendete Begriffe:
      • MFT oder µFT: Sensorformat (Micro)-Four-Thrids (17,3 x 13mm), Crop 2
      • APS-C: Sensorformat (22,2 x 14,8mm), Crop 1,6
      • FF: Sensorformat Fullframe/Vollbild/Kleinbild: (36 x 24mm), Crop 1
      • MF: Sensorformat Mittelformat (48 x 36mm), Crop 0,75
      • Crop/Crop-Faktor: Der Faktor im wie viel die Diagonale eines Sensors sich im Vergleich zur Diagonale von Fullframe verhält. Es ist auch die scheinbare Brennweitenverlängerung
      • MP: Megapixel
      • (Licht-)Transmission: Die Licht-Transmission ist der Durchlässigkeitsgrad eines optischen Elements. Fensterglas hat z.B. üblicherweise Transmission von 0,85. Das heißt, 85% des Lichts gehen hindurch, 15% werden reflektiert oder absorbiert. Solarglas (Glas für Photovoltaik oder Solarthermie-Kollektoren) hat üblicherweise eine Transmission von 0,95. Ich weiß leider nicht, wie hoch die Transmission des Glases bei Objektiven im Schnitt ist, aber ich vermute noch höher, so gegen 0,95-0,98.
    • Scheinbare Brennweitenverlängerung

      Ein Sensor, der kleiner als Vollformat ist, füllt theoretisch nicht den gesamten Bildbereich eines Objektivs aus. Wenn man ein Bild bei gleichem Abstand und gleicher Brennweite mit FF und MFT fotografiert, so hat man auf dem MFT Sensor nur einen Ausschnitt des Bildes vom FF Sensor. Es wirkt also wie ein Zuschnitt (Crop). Dabei entspricht der Bildausschnitt eines 100mm Objektivs auf FF dem eines 200mm auf einem MFT und darum spricht man von einer Brennweitenverlängerung. Allerdings ist dieser Ausdruck nur zum Teil richtig, denn nicht alle Effekte einer längeren Brennweite verändern sich. Dieser Effekt ist vor allem nützlich, wenn man Teleobjektive/lange Brennweiten nutzt. Hingegen erfordert es für (Ultra-)Weitwinkelaufnahmen wiederum sehr kurze Brennweiten.


      Schärfentiefe

      Je größer der Sensor, desto geringer ist die Schärfentiefe bei gleicher Blende und gleichem gleichen Bildausschnitt. Das liegt daran, dass die absolute Schärfentiefe mit zunehmenden Motivabstand größer wird. Also bei Blende F2,8 habe ich bei 100m Entfernung zum Motiv eine deutlich höhere Schärfentiefe als bei 1m Entfernung. Wenn der Sensor kleiner wird, muss ich bei gleicher Brennweite einen größeren Motivabstand einnehmen und darum erhöht sich die Schärfentiefe. Das kann in beide Richtungen von Vorteil sein: will ich mehr Schärfentiefe, dann muss ich bei kleineren Sensoren weniger abblenden als bei größeren Sensoren. Will ich eine geringere Schärfentiefe, dann haben größere Sensoren Vorteile. Das Objektiv gibt dabei die Grenzen vor: wie weit kann ich die Blende öffnen und ab welcher Blende beginnt die [Links sind nur für Registrierte Benutzer sichtbar].


      Rauschverhalten

      Bei gleicher MP-Anzahl und gleicher Sensortechnologie auf einem MFT und FF Sensor ist ein einzelner Pixel auf dem MFT-Sensor nur ein Viertel so groß, wie auf einem FF-Sensor. Je kleiner die Photozelle, desto weniger Licht bzw. Photonen fängt sie bei sonst unveränderten Parametern ein. Um dennoch die gleiche scheinbare Helligkeit zu bekommen muss dazu das Ergebnis um den Faktor vier stärker verstärkt werden. Das Wiederrum verstärkt aber auch Ungenauigkeiten bzw. Falschinformationen und dieser Effekt wird als Bildrauschen wahrgenommen. Somit entspricht die Verstärkung bei ISO800 auf MFT der Verstärkung von ISO3200 auf FF.

      Um das etwas zu veranschaulichen, ein stark vereinfachtes Beispiel: meine Lichtquelle liefert mir 1000 Photonen pro Pixel auf dem FF-Sensor. Diese 1000 Photonen reichen z.B. aus, dass dieser Pixel 50% Grau ausgibt. Beim MFT-Sensor wären es somit 250 Photonen, da die Photozelle eben nur ein Viertel so groß ist. Damit es genauso 50% Grau erreicht, muss das Signal also viermal mehr verstärkt werden. Leider sind Photozellen eben nicht perfekt und sie liefern z.B. einen Auslesefehler, der der Helligkeit von bis zu 25 Photonen entspricht. Diese Auslesefehler werden allerdings ebenso mitverstärkt. Beim FF-Sensor habe ich somit einen Fehler von bis zu 2,5%. Beim MFT-Sensor hingegen bis zu 10%.

      In der Praxis sind zwei Sensoren jedoch nicht so gleich, dass man genau von einem Faktor vier ausgehen kann. Die Photozellen machen nicht 100% der Fläche eines Sensors aus, sondern es gibt sehr, sehr, sehr schmale Abstände zwischen den Zellen. Die Effekte der Abstände werden hingegen wieder mit sogenannten Mikrolinsen deutlich abgeschwächt. Diese Linsen fangen das Licht auf einer größeren Fläche ein und bündeln es wie eine Lupe auf die Photozelle. Auf den meisten der heute üblichen Sensoren nimmt eine einzelne Photozelle nur eine Farbe wahr (Rot, Grün oder Blau). Genaugenommen nimmt die Photozelle überhaupt nur Helligkeiten wahr und ein Farbfilter vor der Photozelle lässt nur eine der drei Grundfarben hindurch. Das ist die Bayer-Matrix des [Links sind nur für Registrierte Benutzer sichtbar]. Von vier Pixel nimmt je einer Rot und Blau und zwei nehmen Grün wahr. Man hat sich für die Verdopplung von Grün entschieden, da das menschliche Auge bei Grüntönen am empfindlichsten ist. Somit haben wir schon einmal zwei Lagen vor dem Sensor: Mikrolinsen und Farbfilter. Die meisten Sensoren haben jedoch noch zwei weitere Schichten: einen IR-Sperrfilter, der Infrarotlicht blockiert und einen Tiefpass- bzw. Anti-Aliasing-Filter, der den [Links sind nur für Registrierte Benutzer sichtbar], der durch eine digitale (Unter-)Abtastung entsteht, verhindern soll. Somit sind zwischen der letzten Linse des Objektivs und der Photozelle schon zwischen zwei bis vier Schichten. Diese können leicht unterschiedliche Transmissionswerte haben und somit kann es leicht dazu kommen, dann z.B. bei einem FF-Sensor nur 90% des Lichts an der Photozelle ankommen und beim MFT-Sensor 95%. Und dann ist der Faktor der Verstärkung nicht mehr 4, sondern nur noch bei 3,7.

      Obwohl der ISO5800-Standard vorgibt, bei welchen Lichtverhältnissen welche Bildhelligkeit erreicht werden soll, kann es hier Unterschiede zwischen einzelnen Kameramodellen geben. Ganz unabhängig vom verwendeten Sensor. So kann z.B. bei Hersteller A ISO 100 gleich sein, wie bei Hersteller B ISO 110 wäre, doch beide nennen es ISO 100, obwohl Hersteller B das Signal und somit die Auslesefehler um 10% mehr verstärkt. Auch Objektive haben unterschiedliche Transmissionsgrade. Ein Objektiv mit vielen Linsen und gleicher Glasgüte wie ein Objektiv mit weniger Linsen hat eine niedrigere Gesamttransmission.

      Ein weiterer physischer Effekt ist die Wärmeentwicklung. Je wärmer eine Photozelle, desto höher ist das Grundrauschen. Je größer ein Sensor, desto größer auch die Wärmeabgabe des Sensors. Können also die Gehäuse einer Kamera mit MFT und einer Kamera mit FF-Sensor die gleiche Wärmeenergie abgeben, wird es im Inneren der FF-Kamera wärmer, wenn die restliche Hardware die gleiche Wärmeentwicklung hat. Das wirkt sich vor allem bei Langzeitbelichtungen, LiveView und Videoaufnahmen aus. Hier wird der Sensor über längere Zeit benutzt und erzeugt somit mehr Wärme.

      Das physikalische Rauschen wird von den Kamera-Herstellern mit dem Bildprozessor reduziert. Je besser die Algorithmen, desto mehr Bildrauschen kann entfernt werden, ehe man Schärfe oder Details verliert. Selbst wenn wir RAW-Dateien betrachten, sind diese zumindest durch einen Demosaicing-Prozess gegangen. Soweit sind diese selbst in den gleichen Tools (wie z.B. Adobe Camera Raw) je nach Hersteller/Kameramodell leicht unterschiedlich, um das jeweils beste Ergebnis zu erhalten.

      Und das alles gilt auch nur, solange die Sensoren die gleiche MP-Anzahl haben. In der Regel haben größere Sensoren auch mehr MP und somit reduzieren sich die Faktoren. Hat ein MFT-Sensor 20MP und ein FF-Sensor 40MP somit haben wir nicht mehr den theoretischen Faktor 4, sondern nur noch Faktor 2 auf Pixelebene.

      Dynamik

      Zu diesem Punkt werde ich in den nächsten Tagen noch etwas schreiben. Ich muss selbst noch ein wenig Recherche betreiben. Aber schonmal als Denkansatz: die Dynamik einer Fotozelle hängt stark vom Grundrauschen aber auch von der Signalverstärkung ab. Ne niedriger das Grundrauschen, desto höhere Dynamik ist möglich. Eine höhere Dynamik benötigt aber anscheinend (hier muss ich eben noch besser recherchieren) eine höhere Signalverstärkung. Darum bieten manche Kameras in den niedrigsten ISO-Stufen (z.B. ISO50 bei Canon FFs) weniger Dynamik also bei etwas höheren ISO-Werten.

      Lichtkreis

      Da im letzten Thread die Frage aufgekommen ist, was ich wohl mit Lichtkreis meine, hier noch eine kurze Erläuterung dazu. Möglicherweise gibt es dazu auch einen Fachbegriff, der mir nicht bekannt ist. Ein Objektiv erzeugt einen beleuchteten Kreis (meistens ist es nur ungefähr ein Kreis) auf der Bildebene (da wo der Sensor ist). Dem Objektiv ist es dabei vollkommen egal, wie groß der Sensor darin ist. Bei einem Objektiv für Vollformat muss natürlich der Vollformat-Sensor voll ausgeleuchtet werden, bei einem Objektiv für einen kleineren Sensor reicht es, wenn nur dieser ausgeleuchtet wird (was den Objektivbau vereinfacht). Hier ein Bild, das zeigt, wie ich das meine. Ich habe die ungefähren Sensorgrößen MFT, APS-C und FF eingezeichnet.



      Ich werde den Thread in den nächsten Tagen noch um den einen oder anderen Punkt erweitern.

      Lg Jürgen
    • Bildkreis ist vielleicht das Wort,

      wenn eine bestimmte Blende einer bestimmten Menge Licht entspricht dann versteh ich das mit den 1000 bzw 250 Photonen nicht, ein Objektiv verteilt das Licht auf einen FF Sensor, der den Bildkreis ausfüllt, ein anderes Objektiv verteilt das Licht auf einen 4/3 Sensor, der den entsprechend kleineren Bildkreis ausfüllt. Fragen über Fragen^^

      Ich hab ein Objektiv das locker einen 50cm Bildkreis ausfüllt^^
    • ich sag ja, durch die Blende kommen x Photonen die auf den Bildkreis verteilt werden, wenn ein kleiner Sensor einen kleinen Bildkreis im selben Verhältnis abdeckt wie ein großer Sensor einen großen dann sollte jeder Sensel x/Auflösung Photonen kriegen.

      Die Datenleitung auf der Vorderseite nehmen bis zu 25 oder 30% einer Sensorfläche ein, Samsung hat mit der NX-1 alle Leitungen auf die Rückseite verlegen können und damit schon vor 5 Jahren klare 28MP aus dem APS-c Sensor geholt.

      Und wenn du über Bayer-Zeugs schreibst, nicht vergessen dass es auch anders geht.^^
    • M_Martin_M schrieb:

      ich sag ja, durch die Blende kommen x Photonen die auf den Bildkreis verteilt werden, wenn ein kleiner Sensor einen kleinen Bildkreis im selben Verhältnis abdeckt wie ein großer Sensor einen großen dann sollte jeder Sensel x/Auflösung Photonen kriegen.

      Die Datenleitung auf der Vorderseite nehmen bis zu 25 oder 30% einer Sensorfläche ein, Samsung hat mit der NX-1 alle Leitungen auf die Rückseite verlegen können und damit schon vor 5 Jahren klare 28MP aus dem APS-c Sensor geholt.

      Und wenn du über Bayer-Zeugs schreibst, nicht vergessen dass es auch anders geht.^^
      zb x-trans.
    • M_Martin_M schrieb:

      ich sag ja, durch die Blende kommen x Photonen die auf den Bildkreis verteilt werden, wenn ein kleiner Sensor einen kleinen Bildkreis im selben Verhältnis abdeckt wie ein großer Sensor einen großen dann sollte jeder Sensel x/Auflösung Photonen kriegen.
      Dann hat das Objektiv eine kürzere Brennweite und wenn die Blendenöffnung gleich bleibt, dann ist die Blende größer.

      Nehmen wir abermals FF und MFT: Das FF Objektiv ist ein 100mm F2.8. Nutze ich das Objektiv so auf einer MFT Kamera, trifft nur noch ein Viertel des Lichts auf den Sensor im Vergleich zum FF. Will ich jedoch gleich viel Licht auf den Sensor haben, darf der Blendendurchmesser nicht kleiner werden, aber ich muss die Brennweite halbieren, um den gleichen "Winkel" einfangen. Ist der "Winkel" kleiner, dann habe ich logischerweise auch weniger Licht. Also von 100mm F2.8 auf 50mm F1.8. Da Brennweite durch Blendendurchmesser gleich Blendenzahl: ((100 / 2.8) * 50).

      M_Martin_M schrieb:

      Die Datenleitung auf der Vorderseite nehmen bis zu 25 oder 30% einer Sensorfläche ein, Samsung hat mit der NX-1 alle Leitungen auf die Rückseite verlegen können und damit schon vor 5 Jahren klare 28MP aus dem APS-c Sensor geholt.
      Von einem Viertel habe ich auch schon gehört. Allerdings schreitet die Fertigungstechnik auch voran, darum könnte es sein, dass es mittlerweile etwas weniger ist. Aber Back-Illuminated ist natürlich im Vorteil, vor allem, was die max. MP Anzahl betrifft. Die Mikrolinsen machen einen Teil des Verlusts wieder wett.

      M_Martin_M schrieb:

      Und wenn du über Bayer-Zeugs schreibst, nicht vergessen dass es auch anders geht.^^
      Die gibt es, ja. Aber die sind eine Minderheit und ich hatte noch nie eine in der Hand bzw. mich maximal oberflächlich damit beschäftigt. Somit kann ich nichts Fundiertes dazu schreiben.

      lg Jürgen
    • M_Martin_M schrieb:

      wird ja keiner ein FF Objektiv auf 4/3 schrauben
      Doch, genau das ist gar nicht so selten.

      Genauso wie z.b. FF Objektive auf APS-C verwendet werden (Stichwort Canon/Nikon Teleobjektive)

      Crop Objektive "kondensieren" auch nicht das Licht auf einen kleineren Bildkreis. Sonst wären ja die Blenden zwischen verschiedenen Objektiven (FF/Crop) gar nicht mehr vergleichbar und würden unterschiedliche ISO erfordern.

      D.h. der kleinere Sensor muss immer insgesamt mit weniger Licht auskommen (aber nicht pro Flächeneinheit) -> daraus ergibt sich gleiche ISO-Einstellung, allerdings mehr Rauschen bedingt durch die kleineren Pixel (bei identischer Auflösung).

      So gesehen kann man auch equivalente Blenden verwenden, um Systeme zu vergleichen.

      Man gewinnt nichts, wenn man z.B. ein FF System mit f/4 Zoomobjektiven durch ein APS-C System mit f/2.8 Objektiven ersetzt, die Systeme sind äquivalent.

      Umgekehrt gewinnt man auch durch einen Umstieg von einem APS-C System mit f/2.8 Objektiven auf Vollformat nicht unbedingt etwas, wenn man sich dann auf die lichtschwachen f/4 FF Objektive beschränkt.
      Nicht unbedingt - ausgenommen man kann z.B. die ISO trotz kleinerer Blende unten halten, z.b. bei Landschaftsfotografie (= doppelt so lange belichten) oder im Studio (= mehr Saft auf die Blitze).

      Und das gilt nicht nur bei Offenblende: auch beim Abblenden muss ich auf FF stärker abblenden als bei Crop, um die gleiche Schärfentiefe zu erreichen. Auf den ersten Blick bringt das also nichts - es sei denn, ich kann eben abblenden und die Belichtungszeit erhöhen oder mit Blitz arbeiten.
    • wictred schrieb:

      M_Martin_M schrieb:

      wird ja keiner ein FF Objektiv auf 4/3 schrauben
      Doch, genau das ist gar nicht so selten.
      Genauso wie z.b. FF Objektive auf APS-C verwendet werden (Stichwort Canon/Nikon Teleobjektive)

      Crop Objektive "kondensieren" auch nicht das Licht auf einen kleineren Bildkreis. Sonst wären ja die Blenden zwischen verschiedenen Objektiven (FF/Crop) gar nicht mehr vergleichbar und würden unterschiedliche ISO erfordern.

      D.h. der kleinere Sensor muss immer insgesamt mit weniger Licht auskommen (aber nicht pro Flächeneinheit) -> daraus ergibt sich gleiche ISO-Einstellung, allerdings mehr Rauschen bedingt durch die kleineren Pixel (bei identischer Auflösung).

      So gesehen kann man auch equivalente Blenden verwenden, um Systeme zu vergleichen.

      Man gewinnt nichts, wenn man z.B. ein FF System mit f/4 Zoomobjektiven durch ein APS-C System mit f/2.8 Objektiven ersetzt, die Systeme sind äquivalent.

      Umgekehrt gewinnt man auch durch einen Umstieg von einem APS-C System mit f/2.8 Objektiven auf Vollformat nicht unbedingt etwas, wenn man sich dann auf die lichtschwachen f/4 FF Objektive beschränkt.
      Nicht unbedingt - ausgenommen man kann z.B. die ISO trotz kleinerer Blende unten halten, z.b. bei Landschaftsfotografie (= doppelt so lange belichten) oder im Studio (= mehr Saft auf die Blitze).

      Und das gilt nicht nur bei Offenblende: auch beim Abblenden muss ich auf FF stärker abblenden als bei Crop, um die gleiche Schärfentiefe zu erreichen. Auf den ersten Blick bringt das also nichts - es sei denn, ich kann eben abblenden und die Belichtungszeit erhöhen oder mit Blitz arbeiten.
      wenn dann wie beim x-trans das bildrauschen excellent im griff ist, hat man m.m. nach ein kleineres, handlichers und letztlich billigeres und bis auf ein paar ausnahmesituationen gleichwertiges system.
    • Anforderung an Objektive

      Zu einer Kamera gehören natürlich immer auch Objektive. Und die Anforderungen verschiedener Sensoren an die Objektive können durchaus sehr unterschiedlich sein. Die Sensorgröße allein bestimmt, wie groß der Bildkreis und damit auch das Objektiv selbst mindestens sein muss. Je größer der Sensor, desto größer das Objektiv. Je größer das Objektiv, desto schwerer ist es aber auch die Fertigung größerer Linsen ist aufwendiger und teurer. Der AF-Motor muss mehr Masse bewegen, muss also auch größer und stärker sein und verbraucht mehr Gewicht. Bei optischer Stabilisation gilt das gleiche für die Aktoren, die die stabilisierte Linsengruppe bewegt. Ein Nachteil größerer Sensoren sind also schwerer, aufwendiger und somit (meist) teurere Objektive.

      Aber auch die Pixeldichte hat Auswirkungen. Je kleiner die Pixel, desto weniger Objektivfehler werden verziehen. Auch Objektive haben eine gewisse Auflösung (z.B. angegeben in Linien bzw. Linienpaare pro mm). Diese Auflösung ist jedoch nicht über den ganzen Bildbereich konstant und kann somit nicht so „digital“ gesehen werden, wie Sensorauflösung. Vereinfacht sagt es aus, wie viel Linienpaare (eine Schwarze und eine weiße Linie) pro mm auf Bildebene noch klar voneinander getrennt dargestellt werden können. Habe ich z.B. ein Objektiv mit durchgängig 1000 LP/mm, dann kann es auf einem FF-Sensor max. 36.000 Linienpaare zeigen. Damit ein Objektiv gut auflöst, muss es laut dem [Links sind nur für Registrierte Benutzer sichtbar] mindestens doppelt so hoch auflösen, wie der Sensor. Mehr ist besser. Je kleiner also die Pixel auf dem Sensor, desto höher muss die Objektivauflösung sein, denn kleinere Pixel erhöhen natürlich auch die Sensorauflösung pro mm (wenn der Sensor gleich groß bleibt). Oder umgekehrt, verringert man die Sensorgröße und behält die MP-Anzahl bei, erhöht sich die Pixelzahl pro mm. Bei einem Crop Faktor von 2 muss also das Objektiv doppelt so hoch auflösen, wie bei einem FF-Sensor, wenn die MP-Anzahl gleichbleibt. In der Regel ist die Objektivauflösung bei guten Objektiven überhaupt kein Problem. Selbst Zoomobjektive haben eigentlich genug Auflösung für heutige DSLR/DSLM-Kameras.

      Wie schon vorher kurz angerissen, gibt es eine Beugungsunschärfe. Je geschlossener die Blende ist, desto stärker ist diese Beugungsunschärfe. Sichtbar wird sie, sobald ein (fiktiver) Lichtstrahl nicht mehr den richtigen Pixel trifft, sondern den daneben. Je kleiner die Pixel, desto eher wird die Beugungsunschärfe sichtbar. Das gleiche gilt auch für [Links sind nur für Registrierte Benutzer sichtbar]. Je größer ein Pixel, desto höher ist die Toleranz gegen Cas, da die Chance, dass die Strahlen der einzelnen Farben noch auf den gleichen Pixel treffen, einfach höher ist.

      Die Vignettierung hingegen ist in der Regel bei FF-Sensoren ein größeres Problem als bei kleineren Sensoren. Vor allem wenn z.B. auf Kameras mit kleineren Sensoren Objektive, die für FF gebaut sind, verwendet werden, gibt es kaum Vignettierung, da diese hauptsächlich außerhalb des Sensors auftritt.

      Kurz zusammengefasst: je größer der Sensor, desto größer muss das Objektiv gebaut werden. Je höher die relative Sensorauflösung (z.B. in Pixel pro mm), desto höher die Anforderung an die Güte der Objektive.
    • Photo-Sorko schrieb:

      Und das alles gilt auch nur, solange die Sensoren die gleiche MP-Anzahl haben. In der Regel haben größere Sensoren auch mehr MP und somit reduzieren sich die Faktoren. Hat ein MFT-Sensor 20MP und ein FF-Sensor 40MP somit haben wir nicht mehr den theoretischen Faktor 4, sondern nur noch Faktor 2 auf Pixelebene.
      Ich will jetzt mal nicht darüber diskutieren, ob die technischen Ausführungen stimmen. Wozu ist eigentlich die Äquivalenz überhaupt gut? Damit man sich an KB orientieren kann. Ein Anfänger kauft sich eine APS-C Kamera und wundert sich warum die Bilder nicht so aussehen - in Bezug auf Tiefenschärfe und Bildwinkel - wie sie doch sollten. Das angenommene Objektiv wirkt aber nur auf KB so, auf APS-C braucht man... ich glaube es ist schon klar auf was ich hinaus will.

      Bezüglich Bildwinkel und Tiefenschärfe (nicht mal da bin ich mir sicher) funktioniert das sehr zuverlässig. Möchte ich auf APS-C Fotos machen die den Look eines 15mm an KB ausmachen, muss ich mir eben ein 10mm kaufen.

      Wir haben also einen Nutzen wenn wir Äquivalenz verstehen und damit umgehen können.

      Und genau der fehlt wenn es um die ISO Äuqivalenz geht.
      Die Formel ISO 3200 entspricht ISO 12800 auf FF funktioniert nicht, weil sehr sehr viele weitere Voraussetzungen erfüllt sein müssen, wie aus dem Zitat oben hervorgeht. Und das ist nur ein Punkt von vielen... Auch erkennen konnte man das an der Grafik die ich im anderen Thread eingestellt habe, wo drei FF Kameras verglichen wurden. Die müssten in Bezug auf die Iso/Dynamik, gleich sein, sind es aber nicht. Die Unterschiede mögen grafisch klein wirken, aber zeigen auf wie komplex die Sache wirklich ist und warum man die Formel der ISO Äquivalenz nicht mal auf Klopapier schreiben sollte.

      LG Roland

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von rolgal_ ()

    Registrieren oder Anmelden

    Du musst auf fotografie.at angemeldet sein, um hier antworten zu können.

    Registrieren

    Hier kannst Du Dich neu registrieren - einfach und schnell!


    Neu registrieren

    Annmelden

    Du bist schon Mitglied? Hier kannst Du Dich anmelden.


    Anmelden