Da es hier massig Erfahrung und Foto-Wissen gibt, kann mir vielleicht jemand gedanklich auf die Sprünge helfen.
Ich hab eine Kamera mit Vollformat Sensor (Sony Alpha 99) und eine mit APS-C (Sony Alpha 6000). Beide Sensoren lösen mit 24 Megapixel auf. Auch was die Leistungsdaten betrifft sind sie nahezu gleichwertig, nur am APS-C Sensor sind die Pixel natürlich mit 3,9µm etwas kleiner als die 6,0 µm am VF Sensor was sich in etwas geringerer Lichtausbeute niederschlägt. Ich mach gern low-light und Nachtaufnahmen und dabei ist mir folgendes aufgefallen, was ich nicht verstehe.
Der Sucher der "besseren" A99 hat eine Auflösung von 2,36 Megapixel, der andere 1,44 Megapixel. Wenn ich bei schlechten Lichtverhältnissen in den Sucher blicke, dann zeigt mir der mit der weitaus besseren Aufösung an der A99 Details nur schlecht an, während die Anzeigequalität des "schlechteren" an der A6000 echt ein Traum ist. Und zwar ist der Sucher so gut - und das verstehe ich nun nicht - dass das Bild im Sucher meist besser ist als das fertige Foto. Im Idealfall bekomme ich, wenn ich in der Nachbearbeutung alles ausreize, gerade mal die Detailtreue am fertigen Foto, die ich bei der Aufnahme im Sucher gesehen habe. Wie kann das sein? Etwas, das die Kamera anzeigen kann, muss sie doch auch auf die Speicherkarte bekommen, oder nicht?
Und was mir auch nicht ganz klar ist, wenn ich unter den beschriebenen Umständen in raw & jpg aufnehmen, dann ist in der Detailqualität das jpg auch noch das bessere Bild, vor allem hat es weniger Pixelrauschen.
Ich hänge Vergleichbilder an, was ich meine:
Erstes Foto ein Blick auf die nächtliche Straßenansicht um die es als Testmotiv geht.
Als zweites Bild ein Screenshot von Aufnahmen der beiden Kameras in der 100% Ansicht im Vergleichsmodus.
Die oberen beiden Ausschnitte sind von der A99 beide aus raw-Daten konvertiert.
Unten links: A6000 Kamera-jpg nachbearbeitet
Unten rechts - das gleiche Foto aus der raw-Datei nachbearbeitet und konvertiert - Rauschen! *wäh*
Wenn ich durch den Sucher der A99 schaue, dann bekomme ich die schräge Fuge von der Ecke des Fensterrahmens nicht zu sehen. Das Sucherbild der A6000 zeigt mir diese mindestens so gut an, wie auf den oberen beiden Bildausschnitten. Es kann also auch nicht an einem Unterschied der Objektive liegen, wenn der Sucher der "schlechteren" Kamera ein besseres Bild anzeigt als ich fotografieren kann und mindestens gleich gut, wie es die andere Kamera als abgespeicherte Bilddatei hin bekommt. Wie kann das sein???
Ich weiß schon, grundsätzlich ist das "mimimi" auf hohem Niveau. Auf 50, 60 Meter Entfernung in der Nacht nur mit der Straßenlaterne als Lichtquelle eine Klebefuge vom Fensterrahmen zu fotografieren muss reichen. Ja, eh!
Es fuxt mich aber sowas von, dass ich nicht draufkomme, wieso das Sucherbild besser ist als das Foto.
Ich hab eine Kamera mit Vollformat Sensor (Sony Alpha 99) und eine mit APS-C (Sony Alpha 6000). Beide Sensoren lösen mit 24 Megapixel auf. Auch was die Leistungsdaten betrifft sind sie nahezu gleichwertig, nur am APS-C Sensor sind die Pixel natürlich mit 3,9µm etwas kleiner als die 6,0 µm am VF Sensor was sich in etwas geringerer Lichtausbeute niederschlägt. Ich mach gern low-light und Nachtaufnahmen und dabei ist mir folgendes aufgefallen, was ich nicht verstehe.
Der Sucher der "besseren" A99 hat eine Auflösung von 2,36 Megapixel, der andere 1,44 Megapixel. Wenn ich bei schlechten Lichtverhältnissen in den Sucher blicke, dann zeigt mir der mit der weitaus besseren Aufösung an der A99 Details nur schlecht an, während die Anzeigequalität des "schlechteren" an der A6000 echt ein Traum ist. Und zwar ist der Sucher so gut - und das verstehe ich nun nicht - dass das Bild im Sucher meist besser ist als das fertige Foto. Im Idealfall bekomme ich, wenn ich in der Nachbearbeutung alles ausreize, gerade mal die Detailtreue am fertigen Foto, die ich bei der Aufnahme im Sucher gesehen habe. Wie kann das sein? Etwas, das die Kamera anzeigen kann, muss sie doch auch auf die Speicherkarte bekommen, oder nicht?
Und was mir auch nicht ganz klar ist, wenn ich unter den beschriebenen Umständen in raw & jpg aufnehmen, dann ist in der Detailqualität das jpg auch noch das bessere Bild, vor allem hat es weniger Pixelrauschen.
Ich hänge Vergleichbilder an, was ich meine:
Erstes Foto ein Blick auf die nächtliche Straßenansicht um die es als Testmotiv geht.
Als zweites Bild ein Screenshot von Aufnahmen der beiden Kameras in der 100% Ansicht im Vergleichsmodus.
Die oberen beiden Ausschnitte sind von der A99 beide aus raw-Daten konvertiert.
Unten links: A6000 Kamera-jpg nachbearbeitet
Unten rechts - das gleiche Foto aus der raw-Datei nachbearbeitet und konvertiert - Rauschen! *wäh*
Wenn ich durch den Sucher der A99 schaue, dann bekomme ich die schräge Fuge von der Ecke des Fensterrahmens nicht zu sehen. Das Sucherbild der A6000 zeigt mir diese mindestens so gut an, wie auf den oberen beiden Bildausschnitten. Es kann also auch nicht an einem Unterschied der Objektive liegen, wenn der Sucher der "schlechteren" Kamera ein besseres Bild anzeigt als ich fotografieren kann und mindestens gleich gut, wie es die andere Kamera als abgespeicherte Bilddatei hin bekommt. Wie kann das sein???
Ich weiß schon, grundsätzlich ist das "mimimi" auf hohem Niveau. Auf 50, 60 Meter Entfernung in der Nacht nur mit der Straßenlaterne als Lichtquelle eine Klebefuge vom Fensterrahmen zu fotografieren muss reichen. Ja, eh!
Es fuxt mich aber sowas von, dass ich nicht draufkomme, wieso das Sucherbild besser ist als das Foto.