Hello World!
Ich möchte ein Thema zur Diskussion stellen über das ich schon lange nachdenke, einiges recherchiert habe, aber keine zufriedenstellenden Antworten gefunden habe. Und zwar geht es darum, wie die Farbtiefe und somit der Dynamikumfang eines RAW-Bildes im Workflow sich wiederfindet.
Nehmen wir folgenden Workflow an:
1. Ich fotografiere RAW mit 14 Bit Auflösung pro Farbkanal, das macht einen Helligkeitsumfang von 2 hoch 14 = 16384 pro Farbe
2. Ich schau mir das Bild im RAW-Converter meiner Wahl an.
3. Eben mit dieser Software mache ich einige grundsätzliche Einstellungen
4. Ich entwickle das Bild in eine 16Bit Photoshop-Datei
5. Die weitere Bearbeitung erfolgt in eben diesen 16 Bit = 65536 Helligkeitsstufen pro Farbe
Nun zum eigentlichen Thema. In Schritt 2 erzeugt der RAW-Converter (egal ob Camera Raw, Lightroom oder Capture One) ein Vorschaubild als JPG. Das ist, wie wir wissen, 8Bit pro Kanal. Dieses Vorschaubild wird für alle Anpassungen verwendet. Schaut man das Histogramm an, so sieht man, dass das immer von 0 bis 255 geht.
In Stufe 4 werden dann die Einstellparameter genommen, mit dem originalen RAW-Bild verrechnet und eine PS-Datei mit 16 Bit errechnet.
Schau ich mir in Stufe 5 das Histogramm an, dann habe ich auch dort wieder nur 0...255 - also auch wieder die gesamte Bearbeitung mit 8 Bit.
Somit drängt sich mir die Vermutung auf, dass ich am Bildschirm immer nur einen maximalen Umfang von 8 Bit pro Farbkanal habe, oder? Weil sonst müsste ich ja für jeden Farbkanal Werte zwischen 0...65535 bekommen.
Da drängen sich Frage auf:
LG,
Gerhard
Ich möchte ein Thema zur Diskussion stellen über das ich schon lange nachdenke, einiges recherchiert habe, aber keine zufriedenstellenden Antworten gefunden habe. Und zwar geht es darum, wie die Farbtiefe und somit der Dynamikumfang eines RAW-Bildes im Workflow sich wiederfindet.
Nehmen wir folgenden Workflow an:
1. Ich fotografiere RAW mit 14 Bit Auflösung pro Farbkanal, das macht einen Helligkeitsumfang von 2 hoch 14 = 16384 pro Farbe
2. Ich schau mir das Bild im RAW-Converter meiner Wahl an.
3. Eben mit dieser Software mache ich einige grundsätzliche Einstellungen
4. Ich entwickle das Bild in eine 16Bit Photoshop-Datei
5. Die weitere Bearbeitung erfolgt in eben diesen 16 Bit = 65536 Helligkeitsstufen pro Farbe
Nun zum eigentlichen Thema. In Schritt 2 erzeugt der RAW-Converter (egal ob Camera Raw, Lightroom oder Capture One) ein Vorschaubild als JPG. Das ist, wie wir wissen, 8Bit pro Kanal. Dieses Vorschaubild wird für alle Anpassungen verwendet. Schaut man das Histogramm an, so sieht man, dass das immer von 0 bis 255 geht.
In Stufe 4 werden dann die Einstellparameter genommen, mit dem originalen RAW-Bild verrechnet und eine PS-Datei mit 16 Bit errechnet.
Schau ich mir in Stufe 5 das Histogramm an, dann habe ich auch dort wieder nur 0...255 - also auch wieder die gesamte Bearbeitung mit 8 Bit.
Somit drängt sich mir die Vermutung auf, dass ich am Bildschirm immer nur einen maximalen Umfang von 8 Bit pro Farbkanal habe, oder? Weil sonst müsste ich ja für jeden Farbkanal Werte zwischen 0...65535 bekommen.
Da drängen sich Frage auf:
- Was passiert mit den "fehlenden" Bits?
- Werden die "weggerechnet", komprimiert, extrapoliert oder was?
- Und wenn, welche Algorithmen stecken dahinter?
- Wie kann ich den Bereich einer Kamera von 14Bit in einer Software verwenden, die nur 8 Bit verwendet?
LG,
Gerhard