Jak któs bedzie robił porównanie to proponuje zrobić na ISO 1600 przy czasach 1/50 z ręki w zastanym świetle mieszanymwtedy zobaczymy czy faktycznie nie ma róznicy
![]()
Jak któs bedzie robił porównanie to proponuje zrobić na ISO 1600 przy czasach 1/50 z ręki w zastanym świetle mieszanymwtedy zobaczymy czy faktycznie nie ma róznicy
![]()
Są bardzo duże różnice wielkość DR poszczególnych puszek przetestowanych np. przez DXO i optycznych. DXO mierzy to, co da się wycisnąć z sensora, optyczni mierzą to co wypluwa aparat. Analogicznie różnice moich i Twoich poglądów wynikają z różnego podejścia do tematu. Skoro FF ma tak gigantyczny zapas informacji w cieniach, to czemu użytkownik sam musi się męczyć, żeby to wykorzystać (poprzez obróbkę). Producent mógłby przecież zaserwować nam w FF bogatszy w detale w cieniach obrazek wyjściowy.
Przepraszam, kto zrozumie?
Wracamy do pierwszego cytatu w tym poście. Podam też przykład:
Celowe niedoświetlenie np. o 2ev w celu zachowania świateł i późniejsze używanie fill light w lightroomie nigdy nie da takiego samego naświetlenia cieni jak przy zdjęciu bez korekcji o te 2ev, czyli nie odzyskamy dokładnie tego co poświęciliśmy stosując korekcję (wyjdą różne przekłamania kolorów i kontrastu w cieniach, obrazek będzie brzydszy niż bez korekcji). I nie ważne czy to będzie 5d II czy 40d. Tak więc co nam po tym zapasie w cieniach? Przydałoby się więcej w światłach i życie byłoby łatwiejsze.
Zapas w światłach to nic innego jak ilość detali zachowanych w jasnych partiach zdjęcia (przy poprawnie naświetlonym zdjęciu). W zasadzie wszystkie matryce ccd i cmos przy poprawnie naświetlonym zdjęciu zapisują dużo więcej w cieniach niż światłach (ok 5ev w cieniach i 3ev w światłach). Wyjątkiem jest np. Fuji s5 pro, który pozwala zapisać nawet 5ev w światłach. Dzięki temu nie trzeba celowo niedoświetlać zdjęcia (żeby zachować detale w światłach) i później "wyciągać" cienie do poprawnego poziomu naświetlenia. Po prostu dostajemy zdjęcie, które jest bliższe temu co widzi nasze oko.
I wracamy do High Tone Priority w Canonach. Tyle, że wtedy zaczynają się narzekania na szumy w cieniach.
!!! Łączenie podwójnego wpisu !!!
I jeszcze jedna rzecz - z tego co wiem nie ma (?) na razie sposobów prezentacji zdjęć, które dadzą więcej niż te 8EV. Nawet jeśli zarejestrujemy szerszy zakres tonalny, to musimy spłaszczyć dynamikę do możliwości papieru/monitora (tak,jak dawniej dynamikę dźwięku z taśmy matki do możliwości winylowej płyty). Można to zrobić ograniczając globalnie dynamikę przez zastosowanie krzywej o odpowiednim nachyleniu - ale wtedy obraz będzie "płaski" i mało kontrastowy. Aby tego uniknąć można podnieść lokalne kontrasty, ale wtedy jest ryzyko, że dostaniemy obraz "w stylu" HDR. Można też postąpić inaczej - zaprezentować na urządzeniu wyjściowym pewien podzakres zarejestrowanych tonów.
Generalnie dobrze jest mieć zarejestrowny szerszy zakres tonalny, bo wtedy możemy zdecydować się, co z nim zrobić, ale ogólnie sprawa nie jest całkiem oczywista.
Ostatnio edytowane przez tezmarek ; 28-01-2011 o 22:58 Powód: Automerged Doublepost
Jestem szumofobem
S50/1.4A. Mam ostrego kundla.
Używam Lee: BS, LS, Lee Landscape Polarizer 105mm, .6, .9 soft i hard, holder 2 sloty + pierścień
Myślę, że generalnie chodziło mu np. o tę krzywą:
http://www.dpreview.com/reviews/canoneos60D/page13.asp
http://www.urbanowicz.net.pl/artykul_5
Teraz musimy rozgraniczyć 3 rodzaje rozpiętości tonalnych:
1. Rozpiętość tonalna sceny fotografowanej.
2. Rozpiętość tonalna matrycy (dokładniej matryca + przetwornik A/C, dla uproszczenie niech to będzie matryca).
3. Rozpiętość tonalna zdjęcia.
Rozpiętość tonalna sceny fotografowanej ma charakter ciągły, tzn. nie widać przejść/granic tonalnych poszczególnych tonów - przejścia są płynne. Aby w fotografii analogowej jakoś tę scenę naświetlić zastosowano użycie jednostek EV w celu zorientowania się w charakterze rozpiętości tonalnej sceny. Nasza scena może np. przyjąć wartość 14EV, czyli czerń będzie przy wartości 0EV biel przy wartości 14EV. Czy można wartość 14EV wyrazić jeszcze jakoś w liczbach? Właśnie próbuje się to robić sprowadzając ten zakres tonalny do zakresu tonalnego cyfrowego.
2^14 = 16384
gdzie wartość 16383 oznacz punkt biały, wartość 0 punkt czarny. Teraz pytanie, czy to poprawny wynik dla obrazu o charakterze ciągnłym? Oczywiście nie. W rozpiętości sceny podstawą potęgi nie będzie liczba 2, może być i 10, 123, 234, 345.6 itp. czyli winik potęgowania będzie przeogromy i w zasadzie nieskończony. Podsumowując, rozpiętość tonalna sceny jest ciągła i nie da się jej przełożyć na liczby, poza tą teoretyczną własnością EV.
Rozpiętość tonalna matrycy ma charakter nieciągły. Matryca 12-bitowa posiada wartości od 0 do 4095, czyli tyle odcieni. Teraz również próbuje się przedstawić tą rozpiętość w oparcju o ciągłe EV i odnosić ją do realnej sceny. Jest to oczywiście nieporozumienie i jakiś tam marketing. Rozpiętość tonalna takiej matrycy (zakładając, że nie ma szumu) to wartości od 0 do 4095.
Przechodząc na siłę przejść do postaci EV sygnału dyskretnego (skwantyzowanego), otrzymam wynik 12EV. Porównajmy pełny zakres tonalny sceny która ma np. 12EV i matrycy, która "teoretycznie" ma 12EV. Czy jest to to samo? NIE. Sceną ma charakter ciągły, tzn. że w jednym podzakresie np. 1EV mieści się praktycznie nieskończenie wiele odcieni i praktycznie tyle, że nie bylibyśmy w stanie tego jednego podzakresu zarejestrować w pełni mając nawet matrycę 100 bitową. A w przypadku cyfrowym 1EV jaką ma wartość? Więc można dalej ciągnąć i stwierdzić, że nasza matryca ma zakrest tonalny np. góra 0,3EV.
Zakres tonalny samego zdjęcia które wyświetlamy na monitorze, to niestety tylko wartość od 0 do 255 z racji tej, że karty graficzne, monitor, drukarki są 8 bitowe. Sprowadzając do tych "magicznych EV'aów" to tylko 8EV. Rozpiętość tonalna papieru fotograficznego który wywołujemy jest wyrażana w postaci prawdziwych EV i wynosi ok. 7EV.
Czy jest możliwe zarejestrowanie sceny która ma powiedzmy 17EV na naszej "nędznej" matrycy? Oczywiście że tak, wystarczy tak ustawić ekspozycję, aby punkt 17EV miał wartość na matrycy 12 bitowej 4095, przy matrycy 14 bitowej punkt biały będzie przypadał na wartość 16383, przy matrycy 8 bitowej na wartość 255. We wszystkich tych przypadkach zarejstrujemy rozpiętość tonalną sceny, z tym, że w zależności od ilości użytych bitów, raz będzie więcej półtonów pośrednich, innym razem mniej, ale i tak, finalne zdjęcie nasza karta graficzna, monitor, sprowadzi do 255 tonów pośrednich.
Zdaję sobie sprawę, że dla niektórych osób może być to szokiem, ale nie można przedstawiać obrazu dyskretnego w postaci EV odnoszącego się do realnej, ciągłej sceny, bo obraz taki jest nieciągły i ma już określone wertości.
Dla tych "zatwardziałych analogowców", którzy mimo tego będą chcieli jakoś sobie przedstawić na siłę w postaci EV rozpiętość tonalną matrycy przedstawiam trochę liczb.
Spróbujmy rozłożyć naszego 12 bitowego RAW'a na podzakresy tonalne EV w czysty matematyczny sposób:
EV Watości
12 2048
11 1024
10 512
9 256
8 128
7 64
6 32
5 16
4 8
3 4
2 2
1 1
Widać, że z matematycznego punktu widzenia, rozpiętość EV 12 bitowego RAW'a to 12EV. Można także, wyznaczyć matematycznie zakres poprzez wzór:
rozpiętość EV=log2(ilość wartości)
W rzeczywistości nie jest tak pięknie, ale tragicznie również nie jest. W zakresie 1-2EV pojawia się szum matrycy, który zawęża nam cały zakres, jednak wyciągnięcie bez sztuczek HDR'owych ok. 10,4EV nie jest specjalnie trudne.
Przyjmijmy, że rozpiętość tonalna czystego RAW dobrze naświetlonego to 10EV. No, ale ten negatyw wypadałoby jakoś wywołać, celem na przykład pokazania w galerii internetowej. Jeśli tak, to wywołujemy stratnie do postaci JPG 8-bitowego, który posiada 256 wartości, czyli z matematycznego punktu widzenia wydaje się, że kres możliwości rozpiętości tonalnej jest 8EV. Jednak tak by było, gdyby matryca+przetwornik A/C była 8 bitowa. Tutaj jednak zachodzi konwersja z postaci 12 bitowej na postać 8 bitową. Podzielmy wartości od 1 do 4096 przez 16 i zaokrąglmy wynik do liczby całkowitej, ale w ten sposób, że zakres wartości początkowej nie będzie wynosił od 0 do 1, a od 0 do 0,8. Zobaczmy jak to będzie wyglądało:
EV Iloraz 12bit/16-> wartości 8 bitowe
9 102,4-204,8 -> 205
8 51,2-102,4 -> 102
7 25,6-51,2 -> 51
6 12,8-25,6 -> 26
5 6,4-12,8 -> 13
4 3,2-6,4 -> 6
3 1,6-3,2 -> 3
2 0,8-1,6 -> 2
1 0-0,8 -> 1
Widać, że górny zakres 8EV jest zakresem nasyconym - wartość 204,8. W przybliżeniu zakres takiego JPG'a to 8,5EV bez żadnych sztuczek HDR'owych.
Z praktycznego punktu widzenia na stronie preview można zobaczyć test takiego JPG, gdzie wyznaczono wartość na poziomie zakresu 8,4EV.