PDA

Zobacz pełną wersję : #53 Zrób sobie 16-bitową głębię kolorów!



MMM
19-11-2007, 20:38
Wyszedł nowy 40D z 14-bitowym przetwornikiem obrazu no i tak zaczęło mnie mocno ciekawić co w praktyce te 14 bitów daje i jaka jest różnica na zdjęciach w porównaniu do "starych" 12 bitów. Pomyślałem chwilę i eureka! Przecież to samo da się zrobić nawet przy użyciu 350D a nawet jeszcze więcej!
Metoda niestety ma swoje ograniczenia ale doskonale się sprawdza przy statycznych scenach kiedy możemy użyć statywu.

Podstawy teoretyczne można przeczytać w dziale tutaj:
"#22 Liniowość matrycy i co z tego wynika" (http://www.canon-board.info/showthread.php?t=12704)

A więc na czym polega trik?
Jak wiadomo najbardziej widoczny jest problem szumu i ilości detali w cieniach. O ile jeszcze zdjęcie jest zrobione z niskim ISO i nie wykonujemy na nim żadnych ekstremalnych operacji typu rozjaśnianie cieni to sprawa nas nie dotyczy.
Co jednak kiedy chcemy mieć lepsze oddanie szczegółów i mniejszy szum w najciemniejszych partiach obrazu?
To proste! Wystarczy zrobić dwie lub trzy klatki z rosnącą ekspozycją a następnie złożyć je odpowiednio w PS i już mamy upragnione 14 a nawet 16 bitów!

Po przeczytaniu teorii z linka powyżej wiemy że liniowo zapisana ilość światła w obrazie jest przekształcana przy pomocy krzywej kontrastu na to co ostatecznie widzimy. Ponieważ krzywa ta ma największy przyrost właśnie w cieniach to tam najbardziej ujawni się kwantyzacja obrazu i mała liczba bitów dając niepożądane efekty.
A gdyby tak zrobić zdjęcie z większą ekspozycją a następnie ją forsować na minus? Forsowanie ekspozycji na -1 da nam dodatkowy jeden bit rozdzielczości, odpowiednio -2 daje 2 bity, a -4 da nam cztery dodatkowe bity.

Proste co? :-)

Więc do dzieła.

ISO100, odszumianie wyłączone.
Od góry:
Zdjęcie #1. Ekspozycja na 0
Zdjęcie #2. Ekspozycja na +2
Zdjęcie #3. Ekspozycja na +4

https://canon-board.info//brak.gif
źródło (http://img258.imageshack.us/img258/1343/orgnf8.jpg)

Jak to teraz złożyć? Jak widać zwiększanie ekspozycji powoduje prześwietlenie obrazu, ale że nas interesują cienie więc tylko je skopiujemy do zdjęcia z prawidłową ekspozycją odrzucając prześwietlone części.
Zmniejszamy ekspozycję aby wyrównać do zera. Użyłem ACR do wywołania RAWów.

Od góry:
Zdjęcie #1. Ekspozycja na 0
Zdjęcie #2. Ekspozycja forsowana na -2
Zdjęcie #3. Ekspozycja forsowana na -4


https://canon-board.info//brak.gif
źródło (http://img123.imageshack.us/img123/3776/forsowaneof3.jpg)

Co dalej? Nakładamy wszystkie zdjęcia na siebie jako warstwy. Na samym dole oryginał, wyżej +2 a na samej górze +4. Dla zdjęć z ekspozycją +2 i +4 tworzymy maskę z odwrotności kanału jasności zdjęcia z prawidłową ekspozycją. Następnie wycinamy z maski prześwietlone fragmenty przy użyciu opcji 'treshold'. Dla zdjęcia z ekspozycją +2 używamy wartości 128 a dla zdjęcia z +4 wartości 224.

Maski od góry:
- Odwrotność kanału luminancji zdjęcia z prawidłową ekspozycją.
- Maska dla zdjęcia forsowanego na -2
- Maska dla zdjęcia forsowanego na -4


https://canon-board.info//brak.gif
źródło (http://img69.imageshack.us/img69/631/maskipy8.jpg)

Efekt po nałożeniu wygląda tak jak zdjęcie z prawidłową ekspozycją:

https://canon-board.info//brak.gif
źródło (http://img129.imageshack.us/img129/3382/zlozonerl3.jpg)

Powiekszenie 200%. Po lewej oryginał, po prawej nasze 16 bitów.

https://canon-board.info//brak.gif
źródło (http://img129.imageshack.us/img129/3038/1216200pfn0.jpg)

Tak samo? No widać już trochę różnicę. No to teraz zróbmy jakieś ekstremalne operacje na obrazie i porównajmy.
Proponuję na początek "Shadow/highlight" aby rozjaśnić cienie a potem "channel mixer" i robimy luminancję z kanału niebieskiego.

Na oryginalnym 12-bitowym zdjęciu juz na miniaturce widać że jest straszna kaszana.

https://canon-board.info//brak.gif
źródło (http://img510.imageshack.us/img510/5215/shbm2.jpg)

A teraz powiększenie 100%. Od góry: 12 bitów, 14 bitów, 16 bitów. Widać różnicę? :-)

https://canon-board.info//brak.gif
źródło (http://img90.imageshack.us/img90/2309/121416rh9.jpg)

schabu
20-11-2007, 13:04
ja tak nieśmiało spytam - to w formie ciekawostki? bo chyba za pomocą HDR chyba można uzyskać taki sam efekt.

mirhon
20-11-2007, 13:50
A nie prościej/lepiej hdr jakimś dobrym softem ?

mirhon
20-11-2007, 14:50
dodam jeszcze że lepszy obraz "14bit" czy "16bit" IMO nie wynika ze zwiększenia rozdzielczości bitowej a tylko z tego, że przesuwaliśmy punkty zawierające mniej szumu. Po prostu stosunek sygnału do szum w tych punktach był wyższy i nie ma to nic wspólnego z rozdzielczością przetwornika.
Punkty matrycy, które były lepiej naświetlone (szumy!!) znalazły się bliżej lewej części histogramu i z z tąd lapsza jakość detali w cieniu.

lamP.Art
20-11-2007, 21:17
No tak, wszystko pieknie póki masz scenę tak statyczą że mozesz się bawić w taki brecketing :) Jak zrobisz to samo na meczu koszykówki to dostaniesz nominację na nobla z fizyki :)

sniper88
21-11-2007, 22:28
Ogolnie rzecz biorac dobry tutek:) Mam tylko jedno pytanie

Dla zdjęć z ekspozycją +2 i +4 tworzymy maskę z odwrotności kanału jasności zdjęcia z prawidłową ekspozycją.
Robiles w trybie LAB?

gof
22-11-2007, 02:55
Słyszałeś o HDRI? :)

molmagic
22-11-2007, 21:18
Bardzo fajnie wyjaśnione i przedstawione. Minus całej sytuacji jest taki ,że tylko rzeczy statyczne można tak załatwić. W pierwszym momencie pomyślałem że to działa jak HDR, ale to zupełnie co innego...
Tak czy inaczej, całkiem "najs" , napewno wypróbuję :D

an_zak
22-11-2007, 21:29
Zdecydowanie widać różnicę. Przy wydruku jakiej wielkości byłoby widać rzeczywistą i namacalną poprawę jakości obrazu 16-bitowego w stosunku do 12-bitowego ? (przy typowej sytuacji zdjęciowej - skoro musimy wykonać kilka ekspozycji oczywiste wydaję się użycie tej techniki np. przy krajobrazie lub architekturze)

gacek
28-11-2007, 00:53
Brzmi zachęcająco :) A jak ma się ta metoda do tradycyjnych HDRów?

MMM
28-11-2007, 14:20
dodam jeszcze że lepszy obraz "14bit" czy "16bit" IMO nie wynika ze zwiększenia rozdzielczości bitowej a tylko z tego, że przesuwaliśmy punkty zawierające mniej szumu. Po prostu stosunek sygnału do szum w tych punktach był wyższy i nie ma to nic wspólnego z rozdzielczością przetwornika.
Punkty matrycy, które były lepiej naświetlone (szumy!!) znalazły się bliżej lewej części histogramu i z z tąd lapsza jakość detali w cieniu.
To naprawdę daje lepszą rozdzielczość. Wyobraź sobie zkwantyzowany 12-bitowo sygnał. Sygnał zapisany w 16-bitowym pliku TIFF ma tylko wartości podzielne przez 4, między którymi jest "dziura". Jeżeli weźmiemy drugą klatkę naświetloną +4EV i podzielimy wszystkie wartości przez 4 (forsując ekspozycję na -4EV) to pojawią się wartości pośrednie między starymi 12-bitowymi wartościami.

mirhon
29-11-2007, 00:28
To naprawdę daje lepszą rozdzielczość. Wyobraź sobie zkwantyzowany 12-bitowo sygnał. Sygnał zapisany w 16-bitowym pliku TIFF ma tylko wartości podzielne przez 4, między którymi jest "dziura". Jeżeli weźmiemy drugą klatkę naświetloną +4EV i podzielimy wszystkie wartości przez 4 (forsując ekspozycję na -4EV) to pojawią się wartości pośrednie między starymi 12-bitowymi wartościami.

Nie ma cudów :-) nie przeskoczysz rozdzielczości matrycy. Jak masz 12bit to masz 12bit i koniec. Prześwietlając i przesuwając na histogramie faktycznie zyskujesz dodatkowe bity ale w ramach tych 12. Zatem twierdzenie że można wycisnąć z matrycy 16bit nie jest prawdziwe i wprowadza w błąd. Zyskujesz tylko na stosunku sygnału do szumu w punktach, które są lepiej doświetlone.

MMM
29-11-2007, 14:46
Prześwietlając i przesuwając na histogramie faktycznie zyskujesz dodatkowe bity ale w ramach tych 12.
Czy na pewno dobrze przemyślałeś to co napisałeś? Zastanów się dobrze i jeśli masz swoje zdanie to poprzyj je jakimiś argumentami a nie pisaniem takich niemądrych rzeczy jak wyżej.

mirhon
03-12-2007, 13:16
Czy na pewno dobrze przemyślałeś to co napisałeś? Zastanów się dobrze i jeśli masz swoje zdanie to poprzyj je jakimiś argumentami a nie pisaniem takich niemądrych rzeczy jak wyżej.

No dobrze przyznaję się do błedu... nie za dobrze to przemyślałem. Faktycznie sterując ekspozycją i stosując odpowiednie algorytmy można podnieść rozdzielczość ponad to co oferuje matryca/przetwornik.
Ciekawe jak w praktyce miałby się taki boost do 16bit w stosunku do prawdziwej 16bit matrycy(gdyby taka była). Wydaje mi się jednak że kompozycja kilku ekspozycji miałaby przewagę z względu na lepsze wykorzystanie przetwornika (stos. sygnał/szum) wadą byłoby praktyczne zastosowanie tylko do statycznych scen.

MMM
11-12-2007, 10:32
Ciekawe jak w praktyce miałby się taki boost do 16bit w stosunku do prawdziwej 16bit matrycy(gdyby taka była). Wydaje mi się jednak że kompozycja kilku ekspozycji miałaby przewagę z względu na lepsze wykorzystanie przetwornika (stos. sygnał/szum) wadą byłoby praktyczne zastosowanie tylko do statycznych scen.
Zdecydowanie tak. Będę mieć niedługo 40D na kilka dni więc spróbuję porównać a także dokładnie się rozprawię z HTP. Wynikami na pewno się tutaj podzielę.

muffas
05-09-2008, 15:58
jako że to mój pierwszy post tutaj to od razu się przywitam ze wszystkimi ;]

tak czytam i sie zastanawiam
ok robiąc kilka zdjęć ze statywu można oczywiście uzyskać pozornie jeszcze większą głębie (naświetlając np na -4,-2,0,2,4 dla przykładu) tylko że 14 bitowy raw od 12 bitowego różni się przede wszystkim tym że dany efekt uzyskujemy dzięki jednemu zdjęciu a nie kilku ;]
co do całej ideologii to po prostu hdr a przykład dzbanka który pokazał autor tematu ukazuje po prostu przyrost rozpiętości tonalnej który spowodowany jest przyrostem ilości światła, tak więc różnica ta wcale nie wynika ze wzrostu jakości spowodowanego zwiekszeniem głębii kolorów (choć różnice mogą być podobne)

sylwek1982
31-03-2010, 17:24
Witam!
Nie do końca się zgodzę-a po co komu bracketing?wystarczy że w ACR otwieram 3 kopie zdjęciai każdą z inną expozycją-i tyle.I dopiero wtedy maskuję,itd.
pzdr.