Zobacz pełną wersję : Zakres tonalny w cyfrze
Tomasz Urbanowicz
28-08-2006, 08:43
Witam
Od jakiegoś czasu szperam po sieci w celu poznania jak to jest z zakresem tonalnym w cyfrze i trafiłem na taką dyskusję:
http://forum.nikon.org.pl/viewtopic.php?t=26798&postdays=0&postorder=asc&start=0
Od razu zaznaczam, że tekst jest długi i dyskusja trwa przez 7 stron.
Co o tym sądzicie?
Ojej, nie chce mi się tego czytać, uczciwie przyznam, ale przy pobieżnym przeglądnięciu już widzę błąd. Pada twierdzenie o tym, że do wyświetlania wystarczy, aby matryca rejestrowała 8 bitów, bo karty graficzne, monitor itd. A zupełnie pomijana jest kwestia nieliniowych przekształceń jakie są konieczne do wyświetlenia obrazu. Była o nich mowa tu u nas.
Edit:
I tak w ogóle, to Canon jest lepszy ;)
DoMiNiQuE
28-08-2006, 08:57
ehhh wszedzie te wzory i technikalia ;) czy ta wiedzia jest niezbedna do tego aby robic dobre foty? ;) ja sie nad tym mowiac szczerze nie zastanawiam. no nie raz mozna podyskutowac o dualizmie cropa ...no ale to tak dla zasady :mrgreen:
Tomasz Urbanowicz
28-08-2006, 09:04
@piast9:
Zachęcam jednak do przeczytania - wg mnie bardzo interesujące, aczkolwiek raz jeszcze muszę to przeczytać.
BTW:
Człowiek który napisał ten artykuł to:
"Jacek Karpiński - polski inżynier, który w latach 1970-73 zaprojektował i wyprodukował pierwszy w kraju minikomputer na światowym poziomie K-202. Urządzenie oparte było o 16-bitowe układy scalone i wg opinii dr hab. Piotra J. Durki przewyższało pod względem szybkości pierwsze IBM PC oraz umożliwiało wielozadaniowość, wielodostępność i wieloprocesorowość."
i wydaje się, że wie o czym pisze :)
ehhh wszedzie te wzory i technikalia ;) czy ta wiedzia jest niezbedna do tego aby robic dobre foty? ;)
Prawdę mówiąc czasami może się przydać. Z tej wiedzy wynika np. dlaczego lepiej równać histogram do prawej niż lewej itp itd. Niektórym wystarczą proste regułki j.w. a inni chcą wiedzieć dlaczego tak jest. Zwykle to drugie podejście da możliwość lepszego wykorzystania potencjalnych możliwości sprzętu.
Człowiek który napisał ten artykuł to:
"Jacek Karpiński - polski inżynier, który w latach 1970-73 zaprojektował i wyprodukował pierwszy w kraju minikomputer na światowym poziomie K-202. Urządzenie oparte było o 16-bitowe układy scalone i wg opinii dr hab. Piotra J. Durki przewyższało pod względem szybkości pierwsze IBM PC oraz umożliwiało wielozadaniowość, wielodostępność i wieloprocesorowość."
Jak dla mnie może być też specjalistą od chorób kobiecych. Obie dziedziny leżą w pewnej odległości od cyfrowej techniki obrazowania.
Edit:
No przeczytałem pierwszy post i przeszukałem dalszą część wątku pod kątem "log". Nie ma. Wydaje mi się że panowie zapomnieli o tym, że EV to skala logarytmiczna a te 12 bitów z matrycy są liniowe a przekształcanie 12bit->8bit(w obrazie) utożsamiają jedynie z histogramem i krzywymi w PSie.
Tomasz Urbanowicz
28-08-2006, 09:13
Autor:
"prawie 30 lat zajmuję się grafiką komputerową, a sciślej programami do przetwarzania obrazów wektorowych i rastrowych - od lat projektuję i piszę takie programy (no dla ścisłości - nie zawsze sam, czasem z różnymi zespołami współpracowników)"
No przeczytałem pierwszy post i przeszukałem dalszą część wątku pod kątem "log". Nie ma. Wydaje mi się że panowie zapomnieli o tym, że EV to skala logarytmiczna a te 12 bitów z matrycy są liniowe a przekształcanie 12bit->8bit(w obrazie) utożsamiają jedynie z histogramem i krzywymi w PSie.
Panowie zdaje się wiedzą o tym: EV tworzony jest przez dwukrotny przyrost światła - o tym piszą.
Autor:
"prawie 30 lat zajmuję się grafiką komputerową, a sciślej programami do przetwarzania obrazów wektorowych i rastrowych - od lat projektuję i piszę takie programy (no dla ścisłości - nie zawsze sam, czasem z różnymi zespołami współpracowników)"
Dobrze, zajmuje się tym. Nadal nie jest to dziedzina w której trzeba wiedzieć o tym, jak RAW przerobić na obrazek.
I tu na forum i na fotosite.pl są elaboraty na temat liniowości matrycy i logarytmiczności oka. Pan autor ani słowem się na ten temat nie zająknął. A to przecież ważne, bo z tego wynika że 12 bitów to aż nadto w 2 górnych EV zdjęcia, ale w ciemnych partiach już się przydają a często nawet nie wystarczają.
Panowie zdaje się wiedzą o tym: EV tworzony jest przez dwukrotny przyrost światła - o tym piszą.
Ale nie przenoszą tego na swoje wywody. Moim zdaniem popełniają w ten sposób błąd. Ja jednak nie jestem specjalistą i swoją wiedzę tylko wyczytałem w innych miejscach.
Edit:
Może jednak przeczytam wszystko przed ostatecznym skrytykowaniem tych wywodów. Ale chyba nie teraz, bo bym zasnął. :)
Tomasz Urbanowicz
28-08-2006, 09:34
Dwie kaweczki i heja :)
Dwie kaweczki i heja :)
Nie mam motywacji. Wszystko mi jedno czy popełniają błąd czy nie. Mam dość silne przekonanie, że to co ja wiem do tej pory na ten temat jest prawdziwe. O liniowości matrycy jest wypracowanie u nas i były artykuły tu (http://www.fotosite.pl/index.php?title=Specjalna:Allpages), ale coś tam się rozpieprzyło...
Tomasz Urbanowicz
28-08-2006, 10:01
Ale tu nie chodzi oto, czy matryca jest liniowa czy też nie :)
Tam nie dyskutują o liniowości matrycy, a o zakresie tonalnym.
Zeby robic poprawne zdjecia na filmach nie trzeba umiec ich wyprodukowac samemu w domu, tak samo robiac cyfra nie trzeba znac budowy matrycy i trudnych wzorow za pomoca ktorych wylicza sie "cos tam i cos tam".
Wystarcza podstawy.. a w zaprezentowanym linku znajdziemy duzo wiecej niz "podstawy". Takie informacje nie sa niezbedne do robienia zdjec.. bardziej ludziom przydaly by sie wyklady z kadrowania.
PS. Czy jezdzac samochodem musze znac zasade dzialania wtrysku paliwa?
Tomasz Urbanowicz
28-08-2006, 10:41
To nie o tym jest artykuł - jest o zakresie tonalnym aparatu i o tym, jakie jest tego odniesienie do praktycznego pokazania tego na monitorze, drukarce itp.
Zeby robic poprawne zdjecia na filmach nie trzeba umiec ich wyprodukowac samemu w domu, tak samo robiac cyfra nie trzeba znac budowy matrycy i trudnych wzorow za pomoca ktorych wylicza sie "cos tam i cos tam".
Moim zdaniem warto wiedzieć jak najwięcej. Pamiętasz dyskusję z Bebopem o 5D i lampach studyjnych? Że jego Hasior daje radę a 5D nie? Argumenty o odmiennej konstrukcji migawki nie przemawiały.
PS. Czy jezdzac samochodem musze znac zasade dzialania wtrysku paliwa?
Wiedza w niczym nie zaszkodzi. Znając ją możesz jechać np. bardziej oszczędnie.
Tomasz Urbanowicz
28-08-2006, 10:44
Otóż to piast9.
Liczyłem na dyskusje o artykule, a nie czy warto wiedzieć czy też nie :)
DoMiNiQuE
28-08-2006, 10:46
Liczyłem na dyskusje o artykule, a nie czy warto wiedzieć czy też nie :)
Aby do tego doszlo ktos bedzie musial nudzic sie na tyle aby ten caly artykul przeczytac ;)
Tomasz Urbanowicz
28-08-2006, 10:47
Myślę, że warto ;-)
Nie chce mi sie czytac wspomnianego watku, ale roznica miedzy obrazem a wtryskiem jest dosc znaczna - obraz sie oglada a wtrysk to chyba tylko mechanik :-)
I tu pojawia sie SUBIEKTYWIZM przy ocenie. Problem znany od dawna z czasow poczatkow telewizji kolorowej.
Kontrasty, odcienie, barwy, ostrosc - nie ma na to prostego wzoru matematycznego. Sa wzorce, badania statystyczne itp.
Dlatego tez "prawie idalne" ustawienie monitora, drukarki wcale nie oznacza ze dla mnie to bedzie najlepszy obraz w odbiorze.
Nieco podobne dyskusje tocza sie na forach audio miedzy tymi ktorzy slysza naddzwieki i ultradzwieki :-)
Tomasz Urbanowicz
28-08-2006, 10:58
OK - nie czytaj.
Myślę, że piast9 jednak się skusi :)
To nie o tym jest artykuł - jest o zakresie tonalnym aparatu i o tym, jakie jest tego odniesienie do praktycznego pokazania tego na monitorze, drukarce itp.
I w artykule są cenne uwagi ale są też i błędy merytoryczne. Część tekstu pasuje do punktu widzenia pstrykacza robiącego w JPGach a z kolei przykład z wyciąganiem o 4EV niedoświetlonego zdjęcia to RAW. I "(...)żeby nie wdawać się w rozważania na temat charakterystyki krzywych, tego co naprawdę widzi ludzkie oko(...)". Tak nie można, to jest istotne.
Pada uparcie twierdzenie, że 8 bitów by wystarczyło, a 12 jest dla wygody i korekt i że pokazywanie w 8 bitach na monitorze czy drukarce powoduje, że nie dostrzeżemy tego, że matryca robi 12 bitów.
Moim zdaniem to nie jest prawda. Z 8 bitowej matrycy (przyjmując logarytmiczną zależność wartości z matrycy z ludzko postrzeganą jasnością) miałbyś 7 bitów na górny EV zdjęcia, 6 na drugi, 5 na trzeci, 4 na czwarty, 3 na piąty. Przyjmując 5EV-owe zdjęcie, głębokie cienie masz przedstawione 3 bitowo, czyli 8 wartości. A 256/5 to ca. 51. Porażka! I nawet jeśli zależność nie jest tak gwałtowna jak logarytm, to jakiekolwiek nieliniowości powodują, że zapas bitów po stronie matrycy przydaje się.
Tomasz Urbanowicz
28-08-2006, 11:02
Ale, ale...
Przeczytaj dokładnie w jaki sposób następuje przejście z 12/14 bitów na owe 8 - jest to logiczne.
EDYCJA:
Napisałem do Radosława Przybyła z Fotosite, aby odniósł się do tego. Po pobieżnym przeczytaniu napisał, że są to bzdety, ale poprosiłem go o wyciagnięcie wniosków po przeczytaniu na spokojnie tegoż wywodu - czekam na odzew.
Ale, ale...
Przeczytaj dokładnie w jaki sposób następuje przejście z 12/14 bitów na owe 8 - jest to logiczne.
Zazwyczaj wiąże się to z pomnożeniem wszystkich składowych koloru przez pewne wartości. Nie musi być to działanie liniowe, a wartość mnożników można ustalać na podstawie krzywych, ale dla uproszczenia przyjmiemy, że jest to mnożenie wszystkich składowych przez taką samą wartość liczbową
Nie musi? Dla uproszczenia? Przecież przyjmując taką metodę dowodzenia mozna udowodnić w zasadzie każde twierdzenie :)
Myślę, ze autor powinien porzucić grzebanie się w komputerach i zostać politykiem.
Tomasz Urbanowicz
28-08-2006, 11:12
Tak masz racje, ale jest to uproszczenie w celu pokazania o co tu chodzi i z czym się to je. Autor artykułu jak widzisz zdaje sobie sprawę z tego faktu.
Wiem, że jest to przydługo, ale warto przeczytać całą dyskusję która się toczy po tym artykule - ja się poświęcę i przeczytam raz jeszcze :)
Spróbujmy wypisać wątpliwości, które wyślemy potem do autora :)
Wiem, że jest to przydługo, ale warto przeczytać całą dyskusję która się toczy po tym artykule
Całą??? OMG... Ledwie się zmusiłem do przeczytania pierwszego posta :)
Tomasz Urbanowicz
28-08-2006, 11:17
Tak całą :)
Potem odpowiada autor na wątpliowości, które może i Ty masz :)
Jestem już na 4 stronie. Gość nadal podchodzi do sprawy liniowo i twierdzi, że 1 bit matrycy to 0,000ileśtam EV. A tymczasem AFAIK na dole, pomiędzy 0 i 1 (z przedziału 0-4095) jest 1EV. Między 1 i 2 jest pół EV itd, logarytmicznie.
Mam czytać dalej? :)
Edit:
Próbowałem się doszukać, gość trochę słyszy dzwonienie, pojawia się twierdzenie o szczegółach w cieniach i szczegółach w światłach. Nawet pojawiło się, że matryca rejestruje liniowo. Ale wniosku, że EV to logarytm już nie ma. Nawet jakies obrazki schematyczne, wszędzie liniowość. Takie założenie prowadzi do błędnych wniosków.
Tomasz Urbanowicz
28-08-2006, 12:05
OK, ale jakie ma to znaczenie w rozpiętości totalnej?
Czy to będzie liniowo, czy logarytmicznie, zakres pozostanie zakresem, a że mniej szczegółów będzie w cieniach to już inna bajka.
Skoro to nie ma znaczenia to 12 bitowa matryca ma 12 EV rozpiętości. Kropka.
Tomasz Urbanowicz
28-08-2006, 12:19
Po pierwsze nie ma iluś tam bitowych matryc - od tego są przetworniki A/C.
Po drugie zobacz jak wygląda wykres liniowy i niezlogarytmizowany (wykres zółty) na fotosite - jest liniowa zależnośc - czy tam jest zakres 12EV? NIE.
Po trzecie, na dprewiev widać, że EOS 20D ma 8,4EV.
Po czwarte jak to w końcu jest?
A po piąte, napisałem do JK o wyjaśnienie czemu nie używa pojęcia logarytmu w zakresie EV cyfry.
Po pierwsze nie ma iluś tam bitowych matryc - od tego są przetworniki A/C.
Ok, skrót myślowy.
Po drugie zobacz jak wygląda wykres liniowy i niezlogarytmizowany (wykres zółty) na fotosite - jest liniowa zależnośc - czy tam jest zakres 12EV? NIE.
Podrzuć linka, bo nie wiem o którym artykule mówisz.
Po trzecie, na dprewiev widać, że EOS 20D ma 8,4EV.
Ponieważ szczegółów w cieniach nie można pominąć. Przyjmując 12EV mamy dolny EV załatwiony 1 bitem. No i szumu przede wszystkim. Nie wiem co ma większe znaczenie w ograniczeniu rozpiętości tonalnej matrycy.
Po czwarte jak to w końcu jest?
Pytanie dość filizoficzne.
Jakie parametry ma ludzkie oko siedząc np: 2 godziny w ciemnej piwnicy (pomijając szerokość źrenicy która reaguje natychmiast) 8 czy 12 bit ? :mrgreen:
Chcemy iść do boju z naturą...
Tomasz Urbanowicz
28-08-2006, 12:45
Podrzuć linka, bo nie wiem o którym artykule mówisz.
http://www.fotosite.pl/index.php?title=Ekspozycja_na_%C5%9Bwiat%C5%82a
Jakie parametry ma ludzkie oko siedząc np: 2 godziny w ciemnej piwnicy (pomijając szerokość źrenicy która reaguje natychmiast) 8 czy 12 bit ? :mrgreen:
Chcemy iść do boju z naturą...
My tu mówimy o widzeniu ludzkim czy aparatu?
Panowie, ja nie korzystam z histogramu a mimo to robie poprawne zdjecia - czary jakies? Mysle, ze nie musze znac wzorow na predkosc elektoronow aby umiec zrobic dobre zdjecie cyfra.
Im wiecej takich bzdetow tym mniej przyjemnosci z fotografowania.. dla mnie w ogole by moglo nie byc aparatu.. tylko ze bez niego ciezko zrobic jakies zdjecie ;)
Tomasz Urbanowicz
28-08-2006, 12:50
Ale może jakbyś zaczął korzystać z histogramu robiłbyś je lepsze niż poprawne? ;-)
Mnie oprócz praktyki interesuje teoria, dlatego mając wątpliwości w tym temacie pozwoliłem sobie na założenie wątku...
http://www.fotosite.pl/index.php?title=Ekspozycja_na_%C5%9Bwiat%C5%82a
Moim zdaniem to jedynie przykład. Modyfikujac kontrast przy wołaniu RAW-a ingerujemy w to, co jest na osi tego wykresu.
Alez ja czytam te wszystkie wyklady - musze to znac ze wzgledu na wykonywana prace. Ale nie wykorzystuje tego do robienia zdjec.. chyba ze jakos nieswiadomie? ;)
Aby robic dobre zdjecia trzeba opanowac technike.. ale cos mi mowi, ze nie chodzi o taka technike o jakiej dyskutujecie :mrgreen: Przypominacie mi troche Czarka z prf, ktory jest swietnym teoretykiem i posiada niesamowita wiedze o naswietlaniu, kadrowaniu, istocie punktu oraz kreski...... ale poza ta wiedza nie wynika nic wiecej. A w fotografii na moj gust chodzi o robienie zdjec, a nie o dyskutowanie na temat migawek, matryc.. ;)
Ale.. no tak.. w koncu jestesmy na CB, sory.. cofam co zem napisal ;)
Tomasz Urbanowicz
28-08-2006, 12:57
Nie odbiegajmy od tematu ;-)
Piast9 masz racje, ale tak do końca nie jestem pewien, czy ów autor (JK z Nikona) nie wziął pod uwagę logarytmiczności - muszę raz jeszcze na spokojnie bez emocji przeczytać owe rozważanie.
Podobnie jak Ty jestem przekonany do swoich/Twoich racji - nie bez kozery temat wałkował się u nas, a także na "pyryfycy". Zaintrygował mnie jednak ten link do Nikona...
Jak już pisałem, pozwoliłem sobie na napisanie maila do owego autora z prośbą o wyjaśnienie.
Panowie, ja nie korzystam z histogramu a mimo to robie poprawne zdjecia - czary jakies?
Bo masz talent, my nie mamy i musimy się posiłkować regułkami. :)
Tomasz Urbanowicz
28-08-2006, 13:17
Ja bym chciał wyjaśnić sobie jednoznacznie dwa pojęcia:
- pomiar na światła;
- wywołanie na światła.
Czasem te pojęcia plączą się w sieci.
EDYCJA:
Rozumiem, że pomiar na światła (+/- korekta jak chcemy) pozwala dobrze naświetlić światła przyciemniając resztę, np. krajobraz - pomiar światła na niebo.
Na czym polega wywołanie na światła?
Tomasz Golinski
28-08-2006, 14:17
Mnie ten tekst rozbawił dużo wcześniej niż pojawiła się liniowość:
Co to jest rozpiętość tonalna? Jak sądzę, wszyscy się zgadzają, że jest to zdolność filmu negatywowego, slajdu, papieru fotograficznego, czy cyfrowej matrycy do rejestrowania na jednym obrazie możliwie najciemniejszych i możliwie najjaśniejszych obiektów fotografowanej sceny. Największa możliwa rozpiętość tonalna to oczywiście zdolność do zarejestrowania na jednym obrazie idealnej czerni i idealnej bieli.
Największa możliwa? On chyba kpi. Nie ma światła idealnej bieli. A nawet jeśli by było, to każdy aparat bezbłędnie (z dokładnością do szumu) rejestruje idealną czerń i idealną biel (której nie ma) - są to wartości 0,0,0 i max,max,max. :lol:
Tomasz Urbanowicz
28-08-2006, 14:22
Tak Tomasz, ale jakbyś przeczytał dalsze dywagacje, dowiedziałbyś się o co mu chodziło.
Tomasz Golinski
28-08-2006, 14:25
Nie jestem pewien, czy mam ochotę to czytać, jak ktoś używa słów, które nie mają sensu i wprowadza definicje nie pasujące do rzeczywistości. Parę następnych akapitów jeszcze bardziej zaciemnia sprawę. A już taki tekst to zupełne przegięcie:
Niedzwiedz, a po jaką cholerę mam przepalać o 4EV, jeśli już zdjęcie nie doświetlone o 4EV wykorzystuje pełną przestrzeń 8 bitów monitora, drukarki i JPEGa. Co mi takie prześwietlenie da? W jakim celu zwiększać rozpiętość tonalną, jeśli już ta 12 bitowa matryca Nikona daje kilkanaście razy za dużo informacji? Informacji, które później trzeba stracić. Jeśli i tak musisz stracić ponad 80% informacji o kolorze i różnych szczegółach obrazu, to w jakim celu prześwietlać i tracić jeszcze więcej? Oczywiście sytuacja może się zmienić po następnej rewolucji technologicznej w dziedzinie komputerowych urządzeń do obróbki i prezentacji obrazów, ale nasze puszki raczej tego nie doczekają. ;)
rysiaczek
28-08-2006, 14:27
JK prowadzi w najwazniejszych kwestiach bledny wywod (pomijajac calkowicie poprawnie opisane rzeczy oczywiste). Dodatkowo mocno mnie zniechecil tonem, jakim zaczal prowadzic dalsza dyskusje z Jackiem - totalny brak merytorycznosci.
Nie zgadzam sie z nim w kilku kwestiach, ale zasadniczo (i tak, dla przykladu):
1) calosc opiera o niemoznosc wykorzystania >8 bitow z matrycy - bo i tak to wszystko pojdzie w 8 bitow (jpeg, monitor, drukarka) - tu sie moge zgodzic jedynie z jpegiem. Zarowno na monitorze mozemy zobaczyc reszte (oczywiscie nie jednoczesnie), jak i zachowac calosc materialu 12-bitowego (np. tiff). Takze w druku widac roznice.
2) JK rozbroil mnie piszac, iz na matrycy jestem w stanie zarejestrowac scene o _kazdej_ rozpietosci tonalnej (przyklad postawiony w tekscie: ciemna piwnica + slonce). No to ja czekam na takie zdjecie... Przeciez to sa podstawy.
Tomasz Urbanowicz
28-08-2006, 14:29
Ano właśnie - jestem za swoim/naszym pojęciem liniowości matrycy, EV itp. Jednak jakoś czuję, że gość może mieć trochę racji - dlatego wczytam się raz jeszcze w to wszystko.
Odnośnie tej rozpiętości tonalnej piwnica-słońce. Jemu chodzi, że jest to rozpiętość tonalna, nie rozdzielczość tonalna - nie wiem, czy są w obiegu obie te wielkości.
DoMiNiQuE
28-08-2006, 14:31
Chyba Wam sie nudzi w pracy bo w domu mielibyscie jakies ciekawesze zajecia ;)
Tomasz Urbanowicz
28-08-2006, 14:39
He, he :)
Chyba Wam sie nudzi w pracy bo w domu mielibyscie jakies ciekawesze zajecia ;)
Cóż za celna uwaga... :)
DoMiNiQuE
28-08-2006, 14:42
Cóż za celna uwaga... :)
Ja Was poniekad rozumiem ...na szczescie za godzinke spadam do domu :mrgreen:
rysiaczek
28-08-2006, 14:47
Jednak jakoś czuję, że gość może mieć trochę racji - dlatego wczytam się raz jeszcze w to wszystko.
Wg mnie nie ma sensu - po ostatnich jego postach nabieram przekonania, ze JK jest z gatunku tych 'wiem, ze mam racje' (obym sie mylil, pieknie zaczal).
Odnośnie tej rozpiętości tonalnej piwnica-słońce. Jemu chodzi, że jest to rozpiętość tonalna, nie rozdzielczość tonalna - nie wiem, czy są w obiegu obie te wielkości.
Oczywiscie, mozna definiowac tak lub inaczej, lecz nie nomenklatura tu jest wazna - jezeli mamy scene powiedzmy 20EV, to w zaden sposob nie zdolamy tego zarejestrowac!
Nie chcialbym tu wpadac w czysta teorie, lecz odnosic to choc minimalnie do praktyki - stad pomijanie def. rozpietosci, rozdzielczosci i tego, skad one wynikaja (to ladnie jest przedstawione w w/w watku).
Tomasz Urbanowicz
28-08-2006, 14:54
O, widze Janusza Body - szkoda że dopiero wieczorkiem zajrzę na forum :/
Janusz Body
28-08-2006, 15:05
Jako, ze dyskusja "goronca" ;) wtrącę swoje trzy grosze.
Użyteczna rozpietość tonalna matrycy jest ograniczona sposobem zapisu. Z definicji EV większe o 1 oznacza dwa razy wiecej światła. Jak pisałem w T&T siłą rzeczy "górny" EV zabiera połowę z z 4096, że powtórzę:
EV 1 ==> 2,048 poziomy w kanale
EV 2 ==> 1,024
EV 3 ==> 512
EV 4 ==> 256
EV 5 ==> 128
===============> Tu się wg Canona KONCZY użyteczność
ev 6 ==> 64 poziomy w kanale
ev 7 ==> 32
ev 8 ==> 16
ev 9 ==> 8
ev 10 ==> 4
wiem, nudny jestem - kazdy potrafi dzielić przez dwa :)
Ostatnio pojawiło się dużo rewelacji o niesłychanych rozpiętościach tonalnych matrycy. Technicznie to może być te 11EV i więcej ale nie sposób tego zapisac w 12 bitach. Kropka. Koniec. Przypomne tylko, że oko potrafi rozróżnic do ok 120-150 odcieni, stąd dość logicznie Canon określił rozpiętość tonalną na 5EV. Zresztą na filmie jest podobnie - teoretyczna (laboratoryjna) ropiętość tonalna sięga 11EV ale sensownie daje się wykorzystać 5-6.
Zastrzegam się, ze ja się nie znam :)
EDIT: Do wymienionego w oryginale linku wolę się nie odnosić, musiałbym używać brzydkich wyrazów ;) a za to mozna dostać warna.
Tomasz Golinski
28-08-2006, 15:29
Koniec. Przypomne tylko, że oko potrafi rozróżnic do ok 120-150 odcieni, stąd dość logicznie Canon określił rozpiętość tonalną na 5EV.
Tu mógłbym polemizować. Oko nie jest przyrządem statycznym i dzięki szybkim zmianom "ekspozycji" w mózgu może się zrobić efektywny HDR z większą głębią. W końcu widzimy jasne niebieskie niebo tam, gdzie matryca i film wysiadają.
Tomasz Urbanowicz
28-08-2006, 15:31
Tu nie chodzi o zakres EV tylko liczbę odcieni.
Ja jednak chciałbym wiedzieć, czy słusznie JK z Nikona opisuje przejście 12 bitów na 8?
Tomasz Golinski
28-08-2006, 15:35
Tu nie chodzi o zakres EV tylko liczbę odcieni.
Ja jednak chciałbym wiedzieć, czy słusznie JK z Nikona opisuje przejście 12 bitów na 8?
Chyba każdy już to pisał, więc ja też powtórzę: NIE.
Tomasz Golinski
28-08-2006, 16:16
1. Chyba coś dziwnego napisałeś w mailu do niego.
2. Chyba on też do końca nie wie, o czym pisze.
Facet sam sobie zaprzecza. Najpierw mnoży *2 kolejne EV, potem twierdzi, ze nie ma logarytmu. W postach wylicza, że 1 cyfra z matrycy to jest 0,000ileś EV. Poplątanie z pomieszaniem. Odpuść sobie.
Janusz Body
28-08-2006, 16:33
....
"
I na koniec pytanie. Dlaczego 1EV ma niby odpowiadać 64 wartościom, a nie na przykład 16, czy 8 wartościom? Dlaczego musi to być wyrażone jako potęga liczby 2, a nie jakaś dowolna liczba, na przykład 43?"....
Ufffff... najlepiej jakby 1 EV (rozpiętości) dało się zapisac w 1 wartości :) Dlaczego "dowolna liczba" musi być w systemie dziesiętnym - ja preferuję sex(adecymalny) 8) system of course ;)
Ten facet naprawde nie bardzo wie o czym pisze.
KuchateK
28-08-2006, 16:52
Jak sie zaczyna temat od zadniej strony to sa takie efekty jak to albo programowe filtry AA za matryca ;) Juz pierwszy post to bzdura, wiec szkoda czasu to nawet dalej czytac...
Zreszta pisze "najdrozsze i najlepsze" o zacofanym badziewiu PC. Hmmm... Podsumowujac pan nigdy nie widzial dobrego komputera do grafiki. Jak on moze o tym pisac? ;)
Trzeba by mu zaprezentowac moje SGI O2 z rgba 48bit (12bit/kanal).
Po co nam wiecej bitow na kanal? Juz pomijajac logarytmy po to, aby przy obrobce uniknac bledow zaokraglen wynikajacych z rozciagania badz sciskania histogramu objawiajacych sie posteryzacja. To wlasnie dzieki owym 12 bitom mogl sobie tak wyciagnac swiatla. Przy zmianie kontrastu, jasnosci, uzywaniu krzywych albo innych podobnych operacjach mala ilosc bitow wychodzi blyskawicznie.
Jadac od tylu wyjdzie, ze nam nic wiele wiecej nie potrzeba bo na wyjsciu malo co tych bitow. Ale jadac od poczatku od swiatla analogowego okazuje sie, ze po drodze obcinajac sobie te bity zgubiono calkiem sporo.
Janusz Body
28-08-2006, 17:07
...
BTW:
Człowiek który napisał ten artykuł to:
"Jacek Karpiński - polski inżynier, który w latach 1970-73 zaprojektował i wyprodukował pierwszy w kraju minikomputer na światowym poziomie K-202. Urządzenie oparte było o 16-bitowe układy scalone i wg opinii dr hab. Piotra J. Durki przewyższało pod względem szybkości pierwsze IBM PC oraz umożliwiało wielozadaniowość, wielodostępność i wieloprocesorowość."
i wydaje się, że wie o czym pisze :)
O kurde! Facet od komputerów i nie wie o systemie dwójkowym? Nie wierze to nie on.
rysiaczek
28-08-2006, 18:01
@Tomasz U - mysle, ze powinienes przytoczyc tutaj takze tresc swojego pytania, jezeli przytaczacz odpowiedz. Wydaje mi sie, ze JK odpowiedzial sensownie, co jednak przez kilka osob zle zostalo zintertpretowane (przynajmniej mam taka nadzieje, bo inaczej to... :confused: )
Janusz Body
28-08-2006, 18:31
...Wydaje mi sie, ze JK odpowiedzial sensownie, co jednak przez kilka osob zle zostalo zintertpretowane (przynajmniej mam taka nadzieje, bo inaczej to... :confused: )
Sensownie to by było gdyby Pan JK "pojechał" dalej z tym 123 ;)
1 EV -> 123
2 EV -> 246 - KONIEC 8 bitów
3 EV -> 492
4 EV -> 984
5 EV -> 1,968
6 EV -> 3,936 - KONIEC - 12 bitów - wiecej nie ma - nie da się
Tam są zdania z którymi się w pełni zgadzam "...Matryca nie rejestruje żadnego 6EV. Matryca rejestruje padające światło, a zarejestrowane zapisy mogą być następnie interpretowane (przekształcane)..." jest całkowicie słuszne tylko wnioski które ten Pan wyciąga ze swoich przemyśleń już niebardzo.
A zdanie z artykułu:
"...Teraz trochę o matrycach i interpretacji tego co one rejestrują. Jeśli 8 bitów na pojedynczą składową koloru wystarczy, to w jakim celu matryce rejestrują dane na 12, czy 14 bitach? Odpowiedź jest stosunkowo prosta. Każda matryca i układ elektroniczny, który przetwarza dane z tej matrycy muszą być jakoś skalibrowane. Ta kalibracja polega na stopniu (i dopuszczalnym zakresie) wzmocnienia pojedynczego sygnału (wartości składowej koloru) tak, aby w typowych warunkach, dla typowych fotografowanych scen, zapewnić możliwie najlepsze "wpasowanie" się w te 8 bitów wymaganych przez nowoczesny sprzęt komputerowy i format JPEG. ..."
To juz czyste science-fiction niestety albo piramidalna bzdura - jak kto woli.
Tomasz Golinski
28-08-2006, 18:42
Z takiego pytania nic bym nie rozumiał...
Zamykam wątek na prośbę autora, do czasu wyjaśnienia spraw związanych z tymi mailami co to ich miało nie być ;-)
Watek odblokowany na prosbe autora.
Tomasz Urbanowicz
31-08-2006, 08:14
Wróćmy jeszcze raz do początku, a mianowicie jaki jest zakres tonalny w cyfrze.
Wszyscy jesteśmy zgodni, że matryca rejestruje obraz w sposób liniowy – nie ma żadnej wątpliwości że tak jest.
Matryca zarejestrowała nam obraz, ale wynik „bezpośrednio” z niej mamy w postaci analogowej. Aby przejść na „cyfre” musimy jakoś poddać analogowy „obraz” zdigitalizowaniu. Powiedzmy, że mamy 12 bitowy przetwornik A/C i sygnał analogowy poddajemy kwantyzacji - otrzymujemy 4096 progi kwantyzacji. Mamy zatem obraz w postaci cyfrowej, czyli poschodkowany ekwiwalent sygnału analogowego. Otrzymaliśmy RAW. Co robi dalej z tym RAW’em soft w aparacie gdy robimy zdjęcia w JPG? Ano, trzeba jakoś przejść na 8 bitów – dzielimy więc wszystko przez 16 i otrzymujemy wykres jak na Fotosite – z tymi EV’ami. (to tak z grubsza).
Ale nie zajmujmy się JPG.
Zobaczmy jaki zakres tonalny EV ma czysty RAW.
W czystym RAW’ie nie ma mowy o jakieś obróbce poddania lagarytmem – tam jest zrzut tego co zarejestrowała matryca i jest ten zrzut liniowy, nie „zlogarytmizowany”. Z takiego RAW’a możemy wycisnąć więcej niż 6EV, bo nawet 8EV – jak na preview:
http://www.dpreview.com/reviews/canoneos5d/page22.asp
Zobaczcie też przykład JK z NIKONA. Założył że scena naświetlona jest prawidłowo. Celowo nie doświetlił 4EV a następnie „podciągnął” ekspozycje na + 4EV w programie do RAW. Co otrzymał? Otrzymał zdjęcie jakby prawidłowo naświetlone, z szumami bo z szumami, ale jednak – z bardzo głębokiego cienia wydobył zdjęcie, zdjęcie, które na histogramie było totalnie nie doświetlone.
W swojej dyskusji na forum popełnił błąd - sprostował go. Chodzi o równe podziały 0,000ileśtamEV - złej jednostki użył (nie powinno być EV).
Tomasz Golinski
31-08-2006, 10:56
Wróćmy jeszcze raz do początku, a mianowicie jaki jest zakres tonalny w cyfrze.
Wszyscy jesteśmy zgodni, że matryca rejestruje obraz w sposób liniowy – nie ma żadnej wątpliwości że tak jest. Oczywiście, że tak nie jest. Tak jest tylko w przybliżeniu.
Co robi dalej z tym RAW’em soft w aparacie gdy robimy zdjęcia w JPG? Ano, trzeba jakoś przejść na 8 bitów – dzielimy więc wszystko przez 16 i otrzymujemy wykres jak na Fotosite – z tymi EV’ami. (to tak z grubsza).Zupełnie nie. Jeszcze wchodzą logarytmy, gamma, korekta wb (pomijam interpolację)
Zobaczmy jaki zakres tonalny EV ma czysty RAW.
Jasne, na 12bitach - 12EV :p Ale to nie ma sensu. Proponowałbym, żeby ktoś w końcu zdefiniował zakres tonalny może?
Tomasz Urbanowicz
31-08-2006, 11:05
Oczywiście, że tak nie jest. Tak jest tylko w przybliżeniu.
Jest to przybliżenie tak małe, że można uznać, że tak jest.
Jeśli się z tym nie zgadzasz, to jakieś merytoryczne uzasadznienie?
Zupełnie nie. Jeszcze wchodzą logarytmy, gamma, korekta wb (pomijam interpolację)
Napisałem z grubsza - nie wnikamy w logarytmy, gamma itp. Chodzi o poznanie idei.
Jasne, na 12bitach - 12EV Ale to nie ma sensu. Proponowałbym, żeby ktoś w końcu zdefiniował zakres tonalny może?
12EV napewno nie, bo idealnej czerni nie uzyskasz. Proponuję Ci wykonać test naświetlając scenę prawidłowo, a następnie zrobić korektę na manualu w aparacie na -4EV, może więcej i potem zobaczyć co uda Ci się wyciągnąć robiąć odwrotną korektę w programie do RAW.
Jest to przybliżenie tak małe, że można uznać, że tak jest. Jeśli się z tym nie zgadzasz, to jakieś merytoryczne uzasadznienie?
Moim zdaniem jest, z dokładnością do szumu.
Napisałem z grubsza - nie wnikamy w logarytmy, gamma itp. Chodzi o poznanie idei.
Tyle, że podzielenie a zlogarytmowanie to są tak różne przekształcenia, że nie można tego pomijać dla uproszczenia. To właśnie jest najsłabszym punktem w rozumowaniu JK z żółtego forum.
12EV napewno nie, bo idealnej czerni nie uzyskasz.
A kto mówi, że 12EV da idealną czerń? Matematycznie matryca z 12-bitowym przetwornikiem daje 12EV. Użytecznie jest mniej bo szumy.
Gdyby szumy nie zajmowały dolnych paru EV to jeszcze wchodziłoby w grę to, że dolne EV byłyby odwzorowane mało dokładnie ze względy na dyskretyzację, wtedy miałoby sens zwiększenie rozdzielczości przetwornika AD.
Tomasz Urbanowicz
31-08-2006, 11:18
A kto mówi, że 12EV da idealną czerń? Matematycznie matryca z 12-bitowym przetwornikiem daje 12EV. Użytecznie jest mniej bo szumy.
A czym jest zakres EV? Czyż nie tym jak zarejestowaniem zakresu od czerni w 12 bitach (0,0,0) do bieli (4095,4095,4095)?
Czy jest możliwe otrzymanie idealnej czerni?
Przecież RAW to zrzut zdigitalizowany/poschodkowany luminancji poszczególnych fotocel. Nie ma tutaj żadnych algorytmów logarytmujących. Otrzymujemy liniową zależność.
Dopiero ten proces - ten "logarytmizujący" etc następuje przy zamianie na JPG.
to, że jest 12 bitów, nie oznacza, że mozna otrzymać rozpietość 12 EV.
wyobraźcie sobie sytuacje, że macie kiepską matrycę, słabo reagującą. ale na niej oprogramowanie na wyrost, powiedzmy z przesadą - operujące na kolorze 16 bitowym.
I co, jakie otrzymamy zdjęcie?
ważne jest wąskie gardło - determinują to w przytoczonym przykładzie możliwości matrycy, a nie cyfrowy opis zjawiska.
Nie jest ona w stanie zarejestrowac jednoczesnie najjaśniejszego i najciemniejszego miejsca rzeczywistej sceny, o ile będa one odległe od siebie o więcej niż 8EV (jak zgodzimy sie z dpreview).
A czym jest zakres EV? Czyż nie tym jak zarejestowaniem zakresu od czerni w 12 bitach (0,0,0) do (4095,4095,4095)?
Czy jest możliwe otrzymanie idealnej czerni?
0 - 1: 1EV
2 - 3: 2EV
4 - 7: 3EV
8 - 15: 4EV
16 - 31: 5EV
32 - 63: 6EV
64 - 127: 7EV
128 - 255: 8EV
256 - 511: 9EV
512 - 1023: 10EV
1024 - 2047: 11EV
2048 - 4095: 12EV
Oczywiście - teoretycznie.
A to, w którym miejscu przypadnie pokazywane człowiekowi RGB(0,0,0) to już zależy od postprocessingu.
Przecież RAW to zrzut zdigitalizowany/poschodkowany luminancji poszczególnych fotocel. Nie ma tutaj żadnych algorytmów logarytmujących. Otrzymujemy liniową zależność.
Dopiero ten proces - ten "logarytmizujący" etc następuje przy zamianie na JPG.
Tak, i dopiero od tego momentu, moim zdaniem, można mówić o kolorach, czerniach i bielach. Bo od tego punktu decyduje się ostateczna postać zdjęcia.
A czy matryca dała wystarczająco danych do uzyskania określonej postaci zdjęcia zależy od ekspozycji (przepały) i szumów (szczegóły w cieniach). A rozdzielczość bitowa przetwornika musi być po prostu wystarczająca do wyciągnięcia danych z ciemnych obszarów w jakości wystarczającej dla późniejszej obróbki (ten nieszczęsny logarytm).
Przy obcenym poziomie wystarczy 12bitów. FUJI wymyśliło 14 bitów ale podejrzewam, że sam przetwornik jest 12-bitowy, tylko że co drugi pixel jest 4x mniej naświetlony, stąd efektywne uzyskuje się jakby 14-bitów.
Tomasz Urbanowicz
31-08-2006, 11:32
0 - 1: 1EV
2 - 3: 2EV
4 - 7: 3EV
8 - 15: 4EV
16 - 31: 5EV
32 - 63: 6EV
64 - 127: 7EV
128 - 255: 8EV
256 - 511: 9EV
512 - 1023: 10EV
1024 - 2047: 11EV
2048 - 4095: 12EV
Oczywiście - teoretycznie.
Wydaje mi się, że mylimy tutaj pojęcia. Ja nie mówię o przekształceniu na JPG. Ja mówię o RAW - nie ma tam żadnego takiego podziału na EV. Mamy tam liniowy zapis zdygitalizowanego obrazu.
Wydaje mi się, że mylimy tutaj pojęcia. Ja nie mówię o przekształceniu na JPG. Ja mówię o RAW - nie ma tam żadnego takiego podziału na EV. Mamy tam liniowy zapis zdygitalizowanego obrazu.
No i zgadza się. 1 EV to odległość pomiędzy punktami różniącymi się jasnością 2x. Jeśli założyć liniową zależność liczb wychodzących z przetwornika i jasności, to właśnie tak to według mnie wygląda.
Tomasz Urbanowicz
31-08-2006, 11:39
Tak, tylko w zakresie tych punktów
0 - 1: 1EV
2 - 3: 2EV
4 - 7: 3EV
będziesz miał szum. Gdyby szumu nie było w ogóle, realny zakres byłby taki jak napisałeś.
Tak, tylko w zakresie tych punktów
0 - 1: 1EV
2 - 3: 2EV
4 - 7: 3EV
będziesz miał szum. Gdyby szumu nie było w ogóle, realny zakres byłby taki jak napisałeś.
Oczywiście, od początku pisałem, że 12EV to jest matematyczna - teoretyczna możliwość matrycy i że szum będzie to obcinał z dołu.
Chyba się teraz dogadaliśmy.
Tomasz Urbanowicz
31-08-2006, 11:44
No, to możemy iść na piwo :)
-=Festyk=-
31-08-2006, 11:54
Fajnie się was czyta.Logarytmy,liniowe zapisy zdygitalizowanego obrazu,dyskretyzacja...normalnie jak sience fiction.Nic z tego nie rozumiem,ale fajnie uświadomić sobie jak się jest głupim:mrgreen:
Tomasz Golinski
31-08-2006, 11:57
to, że jest 12 bitów, nie oznacza, że mozna otrzymać rozpietość 12 EV.
wyobraźcie sobie sytuacje, że macie kiepską matrycę, słabo reagującą. ale na niej oprogramowanie na wyrost, powiedzmy z przesadą - operujące na kolorze 16 bitowym.
I co, jakie otrzymamy zdjęcie?
Sprawa znowu rozbija się o ten brak definicji :) IMHO trzeba powiedzieć tak: rozpiętość tonalna to jest stosunek (albo po zlogarytmowaniu różnica) jasności najjaśniejszego niemaksymalnego sygnału do najciemniejszego niezerowego sygnału. I pojawia się praktyczne test: czy matryca praktycznie rejestruje jasność 1 oraz 4094? Takie dodanie dodatkowych bitów do przetwornika spowoduje, że najciemniejszy będzie np. 2 albo 4.
o - i o to mi chodziło w dyskusji mojej z JK na żółtym forum
Tomasz Urbanowicz
31-08-2006, 12:44
To Ty? :)
@Tomasz Goliński:
Bardzo dobrze zdefiniowałeś rozpiętość EV - podoba mi się definicja :)
tak, ja to ja :)
tzn mam tam login jacek_z
Janusz Body
31-08-2006, 13:27
Matryca jest, jak pisał Tomek, liniowa tylko w przyblizeniu i w "zakresie pracy". Od góry i od dołu charakterystyka będzie się robiła mocno nielinowa. Nieśmiało zauważę, że to te skrajne zakresy pracy dają te cudowne rozpiętości rzędu 11 czy 12 EV. Tylko pożytku z tego niewiele.
EV to TEORIA i jako taka fizycznie nie istnieje ani w analogu ani w cyfrze. No i oczywiście w RAW też nie ma EV. To myśmy sami stworzyli sobie taką teorię, żeby nam było łatwiej ustalać warunki ekspozycji. To, że w kamerze przemysłowej nie ma ustawień nie oznacza, że nie podlega ona teorii. Jej to poprostu nie jest potrzebne bo operuje i tak wzmocnieniem sygnału - innymi słowy działa w AUTO - co nie znaczy, że nie podlega takim samym i tym samym prawom fizyki. :)
Cała ta "teorię" stworzyliśmy sobie po to, żeby nam było łatwiej bo nie musimy myslec o elektronach, napieciach czy reakcjach chemicznych na kliszy. Trójzaloeżność ISO, f i T czyli w konsekwencji EV to nasz pomysł jak opisać i wykorzystać to co widzimy my i co widzi aparat (analog i cyfra).
Teoria mówi też, że do przyjemnego odbioru potrzeba conajmniej kilkudziesięciu poziomów (odcieni) danego koloru. W tym swietle gadanie o 12 EV matrycy na 12 bitach jest czystym teoretyzowaniem. ZX-81 (poprzednik Spectrum) potrafił wyświetlac tylko czarne i białe kropki. W PC karta Herkules też miała tylko dwa stany - świeci / nie świeci. To sie raczej mało nadaje do tworzenia obrazu.
Ustawienie w aparacie -4EV mało znaczy. Nie wiem jak dokładnie działa elektronika aparatu ale łatwo sobie wyobrazić, że komputer pokładowy usiłuje wykorzystać całe 12 bitów zapisu i wzmacnia sygnały co powoduje wrażenie jakiejś cudownej rozpiętości tonalnej.
Większość źródeł, tych poważniejszych, drukowanych jest zgodna, że 12 bit narzuca i ogranicza użyteczną rozpiętośc tonalną matrycy do 6-7 EV. Dalej to juz jest tylko "bicie piany"
Tomasz Urbanowicz
31-08-2006, 13:42
Dobrze podsumowałeś Janusz.
Możesz odnieść się jeszcze do "cudownego" aparatu Fuji S3Pro 14-sto bitowego z jego "cudownym" zakresem tonalnym EV (chyba twierdzą że jest 10EV) + jego cudowny program do RAW S3 Hyper-Utility2?
Janusz Body
31-08-2006, 13:51
...
Możesz odnieść się jeszcze do "cudownego" aparatu Fuji S3Pro 14-sto bitowego z jego "cudownym" zakresem tonalnym EV (chyba twierdzą że jest 10EV) + jego cudowny program do RAW S3 Hyper-Utility2?
Ja go nie mam :( nie zamierzam kupić - wystarczy mi to co mam :)
14 bitów użytecznie daje 8-9 EV na bardzo upartego 10 EV. Mnie sie i tak wydaje, że prędzej czy później Canon też przejdzie na 14 albo 16 bitowy zapis. Pewnie prędzej :)
Jak coś ma w nazwie Hyper, Super to... duper - omijam szerokim łukiem :)
KuchateK
01-09-2006, 06:11
Oczywiście, od początku pisałem, że 12EV to jest matematyczna - teoretyczna możliwość matrycy i że szum będzie to obcinał z dołu.
Nie tylko teoretyczna. Z wiekszosci lepszych aparatow da sie wyciagnac to praktycznie.
http://www.clarkvision.com/imagedetail/dynamicrange2/
Tak... znowu ten sam link :mrgreen:
to, że jest 12 bitów, nie oznacza, że mozna otrzymać rozpietość 12 EV.
12 moze nie. Sporo zje szum tam na dole. Ale ponad 10 nie jakims wielkim osiagnieciem.
I co, jakie otrzymamy zdjęcie?
ważne jest wąskie gardło - determinują to w przytoczonym przykładzie możliwości matrycy, a nie cyfrowy opis zjawiska.
Przytoczony przyklad jest do luftu. W nim wszystko determinuja nie mozliwosci matrycy a to co z jej mozliwosci zostalo wykorzystane w finalnym pliku jpg.
Nie jest ona w stanie zarejestrowac jednoczesnie najjaśniejszego i najciemniejszego miejsca rzeczywistej sceny, o ile będa one odległe od siebie o więcej niż 8EV (jak zgodzimy sie z dpreview).
Na dpreview caly blad polega na porownywaniu wygenerowanych na koniec jotpegow. To nie jest to co zarejestrowala matryca i da sie z niej wyciagnac a to, co zostalo z tej informacji wyciete i zapisane w pliku na koniec.
O tym ze raw ma po 1ev zapasu w stosunku do jpg zakresu w kazda strone wie chyba kazdy :D To i to 8 z kawalkiem EV na dpreview akurat daje dobre 10 "z czyms".
Jedni sobie to moga wykorzystac ratujac swiatla i przesowajac wszystko z przeswietlonego w lewo. Inni moga cale 10ev upchac w jedna fote. Wszystko kwestia upodobania. A ze puszka do jotpegow upycha 8 i nic wiecej to nie kwestia brakow matryc a tego, ze taka fota z tona ev na niej wyglada po prostu zle.
W PC karta Herkules też miała tylko dwa stany - świeci / nie świeci. To sie raczej mało nadaje do tworzenia obrazu.
Dało się przeprogramować :mrgreen: tak że było coś w rodzaju 360x384 w czterech "odcieniach szarości" (tyle że te dwa środkowe były praktycznie nieodróżnialne). A i na wyświetlanie większej ilości kolorów na teoretycznie 4-bitowym (8kol.+jasność) przetworniku też się sposoby znalazły :mrgreen:
Janusz Body
01-09-2006, 12:32
Dało się przeprogramować :mrgreen: tak że było coś w rodzaju 360x384 w czterech "odcieniach szarości" (tyle że te dwa środkowe były praktycznie nieodróżnialne). ...
No to były aż trzy odcienie (dwa z 4 nierozróżnialne :) ).
Był tez kiedyś taki sposób robienia obrazków na drukarkach zestawionych z różnych literek. Pamiętam, że popularny był miś Yogi i Kaczor Donald. Tylko toto ogladane w "powiekszeniu 100%" to.... dghe(888**** ... jakos tak wygladało :)
Był tez kiedyś taki sposób robienia obrazków na drukarkach zestawionych z różnych literek. Pamiętam, że popularny był miś Yogi i Kaczor Donald.
Hmm... jakby to powiedzieć.. tam gdzie ja się kręciłem popularne były nieco inne rysunki :-P
(a niech ktoś tylko spróbuje powiedzieć że to o herculesie i drukarkach jest OT :mrgreen:)
Janusz Body
01-09-2006, 13:22
Nie tylko teoretyczna. Z wiekszosci lepszych aparatow da sie wyciagnac to praktycznie.
http://www.clarkvision.com/imagedetail/dynamicrange2/
...
Tiaaaaaa.... najciekawsze jest w tym linku koncowe podsumowanie autora:
"...Thus effective spatial resolution drops when the noise becomes excessive. Thus while one can claim 10 or more stops of information are recorded, the information at the extremes is of little use. The definitions I used here are consistent for digital as well as film sensors. These conclusions are similar to other who have studied this problem."
10 EV i więcej upakowane w jpg w rozsądny sposób wcale nie musi wyglądać tragicznie. Nasze oczy mają zdolności adaptacyjne i "na żywo" widzimy dużo więcej niż 12 EV - siedząc w ciemnym pokoju i patrząc przez okno widzę dobrze oświetlony słoncem krajobraz i szczegóły w cieniach "pod parapetem" - pewnie dlatego, że tam stoi butelka z piwem ;). Dobrze zrobiony HDR ale pochodzący z wielu naświetlań może być przyjemny w odbiorze.
Spierał bym się z poglądem, że w jpeg jako pliku wynikowym z RAW jest ograniczenie rozpietości tonalnej - kompresowac można do woli choć skutek bedzie katastrofalny. Ograniczenie owszem jest tylko chyba w samym monitorze. JPEG to plik, który ma byc (z definicji) wyświetlany na ekranie monitora. Monitor ma rozpiętośc tonalna 0-130 candeli. JPEG to odwzorowanie, rzutowanie z jednej przestrzeni w drugą. Jeśli się baaaardzo uprzeć to właściwie trzeba by wszytko odnosić do światła produkowanego przez monitor a to 2 candele to dwa razy więcej niż jedna. To już jest całe 1 EV czyli z definicji EV monitor jest w stanie "odwzorować" coś około 8EV mając sam w sobie dużo mniejszą "rozpiętośc tonalną". :)
KuchateK
01-09-2006, 14:50
Tak... A wczesniej pisze:
If one averages the pixels for the film data, one can extend the trend beyond the 7 stops of range I cite above for the print film, and 5 for the slide film. Thus one could argue for a larger dynamic range. While this is true, the problem is the noise becomes excessive. As a result, one may be able to distinguish coarse details, but not fine detail.
...wiec mi sie wydaje, ze jemu tutaj chodzilo o usrednianie tych rozproszonych kropek na wykresach z filmow w celu wyciagniecia "jeszcze troche" i nie mowimy tu o cyfrach...
Tomasz Golinski
01-09-2006, 15:49
Monitor ma rozpiętośc tonalna 0-130 candeli.[...] Jeśli się baaaardzo uprzeć to właściwie trzeba by wszytko odnosić do światła produkowanego przez monitor a to 2 candele to dwa razy więcej niż jedna. To już jest całe 1 EV czyli z definicji EV monitor jest w stanie "odwzorować" coś około 8EV mając sam w sobie dużo mniejszą "rozpiętośc tonalną". :)
Heh, jeśli 0-130 Cd to rozpiętość tonalna wynosi nieskończenie wiele EV ;)
Janusz Body
01-09-2006, 18:04
Heh, jeśli 0-130 Cd to rozpiętość tonalna wynosi nieskończenie wiele EV ;)
No w sumie prawda :) ale mój paskudnik ma 0.3 od dołu.
Hm. Zmieszczenie wielu EV w jpegu polega chyba na zmniejszeniu kontrastu.
Zabawy z HDR, który zostaje spłaszczany i pokazany na ekranie, tak aby były widoczne zarówno najwyższe światła z ,,ciemnej'' ekspozycji jak i najniższe cienie z ,,jasnej'' to też w sumie zmniejszanie kontrastu, tylko takie wybiórcze - powodujące, że ostatecznie możemy na monitorze obejrzeć plik, którego normalnie obejrzeć się nie da.
Plik HDR zawiera bowiem większą rozpiętość niż potrafi pokazać monitor. Jeśli nie będziemy go drukować / naświetlać (papier też dużo tych EV nie mieści) a nie mamy zamiaru go ,,spłaszczać'', to praktycznym rozwiązaniem była by przeglądarka z suwakiem do ekspozycji.
A co do 14, 16 i wiecej bitów w aparatach - zastosowanie ich będzie miało sens, kiedy matryce będą w rzeczywistości na tyle czułe, aby wychwyciły sygnały o takiej rozpiętości.
Tomasz Urbanowicz
01-09-2006, 20:51
Heh, jeśli 0-130 Cd to rozpiętość tonalna wynosi nieskończenie wiele EV ;)
A jak się ma przelicznik jednostki Cd (kandela) do EV? Ja to przeliczyć?
Tomasz Golinski
01-09-2006, 20:52
Bezpośrednio nijak. Ale różnica Cd (przy tym samym kształcie obiektu świecącego) wiąże się przez logarytm. Ja pisał Janusz: 2x więcej kandeli to +1 EV.
Na dpreview caly blad polega na porownywaniu wygenerowanych na koniec jotpegow. To nie jest to co zarejestrowala matryca i da sie z niej wyciagnac a to, co zostalo z tej informacji wyciete i zapisane w pliku na koniec.
O tym ze raw ma po 1ev zapasu w stosunku do jpg zakresu w kazda strone wie chyba kazdy :D To i to 8 z kawalkiem EV na dpreview akurat daje dobre 10 "z czyms".
Jedni sobie to moga wykorzystac ratujac swiatla i przesowajac wszystko z przeswietlonego w lewo. Inni moga cale 10ev upchac w jedna fote. Wszystko kwestia upodobania. A ze puszka do jotpegow upycha 8 i nic wiecej to nie kwestia brakow matryc a tego, ze taka fota z tona ev na niej wyglada po prostu zle.
w części dotyczącej rozpiętości tonalnej na dpreview nie posługują się jpg, a RAW.
inaczej ta rozpietośc nie mogłaby byc większa niż 8EV - a jest, od 8,2 do 8,4:
Dynamic Range compared:
http://www.dpreview.com/reviews/nikond200/page22.asp
sorry, że z testów nikona, ale jest odniesienie do body canona
na samym dole jest o różnym wywołaniu tego samego rawa (w D200)
KuchateK
01-09-2006, 22:25
Jestes pewien ze dokladnie przeczytales co tam pisze obok tych obrazkow i tabelek?
Pierwsza czesc i podane w tabeli wartosci liczbowe sa dla jotpegow. Wyraznie to zostalo nawet zaznaczone w tescie 5D. Dlatego wiekszosc puszek w tabelce ma tu osiem z kawalkiem i nic wiecej. A dlatego "z kawalkiem", ze istnieja krzywe. Sa tam nawet narysowane.
Test z rawa jest w drugiej polowie. Bez tabelek. Dotyczy on "zapasu" jaki daje raw. A wynik masz tutaj.
Pierwszy z JPG.
https://canon-board.info//brak.gif
źródło (http://www.dpreview.com/reviews/NikonD200/Samples/DynRange/Wedges/DSC_0485_wedge.png)
Drugi wywloany ACR'em w/g ustawien domyslnych.
https://canon-board.info//brak.gif
źródło (http://www.dpreview.com/reviews/NikonD200/Samples/DynRange/Wedges/ACR_Default_wedge.png)
A trzeci to ACR z wyciaganiem detali ze swiatel i cieni.
https://canon-board.info//brak.gif
źródło (http://www.dpreview.com/reviews/NikonD200/Samples/DynRange/Wedges/ACR_Best_wedge.png)
Policz sobie kwadraty (kazdy to 1/3 EV) i zobaczysz, ze acr'em dalo sie z matrycy wyciagnac ponad 10 EV. Jest dokladnie jak pisze powyzej. W jpg 8 niezaleznie od puszki. Raw daje jeszcze sporo wiecej i to on pokazuje prawdziwe mozliwosci matrycy...
Janusz Body
01-09-2006, 22:39
...zobaczysz, ze acr'em dalo sie z matrycy wyciagnac ponad 10 EV....
Ty mnie lepiej powiedz ile z tych prostokątów w cieniach jesteś w stanie rozróżnić na monitorze. W swiatłach zresztą też. Na tym "rozciągniętym" w lewo od ostatniej cyferki 0 w napisie 200D to już raczej mało widać - "widze ciemność" :) w prawo podobnie - "widze jasność" - policzyć trudno.
KuchateK
01-09-2006, 22:42
W pracy tutaj to ja mam taki monitor, ze juz na lewo od przerywanej czerwonej na pierwszym wykresie nic prawie nie widac :mrgreen: Zobacze w domu ;)
Janusz Body
01-09-2006, 22:49
Zobacze w domu :D W pracy tutaj to ja mam taki monitor, ze juz na lewo od przerywanej czerwonej na pierwszym wykresie nic prawie nie widac :mrgreen:
To mniej więcej oddaje "wykorzystywalność" tych 10 EV :) a jak jeszcze dodac pytanie ile odcieni można zmieścić w każdym z tych prostokątów to dopiero wyjdzie sens tych 10 EV i szczegółow w cieniach. To, ze coś można zmierzyć nie znaczy, ze to idzie zobaczyć.
Gdzieś juz były takie testy na czarnym tle (rgb =0,0,0) ile musi być żeby dało się zuważyć różnicę. Byli tacy co widzieli juz rgb=1,1,1 (niektórzy widzieli też UFO) ale średnio wychodziło coś około rgb = 4,4,4.
KuchateK
01-09-2006, 22:55
Ale to nie chodzi o to co widac na monitorze (ktory moze byc kiepski) albo golym okiem (ktore tez jest kiepskie).
Jesli te dane sa w pliku da sie je tez wyciagnac nieco wyzej. Albo zmiescic w wezszym zakresie i bedzie na monitorze widoczne wszystko, tyle ze kontrast pomiedzy kwadratami spadnie do troche mniejszej wartosci jak 1/3 EV. Albo wyciagnac w/g jakiejs krzywej. One tam sa i czekaja na wykorzystanie.
jeżeli monitory pracują na 8 bitach to nie mogą wyswietlić rozróżnialnie rozpiętości 10 EV.
te kliniki na dpreview to musi być symulacja
KuchateK
01-09-2006, 23:03
Nie wszystko co sie da zmierzyc i zbadac da sie wyswietlic. Tak samo jak z rozszczepieniem atomu. Tez te wszystkie kulki w telewizorni czy internecie to symulacja :D
Pełnej rozpiętości kliszy na papierowej odbitce też pewnie nie widać.
Ja jednak nie narzekam wcale na to, że jeżdżąc korektą EV czy ciagając krzywe czy kontrasty mogę sobie rozświetlić cienie czy odbiałopłaskowić chmurki.
Gdzieś juz były takie testy na czarnym tle (rgb =0,0,0) ile musi być żeby dało się zuważyć różnicę. Byli tacy co widzieli juz rgb=1,1,1 (niektórzy widzieli też UFO) ale średnio wychodziło coś około rgb = 4,4,4.
Ale to było na monitorze wyświetlane, czy gdzie? To przecież właśnie zależy od minimalnej i maksymalnej jasności monitora (i skalibrowania, jak zachowuje się pomiędzy).
Na wydruku też zależy od papieru, tuszu, czy zaczernienia po wywołaniu.
Jeśli 255 jest wystarczająco daleko od 0, to będzie widać i różnicę między 0 i 1.
Tak samo z upchaniem dowolnej ilości EV na nośniku, który nie potrafi tego wyświetlić.
Zmniejsza się kontrast. Nie można powiedzieć ile EV z kliszy przenosi papier. Sam przenosi około 4 EV, ale przecież gdy naświetla się go z niskim kontrastem, bez problemu przeniesie 10 EV z negatywu. Wsytko się zmieści, problem w tym, czy efekt będzie zadowalający.
Janusz Body
02-09-2006, 10:23
Ale to było na monitorze wyświetlane, czy gdzie? To przecież właśnie zależy od minimalnej i maksymalnej jasności monitora (i skalibrowania, jak zachowuje się pomiędzy).
Na wydruku też zależy od papieru, tuszu, czy zaczernienia po wywołaniu.
Jeśli 255 jest wystarczająco daleko od 0, to będzie widać i różnicę między 0 i 1.
Tak samo z upchaniem dowolnej ilości EV na nośniku, który nie potrafi tego wyświetlić.
Zmniejsza się kontrast. Nie można powiedzieć ile EV z kliszy przenosi papier. Sam przenosi około 4 EV, ale przecież gdy naświetla się go z niskim kontrastem, bez problemu przeniesie 10 EV z negatywu. Wsytko się zmieści, problem w tym, czy efekt będzie zadowalający.
Tak, to było na monitorze. Oczywiście zgadzam się całkowicie z tym co napisałeś. Jest małe ale :) 0 od 255 jest oddalone o 255 :) i na monitorze przekłada się to na około 0.00001 do ok 130 kandeli (dokładniej cd/m2). Ograniczenie "odgórne" - wpływu na to nie mamy. Kalibracja, ogólnie jakość monitora trochę oczywiście pomagają ale jak sie nie obrócić to d...a z tyłu. Zakres świecenia monitora jest jaki jest. Zresztą jak zrobić zdjęcie z ekranu LCD to (poza morą jak diabli) na histogramie zwykle bedzie clipping w cieniach i rozpiętość ok 5-6EV :) Wiem, że to marny "dowód"
Istotnym problemem jest "płynność" przejść tonalnych i to jest to co nas "boli" w dwu czy cztero poziomowym całym jednym EV trudno gadać o płynności. Potem coponiektórzy narzekaja, ze w cyfrze przejścia tonalne sa nie takie - nazbyt "cyfrowe" i temu podobne.
Ja tam mam watpliwości co do tych wszystkich badań i cudowności rozpiętości tonalnych zarówno filmu jak i matrycy. Badania filmu były robione poprzez skaner! Skaner chyba jest cyfrowy :) Na ilu bitach pracuje? Jaką sam ma rozdzielczość? Ile odcieni jest w stanie odróżnić? Pytań mnóstwo - odpowiedzi mało. Teoria jest dość brutalna, cudów nie ma a efekty pakowania na siłę 10 EV na papier czy ekran sa z reguły żałosne. :)
Pogoda dzisiaj ładna a jam mam "obiekt" czyli wnuczkę więc zabieram się za zdjęcia - pewnie nawet 6EV nie wykorzystam ;) ale mam obawy, ze ktoś moze mnie posądzic o pedofilie ;)
Pozdrawiam
Ja tam mam watpliwości co do tych wszystkich badań i cudowności rozpiętości tonalnych zarówno filmu jak i matrycy. Badania filmu były robione poprzez skaner! Skaner chyba jest cyfrowy :) Na ilu bitach pracuje? Jaką sam ma rozdzielczość? Ile odcieni jest w stanie odróżnić? Pytań mnóstwo - odpowiedzi mało. Teoria jest dość brutalna, cudów nie ma a efekty pakowania na siłę 10 EV na papier czy ekran sa z reguły żałosne. :)
Nie, filmu się nie mierzy skanerem.
Wystarczy wykonać testowe naświetlenie pomierzonej wcześniej światłomierzem punktowym testowej sceny i porównać co z tego wyszło.
Negatyw i diapozytyw (papier też) ma dwa parametry: gęstość i skalę naświetleń. Oba z nich łączy tzw ,,krzywa charakterystyczna''. Nas interesuje skala naświetleń. Negatyw ma mniejszą gęstość niż slajd, ale przy tym większą skalę naświetleń - więcej EV mieści, ale sam ma niższy kontrast. Gęstość mierzy się destynometrem, skalę naświetleń - też, ale również okiem - na podstawie tego co się fotografowało. Przy jakich zakresach przestaje być widać różnicę - to są miejsca, gdzie krzywa charakterystyczna zaczyna być krzywa.
Negatyw ,,mieści'' dużo EV, ale przy małej Dmax i sporej Dmin to na podświetlarce będzie widać zaledwie kilka tyh EV.
Janusz Body
02-09-2006, 12:53
Nie, filmu się nie mierzy skanerem.
Wystarczy wykonać testowe naświetlenie pomierzonej wcześniej światłomierzem punktowym testowej sceny i porównać co z tego wyszło.....
Ty wiesz co? Ty masz absolutną rację! Tak to POWINNO być zrobione. Ja sie cały czas odnosiłem do cytowanego tu linku ( http://www.clarkvision.com/imagedetail/dynamicrange2/ ) w którym napisano:
"...The film was scanned on a sprintscan 4000 scanner at 4000 dpi using linear 12-bits, outputting a 16-bit tif file using standard settings. The film images were registered to the digital camera images for detailed comparisons. The film was developed at a professional lab, Reed Photo in Denver, using standard developing..."
jak by nie patrzeć, takie "badania" raczej o kant d... potłuc. Porównywano skaner z Canonem 1D i tyle.
:) :) :)
Tomasz Urbanowicz
02-09-2006, 14:27
jeżeli monitory pracują na 8 bitach to nie mogą wyswietlić rozróżnialnie rozpiętości 10 EV.
Czy mamy pewność że tak jest naprawdę? Monitorami bądź co bądź sterują karty graficzne, które w większości mają więcej niż 8 bitów na kanał - pytanie tylko, czy to zobaczymy?
Może podsumujmy :)
Przeprowadzony test na http://www.clarkvision.com/imagedetail/dynamicrange2/ pod kątem określenia zakresu tonalnego slajdu, czy papieru rzeczywiście wydaje się być testem skanera :)
Jednak pokazał jaki zakres tonalny ma matryca w EOS'ie.
Wg matematycznego podejścia do EV przy zakresie 10EV wychodzi, że 1EV to zaledwie 4 odcienie.
JPG - 8EV, przy czym przy 1EV mamy tylko jeden odcień.
Jak szacujecie więc rozpiętość tonalną: slajdu, filmu, papieru foto?
@Janusz Body, ale nie koniecznie tylko do Janusza :)
1. Z jakim najlepszy monitorem spotkałeś się pod kątem zakresu Cd/m^2?
2. Jaki zakres ma przeciętny monitor CRT, a jaki profesjonalny?
3. Jaki zakres ma przeciętny monitor LCD, a jaki profesjonalny?
EDYCJA 1:
Czym jest kontrast w ujęciu matematyczno/liczbowym (podobnie jak odnosilismy się do EV)?
EDYCJA 2:
Trochę OT...
Co sądzicie o tym monitorze?
http://www.arest.pl/index.php?inc=produkt&ID=2745&katid=22&grupa=35
Jak on wypada w porównaniu do CRT w zakresie rozpiętości tonalnej, przestrzeni kolorów itp.
Janusz Body
02-09-2006, 18:32
...
@Janusz Body, ale nie koniecznie tylko do Janusza :)
1. Z jakim najlepszy monitorem spotkałeś się pod kątem zakresu Cd/m^2?
2. Jaki zakres ma przeciętny monitor CRT, a jaki profesjonalny?
3. Jaki zakres ma przeciętny monitor LCD, a jaki profesjonalny?
...
Wywołany do odpowiedzi moge tylko powiedzieć jak niżej:
ad 1. Z własnym :)
ad 2 i 3 - nie ma znaczenia
W procesie kalibracji ustawia sie luminancję. Wartości "zalecane" (Gregtag Macbeth) to ok 100 cd/m2 dla CRT i 120 cd/m2 dla LCD. Ja mam ustawione na LCD 110 cd/m2. Luminancja rzędu 100-120 to zwykle coś około 50% zakresu możliwości monitora. Na moim monitorze to tylko 34%. Te 100-120 cd/m2 to jest "dość jasno" :) - w ciemnościach "daje po oczach" a stanowisko pracy czyli ekran monitora powinien być oświetlony światłem o temp. ok 5000K i ok. 60 lux. Takie oświetlenie ekranu jest potrzebne do oceny jasności tego co wyjdzie na wydruku (bądź z labu) inaczej zdjęcia będą albo za ciemne albo za jasne. To jest wzajemna zależność i podkręcanie jasności do 100% niczego nie poprawi - wzroku napewno :)
Czym się różni monitor pro od cons? Stabilnością, równomiernością oświetlenia całej powierzchni, równomiernością (liniowością) poprawek dla poszczególnych składowych RGB, "czarnością czerni" czyli zdolnością do wygaszenie pixeli ekranu i pewnie masą innych rzeczy - ceną pewnie też choć są monitory 7-8 krotnie tańsze od tych naj... a wcale nie gorsze.
romanchch
02-09-2006, 21:14
Jestem tylko durnym, niedoucznonym fotografem praktykiem, z doswiadczenia wiem, ze majac ch-jowa cyfre w rodzaju canon d60 jesli nie doswietle zdjecia o pare przeslon, to przy probie elektronicznego "wyciagniecia" fota bedzie miala w cieniach brzydkie szumy, a w wysokich swiatlach przepalenia. Tak czy owak trace mase szczegolow. Jesli zrobie zdjecie przyzwoita cyfra canon 1Ds mk II, to w swiatlach obraz jest na tyle "gesty" ze ostanie sie sporo szczegolow, a w cieniach obrazek z lekka zaszumi ale w fota bedzie w miare ok, dlatego w przypadku Ds-a wole fote z lekka przewswietlic, bo w cieniach nie zaszumi, natomiast w swiatlach zostanie do wyciagniecia jeszcze sporo szczegolow. Reasumujac w wypadku cyfry (w miare porzadnej) lepiej jest foty przeswietlic niz niedoswietlic. Pozostaje to w sprzecznosci z tym co tu przeczytalem. Nie wiem dlaczego tak jest, ale byc moze pozostaje to w zwiazku z fizyczna wielkoscia matrycy, albo wielkoscia komorek na jej powierzchni.Moze ktos mi to wytlumaczy? Moje subiektywne odczucie z uzytkowania tych dwoch sprzetow jest takie, ze obraz z 1Ds Mk II jest "bardziej gesty" oraz "jakosciowo lepszy" dzieki czemu da sie z niego wiecej wyciagnac, nawiasem mowiac przypomina mi dobrze zeskanowany material ze sredniego obrazka.
Janusz Body
02-09-2006, 22:49
... Reasumujac w wypadku cyfry (w miare porzadnej) lepiej jest foty przeswietlic niz niedoswietlic. Pozostaje to w sprzecznosci z tym co tu przeczytalem. Nie wiem dlaczego tak jest, ale byc moze pozostaje to w zwiazku z fizyczna wielkoscia matrycy, albo wielkoscia komorek na jej powierzchni.Moze ktos mi to wytlumaczy? ...
Jezu, chłopie gdzieś Ty to tu wyczytał - o tej sprzeczności, znaczy się.
Twoje pytanie częściowa odpowiedź jest: http://www.canon-board.info/showthread.php?t=12704
romanchch
03-09-2006, 00:35
dzieki, za ten link, owa sprzecznosc zupelnie mnie nie obchodzi, czytalem te posty pod katem tego co mnie istotnie intersuje, czyli jak optymalnie wykorzystac pelnoklatkowa matryce cmos i teraz po przeczytaniu tekstu z linka ktory mi podales, wiem jak ona dziala w porownaniu z "chemia analoga" lub "chemia naszego oka", wiem teraz co i jak robic, kumalem to intuicyjnie a teraz wiem dlaczego tak jest, jeszcze raz dzieki :-) nie tyle intersuje mnie teoria co praktyka :-)
Tomasz Urbanowicz
03-09-2006, 07:51
Ja chciałbym się odnieść jeszcze do możliwości tonalnej zwykłego 8-bitowego JPG. Braliśmy cały czas pod uwagę fakt, że 1EV to zakres do 0 do 1 - stąd wyszło "jedyne" 8EV. A co będzie, gdy 1 EV weźmiem od 0 do 0,8 i zaokrąglimy do liczby całkowitej? Zobaczmy:
1 EV: 0-0,8 -> 1
2 EV: 0,8-1,6 -> 2
3 EV: 1,6-3,2 -> 3
4 EV: 3,2-6,4 -> 6
5 EV: 6,4-12,8 -> 13
6 EV: 12,8-25,6 -> 26
7 EV: 25,6-51,2 -> 51
8 EV: 51,2-102,4 -> 102
9 EV: 102,4-204,8 -> 205
10 EV: 204,8-409,6 -> 255
Ten ostatni EV jest nasycony, ale nie zmienia to faktu, że przy wartości początkowej 0-0,8 możemy mieć zakres EV w JPG od 0 do 9-10EV.
Tomasz Golinski
03-09-2006, 08:10
Znów wracamy do mojej definicji rozpiętości tonalnej. Bez tego nie da się z sensem na to odpowiedzieć. Musisz porównać najciemniejszy niezerowy sygnał z najjaśniejszym niewyjaranym. Czyli 1-254. I z tego liczysz EV. Inaczej wyjdzie Ci nieskończenie wiele.
Tomasz Urbanowicz
03-09-2006, 08:13
OK - no to niech będzie JPG miał do 9EV ze sporym zapasem jak widać.
Tomasz Golinski
03-09-2006, 08:15
Skąd. log_2 254 = ca. 8.
To 0.8 nie ma sensu. Takiego sygnału nie zarejestrujesz.
Tomasz Urbanowicz
03-09-2006, 08:16
Zarejestruję, bo JPG robimy przecież z RAW'a 12-bitowego dzieląc go w skrócie przez 16 i zaokrąglająć do liczby całkowitej.
Tomasz Golinski
03-09-2006, 08:18
No, matrycą zarejestrujesz, ale w jpgu to przecież nie ma sensu. Pisałeś o rozpiętości max jpga a nie matrycy.
Tomasz Urbanowicz
03-09-2006, 08:32
No tak, ale JPG powstaje z RAW.
Janusz Body
03-09-2006, 08:38
No tak, ale JPG powstaje z RAW.
Po kolosalnej obróbce. Tak dużej, że JPG z RAWem niewiele ma wspólnego :)
Tomasz Urbanowicz
03-09-2006, 08:43
Tak to prawda, ale odpowiednio przekształcając RAW na JPG tak jak wyżej napisałem, można w JPG osiągnąć większy zakres - nie mówiąc już o potraktowaniu JPG jakąś krzywą.
Tomasz Golinski
03-09-2006, 08:44
Zdefiniuj, co rozumiesz przez zakres :roll:
Tomasz Urbanowicz
03-09-2006, 09:05
Może przedstawie to tak.
Z "matrycy" otrzymujemy od 0 do 4095 wartości. Twoja definicja zakresu to:
od 1 do 4094. Przyjrzyjmy się wartością od 1 do 32 (cienie) i podzielmy przez 16:
32 2
31 1,9375
30 1,875
29 1,8125
28 1,75
27 1,6875
26 1,625
25 1,5625
24 1,5
23 1,4375
22 1,375
21 1,3125
20 1,25
19 1,1875
18 1,125
17 1,0625
16 1
15 0,9375
14 0,875
13 0,8125
12 0,75
11 0,6875
10 0,625
9 0,5625
8 0,5
7 0,4375
6 0,375
5 0,3125
4 0,25
3 0,1875
2 0,125
1 0,0625
Taraz przyjmijmy, że 1EV będzie zmieniał się (od wartrości podzielonej przez 16) od 0,0625 do 0,8125. Po zaokrągleniu otrzymym zakres od 0 do 1.
Następnie całe rozważanie/mnożenie przez 2 poszczególnych zakresów przedstawiłem wyżej.
Możemy przecież zakres 1EV jeszcze mniejszyć np. od 0,0625 do 0,75 - wtedy zakres EV będzie trochę większy, tj. ok 9,28EV (poprzedni przypadek to ok. 9,25EV).
Janusz Body
03-09-2006, 11:33
@Tomasz Urbanowicz
Czegoś tu nie rozumiem. Jak chcesz przedstawić te wszytkie ułamki w 8 bitach? W 8 bitach można zapisać od 0 do 255 i to wszystko beda liczby naturalne (bez znaku).
EDIT: "Potraktowanie" jakąś krzywą właściwie niczego nie zmieni to dalej będzie 8 bit
Tomasz Urbanowicz
03-09-2006, 12:28
Te wszystkie liczby po przecinku, zaokrąglamy do całkowitej, tylko że zakres 1EV nie bierzemy od 0 do 1 tylko od 0 do 0,8 - jest to wynik dzielenia od 0 do 4095 przez 16.
Wynik raz jeszcze przedstawie:
1 EV: 0-0,8 -> 1
2 EV: 0,8-1,6 -> 2
3 EV: 1,6-3,2 -> 3
4 EV: 3,2-6,4 -> 6
5 EV: 6,4-12,8 -> 13
6 EV: 12,8-25,6 -> 26
7 EV: 25,6-51,2 -> 51
8 EV: 51,2-102,4 -> 102
9 EV: 102,4-204,8 -> 205
10 EV: 204,8-409,6 -> 255
Wychodzi, że jest ok. 9,25EV
Może podsumujmy :)
Przeprowadzony test na http://www.clarkvision.com/imagedetail/dynamicrange2/ pod kątem określenia zakresu tonalnego slajdu, czy papieru rzeczywiście wydaje się być testem skanera :)
Jednak pokazał jaki zakres tonalny ma matryca w EOS'ie.
Wg matematycznego podejścia do EV przy zakresie 10EV wychodzi, że 1EV to zaledwie 4 odcienie.
JPG - 8EV, przy czym przy 1EV mamy tylko jeden odcień.
Jak szacujecie więc rozpiętość tonalną: slajdu, filmu, papieru foto?
Ech... Przestańże wreszcie wciskać EV w bity, bo to nie tędy droga.
Zacznijmy od negatywów i slajdów.
Negatywy, slajdy (i papiery) mają parametr zwany gęstością. To jest najogólniej mówiąc to, że mała wartość gęstości (D) to bardzo przezroczyste (dla papieru: odbijające światło), duża wartość: mało przezroczyste (odbijające światło).
Slajdy mają dużą dynamikę: tam gdzie białe są bardzo przezroczyste, tam gdzie czarne - są prawie czarne, przepuszczają bardzo mało światła.
Negatywy mają znacznie niższą: tam gdzie są jasne (na pozytywie: ciemne) przepuszczają sporo światła - cały negatyw ma spore ,,zadymienie'', widoczne w porównaniu do slajdu) oraz tam gdzie są ciemne (czyli jasne na pozytywie) przepuszczają również sporo światła, są cały czas wyraźnie przezroczyste.
Czyli slajd ma relatywnie dużą dynamikę (Dmax-Dmin), negatyw - sporo mniejszą.
Jednocześnie - slajd w swojej większej dynamice potrafi zarejestrować znacznie mniej EV, niż negatyw w swojej niewielkiej dynamice.
Oczywiste jest przy tym, że negatyw ma znacznie inższy kontrast.
Slajd zaś ma łagodniejsze przejścia tonalne - bo ma mało EV w dużym zakresie wpakowane.
To jest po prostu charakterystyka naświetlania danego materiału, że slajd szybciej, wyraźniej reaguje na zmiany światła niż negatyw.
Obejrzyj sobie przykładowe krzywe charakterystyczne negatywu (np http://www.fotograf.fir.pl/dodatki/fuji05.php, http://www.fotograf.fir.pl/dodatki/fuji14.php) i slajdu (np http://www.fotograf.fir.pl/dodatki/fuji12.php, http://www.fotograf.fir.pl/dodatki/fuji09.php) Te od slajdów są znacznie bardziej strome (oczywiście neg i slajd są odwrotnie). Zaobserwuj też zakres dynamiki (oś pionowa) na zakres naświetlenia (pozioma).
Tyle że oś naświetleń jest podobnie jak dynamika w log10, nie log2 jak przywykliśmy.
Jak by to teraz porównać do bitów i skanerów, to skaner do slajdów wymaga większej dynamiki, co za tym idzie - wyższej rozdzielczości bitowej.
Dlaczego? Przecież musi zanotować tylko kilka (5,6?) EV ze slajdu.
Ha, dlatego, że gdyby miał niską dynamikę, to nie przebił by się przez najciemniejsze partie slajdu, i zrobił by tam czarną plamę - jeszcze bardziej obniżając EV slajdu.
Bez problemu zaś poradzi sobie taki skaner z negatywem, który ma niski kontrast. Tak zmieszczone 10 (np) EV w mało dynamicznym materiale, skutkuje bezproblemowym przeniesieniem całości do nawet 8-mio bitowej przestrzeni komputera. Nikt wtedy jednak nie liczy ile EV w którym bicie, bo to nie ma _żadnego_ znaczenia. Bo tych EV ze sceny fotografowanej już dawno nie ma, nie ma też o tym bezpośredniej informacji! I tak na prawdę to w pliku cyfrowym nie mieścisz żadnych EV tylko zwyczajnie zdyskretyzowaną wartość jasności niewielkiego obszaru (piksela potrywającego punkt) z negatywu. A że dynamika niewielka, to na niewielu bitach się to da zapisać. Tyle, że różnice nieduże czyli te tzw ,,przejścia tonalne'' również mniej rozpoznawalne
[/QUOTE]
Tomasz Urbanowicz
03-09-2006, 14:59
Ech... Przestańże wreszcie wciskać EV w bity, bo to nie tędy droga.
Przecież ja nic nie wciskam. Chciałem się dowiedzieć jaki zakres tonalny może zarejestrować slajd, film, papier foto - nie na podstawie skanu...
Przecież ja nic nie wciskam. Chciałem się dowiedzieć jaki zakres tonalny może zarejestrować slajd, film, papier foto - nie na podstawie skanu...
A, to nawet Ci odpowiedziałem - wszystkiego się dowiesz oglądając krzywe charakterystyczne. Materiały te publikuje producent, na stronce gdzie podałem jest wszystko zebrane, ale u każdego producenta mozna znaleźć pdfy z bardzo dokładnym opisem materiałów (nośnik, warstwy, wymiary, grubości, charakterystyki, wszytkie możliwe, możliwości obróbki itd itp).
Przykłady: Ilford, hp5+: http://www.ilfordphoto.com/products/product.asp?n=7&t=Consumer+%26+Professional+Films,
http://www.ilfordphoto.com/download.asp?n=476&f=2006216115453172.pdf,
ilford, papier multigrade RC warmtone: http://www.ilfordphoto.com/download.asp?n=31&f=2006130207232634.pdf
Fuji, Superia 200: http://fujifilm.com/products/consumer_film/superia_200.html, http://fujifilm.com/products/consumer_film/pdf/superia200_datasheet.pdf,
fuji pro400H:
http://fujifilm.com/products/professional_films/pdf/Pro400H.pdf
fuji sensia 100: http://fujifilm.com/products/consumer_film/sensia_100.html, http://fujifilm.com/products/consumer_film/pdf/sensia100_datasheet.pdf
To tylko przykłady, ale wszytko można znaleźć.
Nie wiem po co wyważać otwarte drzwi i próbować samemu kombinować i mierzyć, ale wszytko jest możliwe.
Na p.r.f co jakiś czas ktoś opisuje swoje przygody z ,,kalibrowaniem'' materiału / wywoływacza. Naświetla na wielkim formacie kartę testową ze dobrze pomierzonymi strefami, wywołuje to w konkretnym wywoływaczu na różne sposoby, mierzy potem destynometrem. Wyznaczją w ten sposób realną czułość danego negatywu w konkretnym wywoływaczu (czułość na prawdę jest zależna od sposobu wołania, krzywa charakterystyczna też. Bardziej to dotyczy BW, bo w kolorze to jest teraz praktycznie tylko C41 (negatyw), E6(dia) i RA-4 (papier)) oraz kreślą krzywe charakterystyczne. Potem na podstawie tej wiedzy robią zdjęcia czarnego pstryczka na białej ścianie, takie, że widać detale na ciemnym bakelicie oraz szczegóły nierówno położonego gipsu na ścianie.
Tomasz Urbanowicz
03-09-2006, 16:00
Napewno można z tego wyciągnąć wnioski - ja niestety nie miałem do czynienia z analogiem (filmem, slajdem). Dlatego chciałem orientacyjnie wiedzieć, jaki zakres w EV jest w filmie, slajdzie. Widzę, że "siedzisz" w analogu, więc może potrafisz to oszacować/wywnioskować na podstawie danych technicznych?
Czym jest kontrast w ujęciu matematyczno/liczbowym (podobnie jak odnosilismy się do EV)?
A to już nie jest takie proste. Kontrastem można manipulować zarówno ogólnie (spłaszczanie krzywej) jak i bardzo wybiórczo - manipulowanie krzywymi. Dobre rezultaty uzyskuje się poprzez zmnijszanie kontrastu w tych partiach obrazu, gdzie jest mało detali - dołek na histogramie.
GIMP bardzo ułatwia taką edycję krzywymi - tam w tle, pod krzywą wyswietlany jest histogram obrazka. I to skutkuje - umieszcając odpowiednio dużo punktów kontrolnych można zrobić, że tam gdzie na histogramie jest dołek, krzywa jest niemal pozioma, a bardziej stroma jest tam, gdzie są istotne przejścia tonalne, czyli ,,górka'' na histogramie, często między innymi na krańcach zakresu, żeby uzyskać te ukochane ,,szczegóły w cieniach i światłach''. Oczywiście obraz wyjściowy musi zawierać te informacje.
Tu z kolei w gimpie jest problem, bo obraz 8-bitowy najczęściej tego nie ma. W szopie zaś histogram jest osobno i nie zawsze łatwo trafić.
Podobna manipulacja kontrastem ma miejsce podczas łączenia wielu ekspozycji z tzw HDR.
Podobne mozliwości stwarza przecież proces naświetlania papieru wielogradacyjnego przez filtry kolorowe. To nic innego jak manipulowanie krzywymi w ciemni, wymaga tylko więcej czasu i próbek. Przynosi też więcej frajdy (-:
Napewno można z tego wyciągnąć wnioski - ja niestety nie miałem do czynienia z analogiem (filmem, slajdem). Dlatego chciałem orientacyjnie wiedzieć, jaki zakres w EV jest w filmie, slajdzie. Widzę, że "siedzisz" w analogu, więc może potrafisz to oszacować/wywnioskować na podstawie danych technicznych?
Nie danych technicznyh, to są krzywe charakterystyczne, które dokładnie opisują jaki jest zakres EV na negatywie a ile na skaldjzie - każdy materiał ma swoje krzywe i trzeba je dla niego oglądać. Oczywiście krzywe negatywów są do sieibe opdobne kształtem, slajdów też i podobnie z papierami.
Mocno specjalistyczne materiały będą miały krzywe odbiegające od tej średniej.
Ok, weźmy przykładowy obrazek, niech to będzie sympatyczna Provia 100F (slajd):
===== EEEEDit, bo etam,
Tu właśnie chciałem wkleić obrazek krzywych charakterystycznych i go omówić, ale po co będę w uproszczeniu opowiadał, skoro już ktoś to zrobił.
Polecam zatem artykuły Marka Madeja ze strony:
http://www.marekmadej.com/strona400.html
Przede wyszstkim, to gdzie jest wyjaśnione jak czytać taki wykres:
http://www.marekmadej.com/pliki%20do%20sciagniecia/ekspozycja_idealna.pdf
Są tu też praktycznie opracowane krzywe charakterystyczne popularnych materiałów - przydatne, bo skala naświetleń podana jest również w EV (czyli log2) zamiast log10:
Tomasz Urbanowicz
03-09-2006, 16:22
Dziękuję, poczytam :)
to w 350d moge zlapac max 6 EV?? a ma RAW +1 ewwntualnie?????
Tomasz Urbanowicz
23-11-2007, 14:25
Zakres tonalny 350D to jest od 0 do 4095 a nie żadne EV :)
O EV mówimy wtedy mamy do czynienia z czymś ciągłym a nie dyskretnym. A scene 20 EV również zarejestrujesz dobierając odpowiednio ekspozycje aby nie przepalić świateł (aby biel była przy wartościach 4095, a czerń przy 0) - zarejestrujesz przecież i światła i cienia.
Napisz skąd wzięło Ci się te 6 EV? I do czego się to odnosi?
... A scene 20 EV również zarejestrujesz dobierając odpowiednio ekspozycje aby nie przepalić świateł (aby biel była przy wartościach 4095, a czerń przy 0)...
Zaraz zaraz, chcesz powiedziec ze jestes w stanie zarejestrowac na matrycy z naszych EOsow scene o rozpietości 20EV?? Napisz prosze jak tego dokonasz, chyba ze ja cos zle zrozumialem
Zaraz zaraz, chcesz powiedziec ze jestes w stanie zarejestrowac na matrycy z naszych EOsow scene o rozpietości 20EV?? Napisz prosze jak tego dokonasz, chyba ze ja cos zle zrozumialem
Mega-HDR?
Zakres tonalny 350D to jest od 0 do 4095 a nie żadne EV :)
O EV mówimy wtedy mamy do czynienia z czymś ciągłym a nie dyskretnym.
Dokładnie, więc możesz sobie pomierzyć światłomierzem na światło odbite pokazującym ekspozycję w EV najgłębsze cienie i najwyższe światła i odjąć dwa wyniki od siebie - będziesz miał rozpiętość sceny. Z tego 6 EV (powiedzmy - nie chcę mieszać ile dokładnie i czy w jpg czy w RAW) jesteś w stanie zarejestrować na matrycy mając ciągle szczegóły w światłach i cieniach. Nie rozumiem za bardzo po co to bardziej komplikować...
A scene 20 EV również zarejestrujesz dobierając odpowiednio ekspozycje aby nie przepalić świateł (aby biel była przy wartościach 4095, a czerń przy 0) - zarejestrujesz przecież i światła i cienia.
?
Ze szczegółami w cieniach ?
Napisz skąd wzięło Ci się te 6 EV? I do czego się to odnosi?
Podejrzewam że z rozpiętości sceny - jak napisałem wyżej...
Tomasz Urbanowicz
23-11-2007, 17:26
Chyba mylicie pojęcia :)
"Rozpiętość tonalna jest różnicą pomiędzy najjaśniejszym a najciemniejszym obszarem sceny" - taką definicje wszędzie w necie możecie znaleźć.
Zróbmy taki eksperyment:
Załóżmy że mamy białą kartkę w śródku czarny kwadrat (biel i czerń idealna). Oświetlamy światłem tak, że po zmierzeniu światłomierzem mamy rozpiętość tonalną 6 EV (różnica między czernią a bielą). Dobieramy prawidłowo ekspozycje i robimy zdjęcie. Zerejestrujemy biel i czerń. Następnie oświetlamy dużo bardziej, tak, że mierząc światłomierzem mamy rozpiętość 20 EV - biel jest nadal bielą, czerń również czernią. Dobieramy prawidłowo ekspozycję i znów robimy zdjęcie.
I w tym przypadku zarejestrujemy biel i czerń - prawda? :)
Czyli zarejestrowaliśmy scene 20 EV.
To o czym Wy zapewne piszecie to rozdzielczość tonalna, ale i tutaj nie definiujemu ją jako EV bo nie jest to liniowość tylko parametrach dyskretnych czyli: 10 bitów co się przekłada na 4095 wartości.
I dajcie wreszcie spokój z wyrażeniem na siłę w EV rozpiętości tonalnej cyfrówek - cyfrówki są dyskretne (nie ciągłe) i mają konkrentą wyrażoną w bitach rozpiętość i rozdzielczość.
Chyba mylicie pojęcia :)
Być może, ale przez analogię do analogów (masło maślane :) ) IMHO znacznie łatwiej jest to zrozumieć...
Zróbmy taki eksperyment:
Załóżmy że mamy białą kartkę w śródku czarny kwadrat (biel i czerń idealna). Oświetlamy światłem tak, że po zmierzeniu światłomierzem mamy rozpiętość tonalną 6 EV (różnica między czernią a bielą). Dobieramy prawidłowo ekspozycje i robimy zdjęcie. Zerejestrujemy biel i czerń. Następnie oświetlamy dużo bardziej, tak, że mierząc światłomierzem mamy rozpiętość 20 EV - biel jest nadal bielą, czerń również czernią. Dobieramy prawidłowo ekspozycję i znów robimy zdjęcie.
I w tym przypadku zarejestrujemy biel i czerń - prawda? :)
Czyli zarejestrowaliśmy scene 20 EV.
Zarejestrować można wszystko więc nie rozumiem co ten eksperyment ma dowodzić... Być może nie posługujemy się poprawnym według Ciebie słownictwem, ale chyba dość jasno opisałem o co chodzi - o szczegóły w światłach i cieniach - nie ma chyba na to jakiejś ustandaryzowanej metody pomiary odpowiadającej pomiarowi gęstości slajdu/negatywu densytometrem, niemniej jednak empirycznie można dojść do właściwego wyniku...
I dajcie wreszcie spokój z wyrażeniem na siłę w EV rozpiętości tonalnej cyfrówek - cyfrówki są dyskretne (nie ciągłe) i mają konkrentą wyrażoną w bitach rozpiętość i rozdzielczość.
Ależ dlaczego - w przeciwieństwie do rozdzielczości/rozpiętości w bitach która jest czystą abstrakcją, wyrażenie rozpiętości (czy jak to zwał) w EV daje Ci rzeczywistą możliwość zmierzenia sceny światłomierzem (tym w aparacie też) i stwierdzenia czy matryca będzie w stanie ją przenieść - chyba dość praktyczne, nie ?
Tomasz Urbanowicz
23-11-2007, 18:11
Zarejestrować można wszystko więc nie rozumiem co ten eksperyment ma dowodzić...
Ano to, że możemy zarejestrować scenę o rozpiętości i 30 EV
Ależ dlaczego - w przeciwieństwie do rozdzielczości/rozpiętości w bitach która jest czystą abstrakcją, wyrażenie rozpiętości (czy jak to zwał) w EV daje Ci rzeczywistą możliwość zmierzenia sceny światłomierzem (tym w aparacie też) i stwierdzenia czy matryca będzie w stanie ją przenieść - chyba dość praktyczne, nie ?
Właśnie wprowadzono tą jednostkę, aby opisać abstrakcje ciągłości sceny. Do przedstawienia rozpietości/rozdzielczości matryc używamy konkretnych liczb (wyrażoną w ilości bitów).
Takie pseudo EV dla matrycy 10 bitowej to max 10 pEV (pseudoEV).
Dlaczego pseudo? Bo przykładowo z zakresu 10 EV podzaskres 1EV to wartość wyrażona w liczbach całkowitych - w naszym przypadku 1.
W rzeczywistej, ciągłej scenie z zakresu 10EV podzakres 1EV ma nieograniczoną liczbę wartości (nieskończoną).
Wartości EV odnoszą się do wyrażenia ciągłości sceny.
Dalej swoje... Walczysz o poprawność terminologiczną która z praktycznego punktu widzenia i dla większości użytkowników jest calkowicie bez znaczenia. Interesuje ich za to ile EV w sensie pomiaru jej rozpiętości światłomierzem są w stanie sfotografować zachowując szczegóły w światłach i cieniach - piszę to po raz trzeci bo uparcie to ignorujesz, wypisując elaboraty na temat dyskretności matrycy (któremu nikt nie zaprzecza).
Nie widzę sensu dalszej dyskusji dopóki nie wyjaśnisz jak odnieść pomiar rozpiętości sceny światłomierzem do "zakres tonalnego 350D od 0 do 4095" w plenerze na przykład...
Tomasz Urbanowicz
23-11-2007, 18:34
A ja proponuję zejść z analogów do cyfrówek - wszak to nimi pstrykamy.
Proszę przaanalizaować co rejestruje matryca i w jaki sposób.
A następnie jeszcze raz przeczytać mój wywód.
Obawiam się, że mnie nie rozumiecie :)
Dzięki że odpowiedziałeś na moje pytanie...
Tomasz Urbanowicz
23-11-2007, 18:45
Dobierasz ekspozycje tak, aby nie przepalić bieli - ot co. Nie jest ważna dla Ciebie informacja o EV bo i po co? Masz tak dobrać ekspozycje, aby punktowi 4095 odpowiedał najjaśniejszy punkt w scenie. I tyle :)
Możesz najjaśniejszemu punktowi sceny "dobrać" np. wartość 2000 co nie zmienia faktu, że zarejestrujesz również rozpiętość sceny, z tym, że będzie mniej szczegółów (przejść tonalnych) w poszczególnych EV sceny, lecz całą rozpiętość zarejestrujesz, ale i tak masz spory zapas, bo zwykle RAW zamieniamy ostatecznie na JPG 8 bitowy :)
Obawiam się, że mnie nie rozumiecie :)
Masz 100% racji - zupełnie Cie nie rozumiemy, bo mieszasz okrutnie.
Różnice jasności w scenie można wyrazić w EV i w tych samych jednostkach można opisać zdolność rejestracji dowolnego aparatu. To czy jest on analogowy czy cyfrowy to szczegół techniczny.
Jakby dokładnie opisać, to oświetlenie każdej rzeczywistej sceny ma również charakter dyskretny, nie ciągły ze względu na korpuskularny charakter światła. Podobny charakter ma rejestracja w tradycyjnym materiale światłoczułym.
Tak więc, tłumaczenie, że procesu "analogowego" i cyfrowego nie da się opisać tymi samymi wielkościami jest całkowicie pozbawione sensu.
Tomasz Urbanowicz
23-11-2007, 19:33
Bez żartów :)
Chcesz porównywać "dyskretność" rzeczywistej sceny do dyskretności matrycy aparatu czy też do kliszy? :) Nie zauważasz różnicy że w każdym podzakresie rozpiętości tonalnej matrycy masz liczby jedynie naturalne? Mało tego, w podzakresie 1"EV" matrycy masz jedynie wielkość jedynie 1, w scenie rzeczywistej jak myślisz ile będzie? Potrafisz podać liczbę? NIE, i dlatego dla opisu ciągłości sceny wymyślono jednostki EV. W cyfrówkach mamy konkretne liczby (ilość bitów).
Chyba mylicie pojęcia :)
"Rozpiętość tonalna jest różnicą pomiędzy najjaśniejszym a najciemniejszym obszarem sceny" - taką definicje wszędzie w necie możecie znaleźć.
To prawda.
Zróbmy taki eksperyment:
Załóżmy że mamy białą kartkę w śródku czarny kwadrat (biel i czerń idealna).
Taa... a ja bym powiedział że jaśniejsza i ciemniejsza szarość.
Oświetlamy światłem tak, że po zmierzeniu światłomierzem mamy rozpiętość tonalną 6 EV (różnica między czernią a bielą). Dobieramy prawidłowo ekspozycje i robimy zdjęcie. Zerejestrujemy biel i czerń. Następnie oświetlamy dużo bardziej, tak, że mierząc światłomierzem mamy rozpiętość 20 EV - biel jest nadal bielą, czerń również czernią. Dobieramy prawidłowo ekspozycję i znów robimy zdjęcie.
I w tym przypadku zarejestrujemy biel i czerń - prawda? :)
Czyli zarejestrowaliśmy scene 20 EV.
Nie. Zarejstrowaliśmy wycinek tej sceny. To co powinno być białe znalazło się poza zakresem, a to co czarne, również poza zakresem. Dlatego jeśli na tym czarnym miał byś np. ołówkiem coś narysowane (normalnie to okiem widać) to po zrobieniu zdjęcia nic tam nie będzie. Podobnie na białym.
To o czym Wy zapewne piszecie to rozdzielczość tonalna, ale i tutaj nie definiujemu ją jako EV bo nie jest to liniowość tylko parametrach dyskretnych czyli: 10 bitów co się przekłada na 4095 wartości.
Właśnie Ty piszesz o rozdzielczości tonalnej.
W rzeczywistości EV (rozpiętość sceny) i gęstość (rozdzielczość tonalna materiału) są zależne i do zobrazowania tej zależności używa się krzywych charakterystycznych. Dla cyfry również.
I dajcie wreszcie spokój z wyrażeniem na siłę w EV rozpiętości tonalnej cyfrówek - cyfrówki są dyskretne (nie ciągłe) i mają konkrentą wyrażoną w bitach rozpiętość i rozdzielczość.
Ale inaczej się nie da, a przynajmniej nie ma sensu. Bo zarejestrować musisz konkretną scenę (po drugiej stronie obiektywu, to co oczami też widać) a nie nasycić przetwornik cyferkami. A krzywa charakterystyczna determinuje, ile EV ze świata zmieści się po przetworzeniu w Twoich bitach oraz w jaki sposób zostanie to odwzorowane.
Jeśli fotografujesz coś mało kontrastowego, to i tak większość bitów się zmarnuje.
Jeśli coś bardzo kontrastowego, to może ich nie wystarczyć. Wtedy warto zmienić film na bardziej odpowiedni (-:
A ja proponuję zejść z analogów do cyfrówek - wszak to nimi pstrykamy.
Mów za siebie (-:
Proszę przaanalizaować co rejestruje matryca i w jaki sposób.
Matryca nic nie rejestruje. (jeśli mamy być aż tak dokładni)
Dobierasz ekspozycje tak, aby nie przepalić bieli - ot co. Nie jest ważna dla Ciebie informacja o EV bo i po co? Masz tak dobrać ekspozycje, aby punktowi 4095 odpowiedał najjaśniejszy punkt w scenie. I tyle :)
Który światłomierz i w jakiej cyfrze pokazuje Ci jakiekolwiek informacje w bitach? Znasz zakres Twojej matrycy, i tak dobierasz ekspozycję, by poza niego nie wybiec.
Dziesiątki bitów są do tego, by całość zarejestrować w miarę gładko.
Bity wylatują z przetwornika AD, a wlatuje do niego światło, które jest ciągłe.
Pewna minimalna ilość światła jest niezbędna by zarejestrować coś innego niż 0, oraz istnieje pewna maksymalna, przy której przetwornik odpowie ciut mniejszą wartością niż największa na jaką go stać. Dla 8 bitowego maksimum jest 255, dla 10 1024 itd. Jeden będzie miał max dla światła o 6EV mocniejszego (64 razy, kontrast ok. 1:50), inny np o 10EV (1024 razy, kontrast 1:1000). Obojętnie, czy maksymalną wartość na wyjściu będzie 255 czy 65535. Owa zależność może być zilustrowana krzywą charakterystyczną, dokładnie jak dla materiałów analogowych.
Niestety, kontrastu sceny nie da się skompresować dowolnie. Jeśli jest mały to utrwalisz od (na Twoje) 1000 do 3000 (na przykład) a jeśli duży to od 0 do 4095. Tylko że jeśli zachcesz mieć szczegóły w cieniach, to zamiast jasnego będziesz miał białe plamy.
!!! Łączenie podwójnego wpisu !!!
Bez żartów :)
Chcesz porównywać "dyskretność" rzeczywistej sceny do dyskretności matrycy aparatu czy też do kliszy? :) Nie zauważasz różnicy że w każdym podzakresie rozpiętości tonalnej matrycy masz liczby jedynie naturalne? Mało tego, w podzakresie 1"EV" matrycy masz jedynie wielkość jedynie 1, w scenie rzeczywistej jak myślisz ile będzie?
Ta ,,dyskretność'' to _tylko_ sposoby rejestracji tego co pomiędzy minimum a maksimum. Nie ma nic wspólnego z zakresem.
Tomasz1972
23-11-2007, 19:36
OK
Mamy scenę o rozpiętości 8 EV
Rejestrujemy ją aparatem cyfrowym z róznym ustawieniem parametrów ekspozycji .
Efekt :
https://canon-board.info//brak.gif
źródło (http://img48.imageshack.us/img48/1427/roztonzu7.jpg)
( rysunek poglądowy )
Gdzie Tomaszu Twoje 20EV ?
Bagnet007
23-11-2007, 19:39
Chyba mylicie pojęcia :)
"Rozpiętość tonalna jest różnicą pomiędzy najjaśniejszym a najciemniejszym obszarem sceny" - taką definicje wszędzie w necie możecie znaleźć.
Zróbmy taki eksperyment:
Załóżmy że mamy białą kartkę w śródku czarny kwadrat (biel i czerń idealna). Oświetlamy światłem tak, że po zmierzeniu światłomierzem mamy rozpiętość tonalną 6 EV (różnica między czernią a bielą). Dobieramy prawidłowo ekspozycje i robimy zdjęcie. Zerejestrujemy biel i czerń. Następnie oświetlamy dużo bardziej, tak, że mierząc światłomierzem mamy rozpiętość 20 EV - biel jest nadal bielą, czerń również czernią. Dobieramy prawidłowo ekspozycję i znów robimy zdjęcie.
I w tym przypadku zarejestrujemy biel i czerń - prawda? :)
Czyli zarejestrowaliśmy scene 20 EV.
To o czym Wy zapewne piszecie to rozdzielczość tonalna, ale i tutaj nie definiujemu ją jako EV bo nie jest to liniowość tylko parametrach dyskretnych czyli: 10 bitów co się przekłada na 4095 wartości.
I dajcie wreszcie spokój z wyrażeniem na siłę w EV rozpiętości tonalnej cyfrówek - cyfrówki są dyskretne (nie ciągłe) i mają konkrentą wyrażoną w bitach rozpiętość i rozdzielczość.
Trzy sprawy:
1. Nie często spotyka się idealnie absorbujące oraz idealnie odbijające światło przedmioty. To są warunki idealne, nigdy nie spotykane, sucha teoria.
2. Obok czarnego kwadratu postaw idealnie szary prostokącik.
Jak będzie wyglądał przy obu wariantach oświetlenia ?
3. Dodaj na białej kartce fakturkę. Przy 6EV rozpiętości pewnie będzie widoczna, przy 20 raczej nie.
Dla mnie rozpiętość kończy się dokładnie tam, gdzie zanikają detale.
Ale w teorii wszystko gra :-)
...Taa... a ja bym powiedział że jaśniejsza i ciemniejsza szarość...
Chyba myślimy w barrdzo podobny sposób (-:
Poza tym znów byłeś szybszy.
Jakby dokładnie opisać, to oświetlenie każdej rzeczywistej sceny ma również charakter dyskretny, nie ciągły ze względu na korpuskularny charakter światła. Podobny charakter ma rejestracja w tradycyjnym materiale światłoczułym.
Tak więc, tłumaczenie, że procesu "analogowego" i cyfrowego nie da się opisać tymi samymi wielkościami jest całkowicie pozbawione sensu.
Rzekłbym, ze to nazbyt skrajna opinia ;)
Nie wdając się w (trwającą już z kilka tysięcy lat) debatę na temat ciągłej czy dyskretnej natury rzeczywistości, chciałbym zauważyć, że stosowane tu potoczne rozumienie jest całkiem intuicyjne, a za przyczynę nieporozumień uznać żonglowanie tymi pojęciami we wszelakich materiałach reklamowo-marketingowych.
Nie popełnimy wielkiego błędu zatem jeśli przyjmiemy, że do momentu przetworzenia sygnału z matrycy jest on analogowy i mierzony w EV, a później dyskretny (i liczony w bitach).
Widać więc, że ilość bitów - czy będzie to 8, 12, czy 14 lub 16 - za pomocą których zapiszemy to, co z matrycy odczytaliśmy, w żadnym stopniu dynamiki (wyrażonej liczbą EV) nam nie zwiększy. Zwiększy nam natomiast liczbę możliwych odcieni - czyli upodobni obraz cyfrowy (dyskretny) do analogowego - co też, zdaje się, jest pożądaną cechą!.
Truizmem będzie zatem konkluzja, że im więcej EV wyciągnie matryca i na więcej "bitów na kolor" podzieli to aparat, to tym lepiej.
Mniej oczywiste jest z kolei, to że im słabsza w sensie liczby EV matryca, tym więcej jest potrzebnych "bitów na kolor", żeby później "dało się z RAW-em coś zrobić". Na wspominanej już stronie http://www.marekmadej.com/strona400.html Autor opisuje podobną sytuację - diapozytyw (u nas "dobra matryca") ma większą dynamikę - i skaner nie musi mieć tak dużej rozdzielczości (w bitach), żeby uzyskać zadowalający nas efekt. Z kolei negatyw ("słabsza matryca") ma tę dynamikę znacznie mniejszą - co widać zresztą gołym okiem - i skaner musi mieć rozdzielczość wyższą, żeby z tego węższego zakresu wyprodukować porównywalny do diapozytywu efekt.
Oczywiście - cudów nie ma - najnowszy przykład to Olympus E-510: http://www.dpreview.com/reviews/olympuse510/page19.asp
!!! Łączenie podwójnego wpisu !!!
Jejku jej!
Zacząłem odpisywać Cyborgowi, nagle patrzę, a tu się dzieje... ;)
Tomasz Urbanowicz
23-11-2007, 20:44
Jeszcze raz przedstawię mój pkt widzenia :)
Zakładamy że matryca rejestruje liniowo - tak jest w przybliżeniu, ale załóżmy że jest stricte liniowa. Teraz mamy następującą scenę:
1. W kadrze mamy 3 prostokąty umieszczone koło siebie (zakładam idealność):
- czarny,
- 50% szarości,
- biały,
Następnie oświetlamy tą naszą scenę żarówką o neutralnej barwie, która daje ok. 200 lx - co wychodzi ok. 6,3 EV.
Dobieramy ekspozycje tak, aby biały był na "krawędzi" naszej matrycy tj. przy wartości 4095. Przy takim założeniu czarny będzie czarny, 50% szarości będzie po "środku matrycy" biały na krawędzie.
Nasz aparat zarejestruje 6,3 EV sceny.
2. W kadrze mamy sytuację taką jak poprzednio. Oświetlamy żarówką o większej mocy np. 50000 lux - co daje ok. 14,3 EV.
Dobieramy parametry ekspozycji tak, aby biel (to 14,3 EV, 50000 lux) była na poziomie wartości 4095 naszej matrycy - zapewnie musimy skrócić czas migawki itp.
Również jak poprzednio 50% szarości bedzie wówczas po środku matrycy, czarny przy końcu, biały przy drugim końcu.
Nasz aparat zarejestruje teraz 14,1 EV sceny.
Czy troche rozjaśniłem?
Czy troche rozjaśniłem?
Rozjaśniłeś, tylko że praktycznie nic z tego dla właścicieli cyfrówek nie wynika.
Problem jest taki że w przyrodzie mamy zazwyczaj do czynienia z sytuacją kiedy pewne elementy sceny np. niebo mają dużo większą jasność od pozostałych elementów np. czegoś co znajduje się w cieniu. Używając analogii do twojego przykładu niebo będzie białym kwadracikiem, natomiast to co jest w cieniu nie będzie szarym a np. 5% szarości kwadracikiem właśnie ze względu na ogromny kontrast. I chociaż możemy sobie bez problemu dobrać tak ekspozycję żeby biały kwadracik nie "wyleciał" poza wartość dyskretną 4095 to wtedy to co jest w cieniu będzie tak słabo naświetlone że różnica między wartościami dyskretnymi będzie niewielka i skutecznie zniekształcona przez kwantyzację na niską rozdzielczość np. 12 bitów.
Nie chwaląc się, w Tips&Tricks właśnie podałem sposób jak sobie z tym poradzić składając zdjęcie z kilku różnie naświetlonych klatek :-)
Na wstępie jeszcze jeden drobiazg:
(...) czyli: 10 bitów co się przekłada na 4095 wartości.
10 bitów przekłada się na 1024 wartości, na 4096 (nie 4095, 0 to tez wartość) przekłada się 12 bitów.
Zakładamy że matryca rejestruje liniowo - tak jest w przybliżeniu, ale załóżmy że jest stricte liniowa. Teraz mamy następującą scenę:
Nie ma znaczenia jak rejestruje (zwłaszcza, że nie rejestruje w ogóle (-: )
(...)
Również jak poprzednio 50% szarości bedzie wówczas po środku matrycy, czarny przy końcu, biały przy drugim końcu.
Nasz aparat zarejestruje teraz 14,1 EV sceny.
Czy troche rozjaśniłem?
Nie, nie zarejestrowałeś 14,1EV sceny tylko tyle samo EV sceny poprzeniej, lecz jaśniej oświetlonej.
Chyba że Twoja ,,idealna'' czerń nie odbija w ogóle światła, to na każdym zdjęciu będziesz miał czarną, nie zaświetloną plamę.
Tomasz Urbanowicz
23-11-2007, 21:18
Rozjaśniłeś, tylko że praktycznie nic z tego dla właścicieli cyfrówek nie wynika.
Wynika to, że często (jak widać) mylone są pojęcia - rozpiętość tonalna to co innego niż rozdzielczość.
Dwa, że można na matrycy zarejestrować bardzo dużą rozpiętość tonalną sceny - kwestia prawidłowego doboru ekspozycji. Im większa rozpiętość zarejestrowana, tym mniejsza rozdzielczość tonalna - ale to logiczne.
Trzy, proszę zauważyć że ostatecznym plikiem jest JPG 8 bitowy o rozdzielczości tonalnej 256 odcienie/wartości. Matryca ma 4096 wartości/odcieni. Przechodząc na JPG z RAW możemy dowolnie kształtować krzywą w celu uzyskania np. pseudow HDR'a. Wiadomo, że liczyć się trzeba z szumem w głębokich cieniach, ale...
!!! Łączenie podwójnego wpisu !!!
Na wstępie jeszcze jeden drobiazg:
10 bitów przekłada się na 1024 wartości, na 4096 (nie 4095, 0 to tez wartość) przekłada się 12 bitów.
Oczywiście masz racje - 12 bitów to 4096.
Nie ma znaczenia jak rejestruje (zwłaszcza, że nie rejestruje w ogóle (-: )
Ma znaczenie jak i rejestruje (matryca + przetwornik A/C - skrót myślowy)
Nie, nie zarejestrowałeś 14,1EV sceny tylko tyle samo EV sceny poprzeniej, lecz jaśniej oświetlonej.
Chyba że Twoja ,,idealna'' czerń nie odbija w ogóle światła, to na każdym zdjęciu będziesz miał czarną, nie zaświetloną plamę.
Napisałem na wstępie że zakładam idealność - czyli czarny nie odbija światła.
Napisałem na wstępie że zakładam idealność - czyli czarny nie odbija światła.
W takim razie, nie zarejestrujesz go w ogóle. Nie możesz wtedy nawet powiedzieć, że zarejestrowałeś zakres 6EV z pierwszego przykładu.
Tomasz Urbanowicz
23-11-2007, 21:28
Niby dlaczego? Przecież zakres to różnica: coś - 0 to jest coś :) Jeżeli coś bedzie ileś tam luxów to zakres EV będzie miało odpowiednią wartość - są na to wzory ;-)
Wynika to, że często (jak widać) mylone są pojęcia - rozpiętość tonalna to co innego niż rozdzielczość.
Dwa, że można na matrycy zarejestrować bardzo dużą rozpiętość tonalną sceny - kwestia prawidłowego doboru ekspozycji.
Nie doboru ekspozycji tylko zakresu pracy sensora.
Trzy, proszę zauważyć że ostatecznym plikiem jest JPG 8 bitowy o rozdzielczości tonalnej 256 odcienie/wartości. Matryca ma 4096 wartości/odcieni. Przechodząc na JPG z RAW możemy dowolnie kształtować krzywą w celu uzyskania np. pseudow HDR'a.
HDRem (lichym bo lichym) jest raw. Do jpega można skompresować poprzez umiejętne zmniejszenie kontrastu.
!!! Łączenie podwójnego wpisu !!!
Niby dlaczego? Przecież zakres to różnica: coś - 0 to jest coś :) Jeżeli coś bedzie ileś tam luxów to zakres EV będzie miało odpowiednią wartość - są na to wzory ;-)
Ale to zero nie odzwierciedla zarejestrowanej czerni, tylko niezarejestrowaną czerń (która jest reprezentowana na obrazku jako czerń)
Niby dlaczego? Przecież zakres to różnica: coś - 0 to jest coś :) Jeżeli coś bedzie ileś tam luxów to zakres EV będzie miało odpowiednią wartość - są na to wzory ;-)
No to w takim razie największą rozpiętość tonalną mają te aparaty które posiadają jak...
... najniższe ISO
... najkrótszy czas migawki
... najmniejszą wartość f/x obiektywu
przy ISO100, 1/8000s i f/32 możemy więc zarejestrować aż 23EV
:mrgreen:
Bagnet007
23-11-2007, 23:04
No to w takim razie największą rozpiętość tonalną mają te aparaty które posiadają jak...
... najniższe ISO
... najkrótszy czas migawki
... najmniejszą wartość f/x obiektywu
przy ISO100, 1/8000s i f/32 możemy więc zarejestrować aż 23EV
:mrgreen:
A jeszcze z filtrem ND400 to już w ogóle :mrgreen:
Tomasz, wszystko co piszesz jest prawdą i zgadzam się z tym.
Faktycznie jeżeli wykona się zdjęcia w warunkach o jakich piszesz zdjęcie będzie poprawnie naświetlone (jeżeli tak uzna fotograf).
Jeżeli mam zamiar naświetlić coś na bezszczegółową biel to nie ważne czy będzie to +4 czy +20 EV od szarości. Obie ekspozycje będą wydawać się prawidłowe.
Ale to zupełnie nijak się ma do rzeczywistych warunków, no chyba że ktoś fotografuje jedynie testy BF/FF.
Zauważ jedną rzecz. Jeśli mamy taką sytuację o której wcześniej pisałeś:
Idealnie biały (choć wystarczy szary) papier i idealnie czarny kwadracik (pomijamy szumy które nam go wyżrą).
Każda ekspozycja podczas której biały będzie na np. >= +3EV będzie poprawna.
To oznacza, że mamy nieskończenie wiele kombinacji. Nawet czas nieskończenie długi da poprawną ekspozycję. To są takie abstrakcje, że już nawet nie wiem czy ten idealnie czarny dalej będzie czarny. W każdym razie mamy nieskończenie dużą rozpiętość tonalna.
Nie brzmi to dziwnie ?
Zróbmy inne założenia: kartka odbija 90% światła, kwadracik natomiast 10%.
Tu zaczynają się schody, lub jak kto woli nasza szara rzeczywistość :-)
Tomasz Urbanowicz
24-11-2007, 08:52
Założyłem idealną czerń i biel, a także idealną liniowość matrycy, żeby przedstawić to w sposób wydawało mi się najprostszy. Nic nie stoi na przeszkodzie, aby czerń zastąpić kwadratem 10% odbicia światła, a biel 90%. Bardzo proszę:
Zakładamy oświetlenie dające 10 tyś lux, co daje 12EV przy poprzednim przykładzie.
Przy 90% odbicia światła mamy 9000 lux, przy 10% odbicia światła mamy 1000 lux. Zakres tonalny sceny więc wynosi ok. 11,6 EV (mam nadzieje iż nie pomyliłem się).
Jeszcze raz chciałbym powiedzieć, iż nie jest problem z zarejestrowaniem sceny z dużym zakresem np. 20EV, bo jak wykazałem wcześniej da się odpowiednio dobierając ekspozycje.
Weźmy jeszcze taki przykład:
1. Mamy 3 aparaty z trzema różnymi matrycami:
a) 10 bitowa,
b) 12 bitowa,
c) 14 bitowa.
Każdym z nich rejestrujemy scenę w której mamy gradient od 0-100% szarości z krokiem 1% (mamy 100 prostokącików o różnej szarości).
Oświetlamy tak mocnym światłem żeby światłomierz pokazywał 20EV (różnice między bielą a czernią). Dobieramy ekspozycje tak, aby biel była na "krawędzi matrycy", czyli w:
a) 1024,
b) 4095
c) 16384
Na histogramie zobaczymy "grzebień" który na różnych aparatach będzie miał różne szerokości przerw (w przypadku trzecim będzie to taki bardzo rozlazły grzebień).
Następnie robimy zdjęcie gradietnowi 0-100%, który jest z krokiem 0,01. Czyli gradient składa się 10000 prostokącików. Oświetlamy jak wyżej.
Widzimy, że aparat pierwszy już nie odwzorowuje wszystkich odcieni, drugi również, trzeci tak.
Chciałem przez to pokazać, że nie jest ważna rozpiętość tonalna sceny w EV. Powinny raczej być urządzenia które liczyłyby ilość odcieni w scenie.
Z trzeciej strony proszę zwrócić uwagę, że człowiek potrafi rozróżnić patrząc na scenę do 150 odcieni. Wzrok ludzki ma charakter adaptacyjny - potrafimy się dostosować do warunków oświetleniowych. Gdy mamy scenę o dużej rozpiętości np. 20EV mróżymy oczy żeby zobaczyć coś w cieniach ("zakładamy filtr"), lub przy mniejszej rozpiętości np. 10EV świadomie "przepalamy" światła aby więcej zobaczyć w cieniach i odwrotnie, kiedy zależy nam na światłach podświadomie "nie doświetlamy" cieni.
Matryca w 350D potrafi tych odcieni w idealnym przypadku odróżnić 4096. JPG lub TIFF nawet 16 bitowy wyświetlamy na monitorze również jest pokazany 8 bitowo. 8 bitów to tylko (albo dla człowieka aż) 256 odcieni. Proszę zwrócić uwagę jaki jest to odsetek odcieni i informacji z RAW.
No to w takim razie największą rozpiętość tonalną mają te aparaty które posiadają jak...
... najniższe ISO
... najkrótszy czas migawki
... najmniejszą wartość f/x obiektywu
przy ISO100, 1/8000s i f/32 możemy więc zarejestrować aż 23EV
:mrgreen:
Oczywiście 23EV odnosi się do sceny jaką może aparat może maksymalnie zarejestrować bez przepalenia (sam sobie poniekąd odpowiedziałeś) :)
Tomasz Urbanowicz
24-11-2007, 10:25
Następnie robimy zdjęcie gradietnowi 0-100%, który jest z krokiem 0,01. Czyli gradient składa się 10000 prostokącików. Oświetlamy jak wyżej.
Widzimy, że aparat pierwszy już nie odwzorowuje wszystkich odcieni, drugi również, trzeci tak.
Podobnie robimy oświetlając dany gradient światłem o jasności np. 100 luksów (co daje ok. 5,3 EV).
Również dobieramy ekspozycje aby biel była na "krawędzi matrycy", tj.:
a) 1024,
b) 4095
c) 16384
I w tym przypadku tylko trzeci aparat zarejestruje wszystkie odcienie.
Co nam zatem daje informacja, że dana scena ma 5, 10 czy 20 EV? :)
Jeszcze raz chciałbym powiedzieć, iż nie jest problem z zarejestrowaniem sceny z dużym zakresem np. 20EV, bo jak wykazałem wcześniej da się odpowiednio dobierając ekspozycje.
owszem jest problemem. Dzisiejszymi aparatami jest to niemożliwe. Jesli nie problem - zrób takie zdjęcie i poszukaj na nim szczegółów w światałch i w cieniach. Wolisz się wdawać w matematykę. A ja w praktykę. Idź w teren, zrób krajobraz z zacienionym bokiem budynku i słońcem w kadrze. Nastaw taką ekspozycję, by słońce nie było przepalone i poszukaj szczegółów w tym zdjęciu w cieniach budynku. Wtedy wróć do tej dyskusji i ... będziesz wyjaśniał dlaczego twoja teoria się nie zgadza z praktyką. Nic innego nie zmusi cię do przemyśleń na nie.
minek bardzo dobrze opisuje rzeczywistość. Widze, że wątek robi się kopią mojej dyskusji z forum nikona. Jak zreszta sie teraz popatrzyłem - to ten wątek się od tego zaczął.
Tomasz Urbanowicz
24-11-2007, 10:38
Wychodzę najpierw z teorii i ideologii. Chodzi o zrozumienie idei. Będzie kolei i na praktykę - i wyobraź sobie robię zdjęcia, mam kupę krajobrazów w galerii o naprawdę różnym zakresie tonalnym sceny - zapraszam na moją stronę do galerii ;-)
owszem jest problemem. Dzisiejszymi aparatami jest to niemożliwe. Jesli nie problem - zrób takie zdjęcie i poszukaj na nim szczegółów w światałch i w cieniach. Wolisz się wdawać w matematykę.
A czy zobaczysz taką scenę wzrokowo tak jak tego wymagasz od aparatu?
Przeczytaj raz jeszcze moje poprzednie dwa posty - rozpiętość w EV nic tak naprawdę nie mówi. Bo scena może mieć i 4 EV (np. gradient o 10000 prostokątach odpowiednio oświetlony światłem które daj wynikowo 4 EV). Tylko matryca 14 bitowa zarejestruje wszystkie odcienie, 350D nie zarejestruje.
Świetnie, będzie nam łatwiej. W takm razie poproszę o link do zdjęcia z nie przepalonym słońcem w kadrze.
Tomasz Urbanowicz
24-11-2007, 10:47
A skąd będziesz wiedział ile EV miała ta scena? Jak to po zdjęciu poznasz? Chyba że masz szklaną kulę, ale... ;-)
przecież wg ciebie to obojetne. Podobno skoro da sie zarejestrować scenę 20 EV to da sie tez 30 EV. Tak napisałeś.
Dobrze - spróbujmy inaczej. Odpuśćmy sobie słońce. Poproszę o bok budynku w cieniu. Czas 1/8.000 f=22, iso 100. Mamy szczegóły?
Tomasz Urbanowicz
24-11-2007, 10:53
Obawiam się że nie czytasz dokładnie:
"No to w takim razie największą rozpiętość tonalną mają te aparaty które posiadają jak...
... najniższe ISO
... najkrótszy czas migawki
... najmniejszą wartość f/x obiektywu
przy ISO100, 1/8000s i f/32 możemy więc zarejestrować aż 23EV"
Zapewniam, że "matematyka" i "praktyka" idą tutaj w parze ;)
Tomasz, zobacz, ehm, inkryminowane już wyżej zdjęcia na stronie DPR: http://www.dpreview.com/reviews/olympuse510/page19.asp.
To, że scena ma ileś-tam EV ma znaczenie o tyle, że przesłoną i czasem możesz ją zwiększyć/zmniejszyć. A na matrycę scena pada przecież przez określony czas i przy określonym otworze względnym.
O ile winą za brak szczegółów w cieniach możesz obarczyć rozdzielczość, to przepalenia, to wynik - no właśnie - nasycenia się charakterystyki matrycy (to jak we wzmacniaczu - jak dasz za głośno, dostaniesz "przester" - metalowcy to nazywają 'fuzz tone', ale większości się nie podoba.
Obawiam się że nie czytasz dokładnie:
"No to w takim razie największą rozpiętość tonalną mają te aparaty które posiadają jak...
... najniższe ISO
... najkrótszy czas migawki
... najmniejszą wartość f/x obiektywu
przy ISO100, 1/8000s i f/32 możemy więc zarejestrować aż 23EV"
no to ja poproszę o takie zdjęcie i chce pooglądać szczegóły w cieniach na takim zdjęciu.
taka ekspozycja będzie potrzebna jak pojawi sie słońce w kadrze.Ja chcę popatrzeć na szczegóły w cieniach.
Zapewniam, że "matematyka" i "praktyka" idą tutaj w parze
Napisałem o teorii Tomasza, a ja nie twierdzę, że jego teoria jest w całości prawdziwa. I w tym sęk.
Tomasz Urbanowicz
24-11-2007, 11:13
Jeszcze raz napiszę: dobieramy ekspozycje tak, aby nie było prześwietlenia jeśli zależy nam aby zarejestrować cały zakres tonalny sceny. Jeśli scena ma więcej niż 23 EV to należy zastosować filtr.
przepalenia, to wynik - no właśnie - nasycenia się charakterystyki matrycy (to jak we wzmacniaczu - jak dasz za głośno, dostaniesz "przester" - metalowcy to nazywają 'fuzz tone', ale większości się nie podoba.
Wygląda na to że konstruktorzy matryc chwilowo nie mają w tym temacie żadnych nowości. Patrząc na tryb 'Highlight priotyty' w D80, 40D i 1DMkIII widać że lepszą rozpiętość próbuje się wycisnąć z wyższej rozdzielczości tonalnej matrycy. I ten sposób dobrze pokazuje zależność między tymi dwoma parametrami w aparacie cyfrowym.
Tomasz Urbanowicz
24-11-2007, 11:16
To nic innego jak traktowanie JPG w aparacie np. jakąś krzywą. To samo możemy sobie zrobić na kompie wywołując i eksperymentując z jednym RAW'em.
Aparaty z większą ilością bitów w przetworników mają większe pole do popisu, ale bez przesady - IMO wystarczy spokojnie 12 bitów i tak wywołujemy ostatecznie do JPG, oglądamy zdjęcie na kompie czy wywołane. 8 bitów to tylko 256 odcienie z 4096 jak ma to miejsce w RAW - jest spore pole do popisu.
no to ja poproszę o takie zdjęcie i chce pooglądać szczegóły w cieniach na takim zdjęciu.
taka ekspozycja będzie potrzebna jak pojawi sie słońce w kadrze.Ja chcę popatrzeć na szczegóły w cieniach.
Albo rybki albo akwarium, albo HDR...
Myślę, że tutaj 10kl/s będzie przydatne nawet w krajobrazie ;)
!!! Łączenie podwójnego wpisu !!!
To nic innego jak traktowanie JPG w aparacie np. jakąś krzywą.
Na górze - prawie tak.
Na dole - kompletnie nie!
Zostało to wy-wałkowane już dosyć solidnie przez Janusza Body w wątku o liniowości matrycy.
!!! Łączenie podwójnego wpisu !!!
Wygląda na to że konstruktorzy matryc chwilowo nie mają w tym temacie żadnych nowości. Patrząc na tryb 'Highlight priotyty' w D80, 40D i 1DMkIII widać że lepszą rozpiętość próbuje się wycisnąć z wyższej rozdzielczości tonalnej matrycy. I ten sposób dobrze pokazuje zależność między tymi dwoma parametrami w aparacie cyfrowym.
Zamiast "wycisnąć" napisałbym "zastąpić" ;)
Tak jak pisał ładnie w swoich artykułach Pan Marek Madej http://www.marekmadej.com/strona400.html. W szczególności - co już pisałem wyżej - przy okazji omawiania skanowania ze slajdów i negatywów.
Czyli jak zwykle - nihil novi sub Sole! ;)
!!! Łączenie podwójnego wpisu !!!
Jeszcze raz napiszę: dobieramy ekspozycje tak, aby nie było prześwietlenia jeśli zależy nam aby zarejestrować cały zakres tonalny sceny. Jeśli scena ma więcej niż 23 EV to należy zastosować filtr.
Ale wtedy scena widziana przez matrycę za filtrem rzeczonych 23EV już nie ma... - to tak jak ściszyć przedwzmacniacz w starym porządnym Hi-Fi.
Bagnet007
24-11-2007, 11:51
Założyłem idealną czerń i biel, a także idealną liniowość matrycy, żeby przedstawić to w sposób wydawało mi się najprostszy. Nic nie stoi na przeszkodzie, aby czerń zastąpić kwadratem 10% odbicia światła, a biel 90%. Bardzo proszę:
Zakładamy oświetlenie dające 10 tyś lux, co daje 12EV przy poprzednim przykładzie.
Przy 90% odbicia światła mamy 9000 lux, przy 10% odbicia światła mamy 1000 lux. Zakres tonalny sceny więc wynosi ok. 11,6 EV (mam nadzieje iż nie pomyliłem się).
Ale teraz spróbuj to odwzorować na zdjęciu tak, aby 10% wyglądało na prawie czarny a 90% wyglądało na prawie biały. Będzie problem bo przy takim oświetleniu jeśli ustawimy ekspozycję tak, że czarny będzie ok to biały będzie daleko za zagięciem krzywej charakterystyki czyli stanie się całkiem biały zamiast prawie biały.
Jeszcze raz napiszę: dobieramy ekspozycje tak, aby nie było prześwietlenia jeśli zależy nam aby zarejestrować cały zakres tonalny sceny. Jeśli scena ma więcej niż 23 EV to należy zastosować filtr.
hulaj dusza, piekła nie ma. Róbmy wszystkie zdjęcia na 1/8000 f=32 iso 100 i się nie martwmy. Skoro aparat rejesteruje wtedy 23 EV to zarejestruje i mniejsza rozpiętość?
Zrobiłem przed chwilą takie zdjęcie - tylko 21 EV bo w jasnym szkiełku max f=16. I zdjęcie - jest czarne, bez szczegółów. Nawet nie ma co podlinkowywać.
To wytłumaczysz .....
Zrobiłem przed chwilą takie zdjęcie - tylko 21 EV bo w jasnym szkiełku max f=16. I zdjęcie - jest czarne, bez szczegółów. Nawet nie ma co podlinkowywać.
To wytłumaczysz .....
Proste. Gdyby rozdzielczość tonalna była dużo większa niż 12-bitów np. 256bitów albo i więcej a szum na zerowym poziomie to spokojnie byś sobie wyciągnął z cieni całe zdjęcie :mrgreen:
Tomasz Urbanowicz
24-11-2007, 12:30
Dojdziemy i do szumów (należę chyba do szumofobów :) ) jak i do nieliniowości w górnym zakresie na matrycy.
Na razie próbuję wyjaśnić idee :)
@Jacek_Z
Zajrzyj na Twoje forum i spójrz co Jacek Kardesiewicz wyciągnął z RAW'a z ekspozycją -4EV ;-)
Tomasz mógłby mi odpisac, że do opisania tego zakresu potrzeba więcej niz 23 bitowego zapisu koloru - i miałby w tym rację (podpowiadam). Ale to nie wystarczy. Bo nawet gdyby kolor był 36 bitowy - to nie zobaczy tam szczegółu. Matryca ma swoje ograniczenia i nie przeniesie takiego kontrastu. To tak jak z silnikami. Żaden nie ma 100% sprawności. Modele matematyczne sobie mogą istnieć. Ale zakładaja idealną sytuację - której nie ma w rzeczywistości.
na dprewiev podają rozpietość i jest ona około 8 EV (przy 12 bitowym kolorze). Matryce sa coraz lepsze, przewnoszą więcej info i producenci zwiększają precyzję czytania danych - ostatnio zrobione body pracują najczęściej na 14 bitowym kolorze.
Tomasz Urbanowicz
24-11-2007, 12:41
Jacku na chwilę zapomnij o tym całym dprewiev i postaraj się samodzielnie pomyśleć. Matryca rejestruje liniowo - wiadomo, że nie idealnie liniowo, ale póki co, na tym etapie trzeba to przyjąć. Jak pisałem wcześniej, będzie i o szumie i nieliniowości w górnym zakresie, ale nie w tej chwili.
więc poczekam.
Szczerze - to mam mało energii jak na tak skomplikowana dyskusję, ciagne jednoczesnie kilka tematów, a zawsze wole praktykę od teorii. Wiem co mogę wycisnąć z body, a czego nie. Nawet jak mi matematycznie udowodnisz, że można - to to, co można, mi się nie spodoba. Nie jest akceptowalnej jakości nawet coś o kilkunastu EV, co dopiero mówiąc o 23 EV.
No to ja Was teraz wszystkich pogodzę... :cool:
Na imię mu przetwornik anologowy-cyfrowy - to o to ustrojstwo się tutaj kłócicie.
Bitowość, cyfrowość i matematyka to już jest grubo za późno żeby mówić o rozpiętości tonalnej cyfraka. Na nic nawet 16-bitowy RAW jeśli przetwornik rozpoznaje np. tylko dwa stany: światło i ciemność (skrajny przykład!). Zamiana takiego 1-bitowego sygnału na 16-bitowy to zwykła interpolacja. Coś równie "sensownego" jak zoom cyfrowy... Być może kol. Tomasz Urbanowicz zechce na to odpowiedzieć, że nie istnieje fotokomórka 1-bitowa, bo ilość fotonów wpadających do jej soczewki jest liniowo/analogowo zmienna, niestała i wręcz nieskończenie różna? - Tylko co z tego skoro akurat taki marny przetwornik wyczuwa tylko dwa stany?? (Oczywiście w cyfraku przetwornik jest znacznie bardziej subtelny tonalnie niż taki prosty typ "światło/ciemność".)
Gdyby zaś dla odminay ów przetwornik miał niemal nieskończoną czułość/precyzję i mógł przyporządkować każdej i dowolnej ilości fotonów padającej (w jednostce czasu) unikalną wartość liczbową, to tylko wtedy (późniejsza!) rozdzielczość bitowa mogłaby być jakimś ograniczeniem uzyskiwanej rozpiętości tonalnej cyfraka. Niestety tak nie jest i rozdzielczość bitowa rawów jest prawdopodobnie zawsze większa niż rozdzielczość tonalna przetwornika a/c (no bo odwrotnie to by było marnotrastwo). Dodatkowo szumy w cienach świadczą o bardzo niskiej precyzji odczytu sygnału gdy światła jest mało albo jest mocno wzmocnione metodami nieoptycznymi, czyli niestety tam gdzie miałaby się znajdować chyba wiekszość owej idealnie nieograniczonej rozpiętości tonalnej (jakoby ukrytej w odpowiednio głebokiej głębi bitowej).
Pisałem na początku, że was pogodzę... :mrgreen: Otóż wg mnie ma rację kol. Tomasz U. w swojej teorii/idei zarówno matematycznej jak i analogowej, ale pomija zupełnie (i to w sposób jak zwykle nieco irytujący ;-)) rzeczywistość, czyli w tym przypadku ułomność stworzonego przez nieudolnego człeka urządzenia zwanego potocznie matrycą cyfrową (z przetwornikiem a/c w roli głównej) a co za tym idzie normalną praktykę fotograficzną większości zdumionych tym adwersarzy. Wiec przyjmijmy, że wszyscy mieli trochę racji i podajmy sobie ręce. :mrgreen:
ps Tylko czemu ja mam znowu wrażenie, że kol. Tomasz U. nas tylko prowokuje i gmatwa ile wlezie tylko dlatego, że lubi? :twisted:
Tomasz Urbanowicz
24-11-2007, 17:44
Bitowość, cyfrowość i matematyka to już jest grubo za późno żeby mówić o rozpiętości tonalnej cyfraka. Na nic nawet 16-bitowy RAW jeśli przetwornik rozpoznaje np. tylko dwa stany: światło i ciemność (skrajny przykład!). Zamiana takiego 1-bitowego sygnału na 16-bitowy to zwykła interpolacja.
Chwila, chwila...
W przetworniku AC w aparatach cyfrowych dochodzi do kwantyzacji sygnału analogowego - "schodkowany" jest sygnał analogowy. Sygnał analogowy to odpowiednia wielkość napięcia w zależności od ilości fotonów wpadających w fotocelę. Im przetwornik AC będzie miał więcej bitów, tym łagodniejszy będzie sygnał skwantyzowany, ale nawet zapewne w przetworniku 50 bitowy jeden bit nie będzie odpowiadał jednemu fotonowi :)
Myślę, iż nie ma co wchodzić w budowę i zasadę działania matrycy + przetwornika A/C, bo wątek się rozrośnie i w końcu odbiegnie od głownego tematu.
Dodatkowo szumy w cienach świadczą o bardzo niskiej precyzji odczytu sygnału gdy światła jest mało albo jest mocno wzmocnione metodami nieoptycznymi
Pojawienie się szumów raczej świadczy o dobrej precyzji/czułości odczytu danych z matrycy - raczej świadczy o kiepskiej matrycy w której pojawiają się "lewe" elektrony z sąsiednich cel, niestabilności układu, temperatury itp.
I czy gmatwam sprawę? :)
Zacząłem od modelu stricte teoretycznego. Gdy zrozumie się ten model, można budować dalej teorie modelu praktycznego (rzeczywistego) uwzględniając szum, nieliniowość matrycy w pewnych zakresach, niestabilność układu itp itd.
W przetworniku AC w aparatach cyfrowych dochodzi do kwantyzacji sygnału analogowego - "schodkowany" jest sygnał analogowy. Sygnał analogowy to odpowiednia wielkość napięcia w zależności od ilości fotonów wpadających w fotocelę. Im przetwornik AC będzie miał więcej bitów, tym łagodniejszy będzie sygnał skwantyzowany, ale nawet zapewne w przetworniku 50 bitowy jeden bit nie będzie odpowiadał jednemu fotonowi :)
Myślę, iż nie ma co wchodzić w budowę i zasadę działania matrycy + przetwornika A/C, bo wątek się rozrośnie i w końcu odbiegnie od głownego tematu.
Teraz udowodniłeś, że właśnie tylko o tym trzeba z Tobą podyskutować - albo sie poddać. :mrgreen:
Ja tu widzę 3 etapy (foton, elektryczność, bit) a Ty sugerujesz jakoby były tylko 2 (elektryczność=bit?). Gdyby ten prąd idealnie odpowiadał fotonom a bity prądom to możnaby powiedzieć, że przetwornik jest precyzyjny. Ale te twa przekształcenia są czysto analogowe. W matrycy konieczne są wyjątkowo małe a jednocześnie, jak to mówią górale, sakramencko czułe, precyzyjne i odporne na zakłócenia przetworniki. Takie nie istnieją a my wszyscy mamy taką a nie inną, dość ograniczoną rozpiętość tonalną w aparatach cyfrowych.
Co do wyprowadzenia praktyki z teorii to właśnie cyfrak jest takim wyprowadzeniem, wiec chyba wyważamy otwarte drzwi... :rolleyes:
Tomasz Urbanowicz
24-11-2007, 19:48
Ja tu widzę 3 etapy (foton, elektryczność, bit) a Ty sugerujesz jakoby były tylko 2 (elektryczność=bit?)
Nic takiego nie sugeruję.
Opisałem z grubsza tylko kwantyzacje sygnału elektrycznego, który zależny jest (w miarę liniowo) od fotonów - chyba źle mnie zrozumiałeś.
Naprawdę nie chcę drążyć tematu budowy i całego procesu który zachodzi jak także nowinek technicznych z tego rodzaju. Zdaję sobie sprawę z nieidealnych matrych, przetworników A/C i całej reszty - to jest i będzie, można tylko minimalizować odchyłki itp itd.
A o rozpiętości tonalnej cyfrówki już wcześniej napisałem. Nigdzie nie pisałem że jest nieograniczona (ograniczona jest wartościami kwantyzacji z iluś tam bitowego przetwornika).
Patrzysz Panie jak pieprzy dyrdymały i nie grzmisz... Ech...
Nic nie stoi na przeszkodzie, aby czerń zastąpić kwadratem 10% odbicia światła, a biel 90%. Bardzo proszę:
Zakładamy oświetlenie dające 10 tyś lux, co daje 12EV
12 EV zmierzono światła padającego, OK
przy poprzednim przykładzie.
Przy 90% odbicia światła mamy 9000 lux, przy 10% odbicia światła mamy 1000 lux. Zakres tonalny sceny więc wynosi ok. 11,6 EV (mam nadzieje iż nie pomyliłem się).
Pomyliłeś się.
Zmierzono światło odbite od ciemnego, wyszło 1000 lux, co daje niecałe 9EV.
Zmierzono odbite od jasnego, wyszło 9000 lux, czyli ciut poniżej 12 EV.
Różnica (rozpiętość sceny): około 3EV
Druga próba: oświetlamy światłem słonecznym w słoneczny dzień: padające około 150000 luxów, 16EV
Pomiar odbitego od ciemnego: 15000 luxów, ponad 12.5EV
odbite od jasnego: 135 000lux, niecałe 16EV
Różnica: około 3EV.
Dobór ekspozycji zapewni, że do aparatu wpadnie tyle samo światła w pierwszym i w drugim przypadku.
Tak wynika z ukochanych przez Ciebie cyferek, z przytoczonego przez Ciebie eksperymentu myślowego.
Jeszcze raz chciałbym powiedzieć, iż nie jest problem z zarejestrowaniem sceny z dużym zakresem np. 20EV, bo jak wykazałem wcześniej da się odpowiednio dobierając ekspozycje.
Buahahahaha!
Weźmy jeszcze taki przykład:
(...)
Oświetlamy tak mocnym światłem żeby światłomierz pokazywał 20EV (różnice między bielą a czernią).
Z tego co piszesz wynika, że nie masz pojęcia co pokazuje światłomierz.
Gdzie ma być te 20EV?
Bo jeśli padającego, to OK, możesz tak oświetlić.
Ale przy pomocy światła nie zmienisz proporcji światła które ten zestaw kwadracików odbije. Za cholerę się nie da. Oświetlisz mocniej - odbije się mocniej. Oświetlisz słabiej - odbije się również słabiej.
Różnicę w EV między najjaśniejszym i najciemniejszym kwadracikiem światłomierz pokaże zawsze identyczną (zakładając ilość światła umożliwiającą dokonanie pomiaru, bez światła nic nie zobaczysz, światłomierz i aparat również i żadnego zdjęcia nie zrobisz)
Dobieramy ekspozycje tak, aby biel była na "krawędzi matrycy", czyli w:
a) 1024,
b) 4096
c) 16384
Dobieramy tak, aby biel była poniżej maksymalnej możliwej do zarejestrowania wartości. Czyli tyle ile dany aparat potrafi zarejestrować.Odczep się od tych potęg dwójki, dobra?
Na histogramie zobaczymy "grzebień" który na różnych aparatach będzie miał różne szerokości przerw (w przypadku trzecim będzie to taki bardzo rozlazły grzebień).
Następnie robimy zdjęcie gradietnowi 0-100%, który jest z krokiem 0,01. Czyli gradient składa się 10000 prostokącików. Oświetlamy jak wyżej.
Widzimy, że aparat pierwszy już nie odwzorowuje wszystkich odcieni, drugi również, trzeci tak.
Odcieni, zgadza się. Ale teraz nie odwracaj kota ogonem ani się chyłkiem nie wycofuj zmieniając temat. Mówiliśmy o zakresie tonalnym, nie jego jakości.
Chciałem przez to pokazać, że nie jest ważna rozpiętość tonalna sceny w EV. Powinny raczej być urządzenia które liczyłyby ilość odcieni w scenie.
Chciałeś powiedzieć, że zwyczajnie nie wiesz co znaczy rozpiętość tonalna sceny, co znaczy zakres odwzorowany z tej sceny na zdjęciu ani sposób odwzorowana (gęstość na kliszy, wartość piksela (zależna od maksymalnej, czyli Twoich ukochanych bitów!!!) w cyfrze)
Z trzeciej strony proszę zwrócić uwagę, że człowiek potrafi rozróżnić patrząc na scenę do 150 odcieni. Wzrok ludzki ma charakter adaptacyjny - potrafimy się dostosować do warunków oświetleniowych. Gdy mamy scenę o dużej rozpiętości np. 20EV mróżymy oczy żeby zobaczyć coś w cieniach ("zakładamy filtr"), lub przy mniejszej rozpiętości np. 10EV świadomie "przepalamy" światła aby więcej zobaczyć w cieniach i odwrotnie, kiedy zależy nam na światłach podświadomie "nie doświetlamy" cieni.
Nie próbuj bardziej skomplikować, najpierw zrozum o czym piszesz, potem wtrącaj dygresje.
Matryca w 350D potrafi tych odcieni w idealnym przypadku odróżnić 4096. JPG lub TIFF nawet 16 bitowy wyświetlamy na monitorze również jest pokazany 8 bitowo. 8 bitów to tylko (albo dla człowieka aż) 256 odcieni. Proszę zwrócić uwagę jaki jest to odsetek odcieni i informacji z RAW.
Oczywiście 23EV odnosi się do sceny jaką może aparat może maksymalnie zarejestrować bez przepalenia (sam sobie poniekąd odpowiedziałeś) :)
Jakie znowu 23EV? Człowieku, obudź się.
Pisałeś, że oko przepali część. Tak samo zrobi każdy aparat i każdy materiał. Oko rejestruje w sposób ciągły i mózg potem to interpretuje, wzrokiem omiatasz mały wycinek kątowy przestrzeni, wełbie składasz sobie z tego całość.
W aparacie nie założysz filtra na wycinek fotografowanej sceny.
[EDIT]: Sorry, założysz, np połówkowy. Ale wtedy masz już zawężony zakres tonalny, a nie o tym mowa była nasza płynna...
No to ja Was teraz wszystkich pogodzę... :cool:
Na imię mu przetwornik anologowy-cyfrowy - to o to ustrojstwo się tutaj kłócicie.
Próbowałem to już pisać. Według mnie prościej jest powiedzieć, że taki przetwornik ma ograniczony zakres działania. Nie istotne iloma bitami opisuje to co widzi. Dla niego dostrzegalne jest coś powyżej pewnej ilości i nieprzekraczające innej maksymalnej ilości. Mniej światła spowoduje czarną plamę, więcej niż max - białą.
Ekspozycja (czas, przysłona) ma jedynie ustawić, by światło ze świata ograniczyć (górę i dół proporcjonalnie tak samo) akurat do tych wartości możliwych do odróżnienia przez przetwornik.
Tomasz Urbanowicz
25-11-2007, 09:25
Patrzysz Panie jak pieprzy dyrdymały i nie grzmisz... Ech...
12 EV zmierzono światła padającego, OK
Pomyliłeś się.
Zmierzono światło odbite od ciemnego, wyszło 1000 lux, co daje niecałe 9EV.
Zmierzono odbite od jasnego, wyszło 9000 lux, czyli ciut poniżej 12 EV.
Różnica (rozpiętość sceny): około 3EV
Druga próba: oświetlamy światłem słonecznym w słoneczny dzień: padające około 150000 luxów, 16EV
Pomiar odbitego od ciemnego: 15000 luxów, ponad 12.5EV
odbite od jasnego: 135 000lux, niecałe 16EV
Różnica: około 3EV.
Dobór ekspozycji zapewni, że do aparatu wpadnie tyle samo światła w pierwszym i w drugim przypadku.
Tak wynika z ukochanych przez Ciebie cyferek, z przytoczonego przez Ciebie eksperymentu myślowego.
Oczywiście racja - za szybko odpowiadam :)
Weźmy taki więc przykład (taka symulacja dużego zakresu tonalnego):
Biały prostokąt (np. 99% odbicia światła) i czarny prostokat (np. 0,01% odbicia światła). Oświetlamy światłem o 100000 luksów. Co mamy?
- biały (99% odbicia światła) - 99000 lux, czyli 15,3EV
- czarny (0,01% odbicia światła) - 10 lux, czyli 2 EV
Zakres tonalny wynosi 15,1EV. Zgadza się?
Czy uważasz, że nie zarejestrujesz na jednym zdjęciu (odpowiednio dobierając ekspozycje aby nie przepalić białego) robiąc aparatem cyfrowym dwóch prostokątów: białego i czarnego? Zmieńmy teraz czarny prostokąt na jaśniejszy np. 0,1% odbicia światła.
- czarny (0,1% odbicia światła) - 100 lux, czyli 5,3EV.
Zakres tonalny wynosi 10EV. Zgadza się?
I znów jak poprzednio dobieramy ekspozycje aby nie przepalić bieli. Czy uważasz że na jednym zdjęciu nie zarejestrujesz bieli i czerni?
Dołóżmy następny prostokąt o 50% odbiciu światła. W pierwszym przypadku będziemy mieli:
- czarny (0,01% odbicia światła) - 99000 lux, czyli 15,3EV
- szary (50% odbicia światła) - 50000 lux, czyli 14,3EV
- biały (99% odbicia światła) - 10 lux, czyli 2 EV
Zakres tonalny się nie zmieni - 15,1EV
Czy uważasz że nie zarejestrujesz na jednym zdjęciu 3 prostokątów:
- czarnego,
- szarego,
- białego?
Już całkiem OT:
Wydaję mi się, że chyba za dużo przesiadujesz na pyryfy i pyryfycy - przesiąkłeś aroganckimi odpowiedziami np. pana Lewandowskiego...
Tomasz Urbanowicz
25-11-2007, 11:53
Zakładają stricte liniowość matrycy przyporządkujmy wartości światła odbitego do wartości aparatu z 12 bitowym przetwornikiem. Załóżmy że tak dobraliśmy ekspozycję, aby bieli przypada wartość 4000 wartości z 12 bitowego kwantyzowania.
Pierwszy przypadek z czernią 0,01% odbiciem światła:
- biały: 4000,
- szary: 2020,
- czarny: 0,4 czyli 0.
Przypadek z czernią 0,1%:
- biały: 4000,
- szary: 2020,
- czarny: 4.
Pomijam tu celowo szum - w obu przypadkach na zdjęciu zobaczymy najjaśniejszą wartość bez przepalania, jak i najciemniejszą.
W pierwszym przypadku nie rozróżnimy na zdjęciu wartości 10 lux od 15 lux, ale nie znaczy to, że nie zarejestrujemy zakresu 15,1EV - problem będzie z dokładnością, czyli rozdzielczością tonalną. Jednak w moim przykładzie są tylko 2 i 3 wartości mimo dużego zakresu tonalnego - dlatego też wspomniałem o, jak Ty to piszesz, jakości tonalnej, czyli ilość odcieni w scenie.
Podobnie jakbyśmy mieli 2 linijki z zakresem od 0 do 100 cm. W jednym przypadku byłaby podziałka co 1 cm (100 podziałek), w drugim co milimetr (1000 podziałek). Obiema linijkami mierzymy "rozsypane odcinki" z zakresu długości od 0,1 do 99 cm. Każda linijka posiada odpowiedni zakres pokrywający długość odcinków, tylko że jedną potrafimy dokładniej zmierzyć odcinki, drugą zdecydowanie mniej dokładnie.
Proszę sobie jeszcze odpowiedzieć jak taką scenę o zakresie tonalnym 15,1EV zobaczy człowiek.
Tylko pierwszy przykład:
Owszem, nie zarejestruję. Ustawiając tak, by światła były na skraju przepalenia, zarówno czarniejszy czarny jak i mniej czarny czarny (10EV mniej niż max) będą nieodróżnialne i się nie naświetlą.
Za mało będzie światła by pobudzić w ogóle sensor do działania.
Powiedziałem już wszystko co wiedziałem, z mojej strony EOT.
Weźmy taki więc przykład (taka symulacja dużego zakresu tonalnego):
Biały prostokąt (np. 99% odbicia światła) i czarny prostokat (np. 0,01% odbicia światła). Oświetlamy światłem o 100000 luksów. Co mamy?
- biały (99% odbicia światła) - 99000 lux, czyli 15,3EV
- czarny (0,01% odbicia światła) - 10 lux, czyli 2 EV
Zakres tonalny wynosi 15,1EV. Zgadza się?
Czy uważasz, że nie zarejestrujesz na jednym zdjęciu (odpowiednio dobierając ekspozycje aby nie przepalić białego) robiąc aparatem cyfrowym dwóch prostokątów: białego i czarnego?
Zmieńmy teraz czarny prostokąt na jaśniejszy np. 0,1% odbicia światła.
- czarny (0,1% odbicia światła) - 100 lux, czyli 5,3EV.
Zakres tonalny wynosi 10EV. Zgadza się?
I znów jak poprzednio dobieramy ekspozycje aby nie przepalić bieli. Czy uważasz że na jednym zdjęciu nie zarejestrujesz bieli i czerni?
te dwa zdjęcia będą wyglądały (prawie) identycznie.
oglądający dwa zdjęcia nie odróżni czarnego prostokata będącego naświetlonego na -15EV od tego naświetlonego na -10 EV (no, w tym prostokąciku będącym na granicy da juz jakieś wartości)
zakładam jak i ty naświetlenie na światła (biel)
Tomasz Urbanowicz
27-11-2007, 10:30
Jeszcze Wam nie dam spokoju :)
Zakładamy liniowość matrycy bo taka z grubsza jest. Załóżmy że jest stricte liniowa, bez szumów itp.
Niech nasza scena przedstawia gradient o 256 odcieniach (zakres 8EV).
Mamy do dyspozycji 3 aparaty które ustawiamy tak, aby nie przepalić bieli na "krawędzi matrycy":
- 4 bitowy,
- 2 bitowy,
- 1 bitowy.
Trzymając się definicji liniowości nasze aparaty zarejestrują w ten sposób tą scenę:
https://canon-board.info//brak.gif
źródło (http://img187.imageshack.us/img187/2103/rozpitoscxb1.jpg)
Mimo tego, że na zdjęciu na każdym z aparatów nie widać 256 odcieni, jesteśmy w stanie pokazać najciemniejszy jak i najaśniejszy punkt sceny. Czyli posiadamy narzędzie (bardzo niedokładne) które potrafimy tak wyskalować, aby moc bez przepalenia pokazać biel i "czarną dziurę" czyli 0.
To, że w ostatnim aparacie nie przedstawimy na przykład wartości 1, 2 czy nawet 100 nie oznacza, że nie możemy przedstawić 0.
Podobnie jest z monitorem. Załóżmy, że mamy 2 monitory:
- 8 bitowy,
- 1 bitowy.
Oba mają identyczny kontrast np. 1000:1 tj. czerń będzie na poziomie 0,1 cd/m2, biel 100 cd/m2. Na jednym i drugim wyświetlamy gradient od 0 do 255 gdzie 0 odpowiada naszej czerni, a 255 naszej bieli.
Każdy z nich potrafi pokazać najjaśniejszy stopień gradientu (biel = 255 = 100 cd/m2) i najciemniejszy (czarny = 0 = 0,1 cd/m2). Mierzymy światłomierzem rozpiętość tonalną naszego gradientu na monitorze. Co się okaże? Że na jednym i drugim rożnica (czyli zakres tonalny) będzie taki sam. Czyli mam urządzenie które potrafi pokazać duży zakres tonalny - z tym, że na jednym rozróżnimy wszystkie odcienie, na drugim nie. Ale o tym nie decyduje zakres tonalny, lecz rozdzielczość tonalna urządzenia.
to co piszsz jest OK, ale to nie zmienia nic w kwestii zasadniczego sporu o zakres tonalny możliwy do przeniesienia przez aparat cyfrowy
Tomasz Urbanowicz
27-11-2007, 11:45
Jacku, nie zakres tonalny, lecz rozdzielczość tonalną.
- Tylko, że my tu mówimy o matrycy analogowo-cyfrowej a nie o jakimś wyidealizowanym wyświetlaczu... (Nadążam jeszcze, czy coś pominąłem?)
Jeśli przyjąć, że rzeczywista rozpiętość tonalna sceny (takiej z tlenem i ptaszkami ;-)) to pełne 0-255 (lub 0-15, 0-3, 0-1), to po przerobieniu tego przez naszą kochaną matrycę otrzymamy np. mniej więcej: 200-255 lub 13-15 oraz uwaga! 3-3 i 1-1. Czyli samą biel, czyli zerową rozpiętość przy nadmiernej rozdzielczości tonalnej.
ps Miałem już tego nie ciągnąć, ale cooo mi tam... ;-)
Tomasz Urbanowicz
27-11-2007, 12:10
Wyjaśnij raz jeszcze o co Ci chodzi, bo przyznam nie rozumiem.
Jacku, nie zakres tonalny, lecz rozdzielczość tonalną.
no to chyba faktycznie nie możemy sie dogadac, bo dyskutujemy o róznych sprawach. Przypomnę temat watku: Zakres tonalny w cyfrze .
To co napisałeś ostatnio jest "obok" tematu. Nie dyskutujemy o tym co może matematyka wyciagnąć z 12 czy 14 bitów, ani jak cyfrowo przełożyć luksy na zapis 12 bitowy. Bo po środku leży ograniczająca nas matryca. Czego teoretycy ciągle nie chcą zauważyć i to ignorują. Teoretycznie to sobie w tym momencie można zrobić zapis koloru 16 bitowy i rejestrowac 16 EV. Praktycznie - nie.
Tomasz Urbanowicz
27-11-2007, 12:15
Jacku ja starałem się tylko przedstawić, że mylone są pojęcia: zakres tonalny z rozdzielczością tonalną. Wy cały czas piszecie o rozdzielczości tonalnej (chcecie zmieścić wszystkie EV z danego zakresu), a temat przecież jest zakres tonalny.
ps Miałem już tego nie ciągnąć, ale cooo mi tam... ;-)
Wyjaśnij raz jeszcze o co Ci chodzi, bo przyznam nie rozumiem.
I już żałuję... :sad:
Jacku ja starałem się tylko przedstawić, że mylone są pojęcia: zakres tonalny z rozdzielczością tonalną. Wy cały czas piszecie o rozdzielczości tonalnej (chcecie zmieścić wszystkie EV z danego zakresu), a temat przecież jest zakres tonalny.
Oooo, wierz mi istnieją trudniejsze pojęcia do pojęcia... To tak trochę poniżej pasa. ;-)
Nie będę wyjąśniał tego co pisałem poprzednio, bo to kwintesencja różnic między rozpiętością a rozdzielczością tonalną, a tego jak rozumiem nie muszę tłumaczyć...
Jednak z mojej stony EOT... :oops:
Tomasz Urbanowicz
27-11-2007, 12:28
Nie będę wyjąśniał tego co pisałem poprzednio, bo to kwintesencja różnic między rozpiętością a rozdzielczością tonalną, a tego jak rozumiem nie muszę tłumaczyć...
Ale ja naprawdę nie rozumiem co chciałeś przez to przekazać i wcale sobie nie dworuję :)
Tak troche poczytalem i gdzies mi sens uciekl tej rejestracji superzakresu ;)
Po co komu rejestrowac taki zakres tonalny, jezeli finalnie uzyska sie obraz 1 bitowy (czern, biel)? Przeciez w przetworniku clipping poleci zarowno na dolach jak i w gorach?
Tomasz Urbanowicz
27-11-2007, 12:35
Po co komu rejestrowac taki zakres tonalny, jezeli finalnie uzyska sie obraz 1 bitowy (czern, biel)? Przeciez w przetworniku clipping poleci zarowno na dolach jak i w gorach?
Ale odpowiedz sobie: czy jesteś w stanie takim aparatem jednobitowym zarejestrować na jednym zdjęciu najjaśniejszy i najciemniejszy punkt w scenie? Najciemniejszy będzie miał wartość 0 najjaśniejszy wartość 1:
http://canon-board.info/showpost.php?p=395522&postcount=189
Dam już Wam spokój (co miałem powiedzieć napisałem) :)
Ja też już EOT.
Ale ja naprawdę nie rozumiem co chciałeś przez to przekazać i wcale sobie nie dworuję :)
Taa, akurat... :mrgreen:
Pisałem w prostym nawiązaniu do Twoich czterech gradientów rózniących się głębią bitową. Nie wiem co tu jeszcze wyjaśniać... Może to, że te gradienty nie odpowiadają zachowaniu matrycy w większości dolnego zakresu? :confused: Ale ileż można powtarzać? W końcu nawet w tym wątku do czegoś już doszliśmy. A Ty znowu próbujesz wracać do początku.. :(
Jak poprzednio pisałeś (ale chyba skasowałeś), że przepraszasz za zamieszanie, to mi trochę ulżyło i miałem ochotę napisać Welcome back! :lol: ale teraz napiszę Farewell Mr. Tomasz... :rolleyes:
!!! Łączenie podwójnego wpisu !!!
Ale odpowiedz sobie: czy jesteś w stanie takim aparatem jednobitowym zarejestrować na jednym zdjęciu najjaśniejszy i najciemniejszy punkt w scenie? Najciemniejszy będzie miał wartość 0 najjaśniejszy wartość 1
Najjaśniejszy i najciemniejszy może/będzie mieć wartość 1. Zerowa rozpiętość, nadmierna rozdzielczość. EOT EOTowi nie równy. Jeszcze jeden EOT. :mrgreen:
Tomasz Urbanowicz
27-11-2007, 14:15
Pisałem w prostym nawiązaniu do Twoich czterech gradientów rózniących się głębią bitową. Nie wiem co tu jeszcze wyjaśniać... Może to, że te gradienty nie odpowiadają zachowaniu matrycy w większości dolnego zakresu?
Spytam jeszcze raz o czym Ty piszesz:
0-255
0-15
0-3
0-1?
1. Co oznaczają te wartości (i z jakim krokiem jest ten zakres)?
2. Czemu i wg jakiej logiki na matrycy przypisałeś takie a nie inne wartości?
3. Ilu bitowa jest ta ukochana matryca?
W dalszym ciągu nie rozumiem o czym piszesz.
Załóż liniowość matrycy, a także takie ustawienie naświetlania/ustalenie warunków sensora/ekspozycji aby maksymalna wartość sceny odpowiadała maksymalnej wartości na matrycy.
Miał być EOT ale nie lubię niejasności. Gdy to sobie wyjaśnimy będzie z mojej strony EOT :)
Spytam jeszcze raz o czym Ty piszesz:
0-255
0-15
0-3
0-1?
https://canon-board.info//brak.gif
źródło (http://img187.imageshack.us/img187/2103/rozpitoscxb1.jpg)
A takie wykresy (http://www.slrcamerainfo.com/article.php?filename=Dynamic-Range-and-Clipping) cos nam mowia o zakresie tonalnym?
Tomasz Urbanowicz
27-11-2007, 14:49
@ewg
Nie wiem czy dobrze odczytałeś ten rysunek. Scena ma zakres od 0 do 255 wartości.
Następne gradienty to taka symulacja liniowości matrycy, zdjęcia które zostałyby zrobione następującymi aparatami 4,2,1 bitowymi z odpowiednim ustawieniem ich parametrów (o których pisałem nie raz).
Gdyby scena wyglądała tylko z 4 odcieni tj. 0-3, zdjęcia z każdych z aparatów wyglądałyby tak jakoś tak:
1. 0 -> 0
1 -> 5
2 -> 10
3 -> 16
(wszystkie odcienie zostaną zarejestrowane)
2. 0 -> 0
1 -> 1
2 -> 2
3 -> 3
(wszystkie odcienie zostaną zarejestrowane)
3. 0 -> 0
1 -> 0
2 -> 1
3 -> 1
(tutaj tylko dwie skrajne wartości zostaną zarejestrowane)
Niech nasza scena przedstawia gradient o 256 odcieniach (zakres 8EV).
Ja też deklarowałem EOT, ale widzę, że jednak mogę się czegoś nauczyć.
Wyjaśnij mi proszę, bo pojąć nie mogę, w jaki sposób przeliczasz 256 odcieni na 8EV?!?
Wcześniej pisałeś, ze wróżki ze szklaną kulą trzeba by to odgadnąć.
Jacku ja starałem się tylko przedstawić, że mylone są pojęcia: zakres tonalny z rozdzielczością tonalną. Wy cały czas piszecie o rozdzielczości tonalnej (chcecie zmieścić wszystkie EV z danego zakresu), a temat przecież jest zakres tonalny.
No właśnie, odwracasz teraz że niby miałeś rację bo pisałeś o czym innym.
A takie wykresy (http://www.slrcamerainfo.com/article.php?filename=Dynamic-Range-and-Clipping) cos nam mowia o zakresie tonalnym?
O, wreszcie. Proszę bardzo, krzywe charakterystyczne wyznaczone dla cyfer.
Fakt, że zależnie od sposobu ,,wołania'' rawa, ale zawsze coś.
Proszę zwrócić uwagę, że zakres odpowiedzi materiału podany jest w % (zamiast normalnie w gęstości i skala jest inna, ale to dlatego, że piksele nie mają gęstości i opisuje się je inaczej), a nie w bitach czy wartościach (tam te 255 jest tylko dla orientacji). % czyli od 0 (czarne), do 100 (białe)
TomaszuU, poczytaj proszę, co to są krzywe charakterystyczne, przeanalizuj je, sprawdź jak wyglądają dla materiałów analogowych (tak, tak, nie obawiaj się tego, to nie gryzie a i w chemii babrać się nie będziesz musiał, tylko poczytaj i spróbuj zrozumieć). W powyższym linku narysowane są takie same wykresy. Ilustrują, że nie ma ogólnej zależności między rozpiętością sceny a rozpiętością materiału na którym to rejestrujesz. Jest szczególna - dla każdego przetwornika elektronicznego i dla każdego materiału analogowego inna.
Aha, i przestań myśleć bitami. Kwantyzacja to tylko sposób na ilustrowanie rzeczywistości przy pomocy komputera.
Tomasz Urbanowicz
28-11-2007, 08:35
Wyjaśnij mi proszę, bo pojąć nie mogę, w jaki sposób przeliczasz 256 odcieni na 8EV?!?
Wcześniej pisałeś, ze wróżki ze szklaną kulą trzeba by to odgadnąć.
Nie przeliczam - tak założyłem.
Poddaje się :)
Przyjmijmy ostatecznie że zakres tonalny sceny jaki potrafi zarejestrować matryca (czy cokolwiek) to rejestracja maksimum (bez przepalenia) jak i minimum (bez zerowej wartości, no chyba że rejestrujemy scenę z idealną czernią). OK?
Wypijmy piwo za zdrowie tych, którzy wytrzymali do końca w tym wątku :)
Nie przeliczam - tak założyłem.
No, warto było to napisać.
Przyjmijmy ostatecznie że zakres tonalny sceny jaki potrafi zarejestrować matryca (czy cokolwiek) to rejestracja maksimum (bez przepalenia) jak i minimum (bez zerowej wartości, no chyba że rejestrujemy scenę z idealną czernią). OK?
Bo tak jest właśnie. Z każdym rejestrowanym bądź przetwarzanym sygnałem, nie tylko cyfrowym, nie tylko świetlnym.
Wypijmy piwo za zdrowie tych, którzy wytrzymali do końca w tym wątku :)
Z grubą chęcią i wielką przyjemnością.
Jakieś propozycje co do terminu i lokalizacji?
No i po 200 postach w tym wątku pojawił się wniosek, że w sytuacji, gdy w kadrze spotyka się ostre światło i cień, to można sobie praktycznie jedynie HDRem lub filtrami połówkowymi pomóc :)
Swoją drogą raziły mnie pewne matematyczne uproszczenia, ponieważ z jednej strony miały służyć do wyjaśnienia podstawowych zasad, a z drugiej momentami wyciągano na ich podstawie zbyt daleko idące wnioski, a takowenie tolerują uproszczeń :)
//edit
O kurde, nie zauwazyłem ostatnich 8 postów... A już myślałem, że będzie EOT :D
Tomasz Urbanowicz
01-12-2007, 11:44
Chodziło raczej o rozróżnienie zakresu tonalnego z rozdzielczością tonalną - ale nie mam już siły tego ciągnąć :)
Z mojej strony już EOT
Odgrzeję kotleta.
Ja bym chciał wyjaśnić sobie jednoznacznie dwa pojęcia:
- pomiar na światła;
- wywołanie na światła.
Czasem te pojęcia plączą się w sieci.
- Pomiar na światła logicznie wykorzystuje maksymalnie rozpiętość tonalną przetwornika. No, chyba że słońce jest w kadrze :-).
- Wywołanie na światła nie dopuszcza do przepaleń.
Powered by vBulletin® Version 4.2.5 Copyright © 2025 vBulletin Solutions, Inc. All rights reserved.