Strona 1 z 8 123 ... OstatniOstatni
Pokaż wyniki od 1 do 10 z 72

Wątek: #22 Liniowość matrycy i co z tego wynika

  1. #1
    Moderator Awatar Janusz Body
    Dołączył
    Apr 2004
    Miasto
    Szczecin
    Wiek
    71
    Posty
    5 757

    Lightbulb #22 Liniowość matrycy i co z tego wynika

    Oczy.

    Chcąc nie chcąc, żeby móc sensownie pisać o widzeniu świata przez aparat cyfrowy, trzeba zacząć od tego jak działają nasze oczy. Widzimy mały wycinek z całego zakresu fal elektromagnetycznych. Na dodatek nasze oczy mają ogromne zdolności adaptacyjne a mózg potrafi sygnały z nerwów ocznych zinterpretować w sposób nieosiągalny dla współczesnych kamer cyfrowych. W ludzkim oku są dwa typy "sensorów"". Jedne potrafią zmierzyć tylko luminancję (świeci czy nie i jak silnie) - to tak zwane pręciki (ang. rods). Drugie kolor. To czopki (ang. cones). Pobudzenie czopków jest zależne od długości fali. Podział jest zbliżony do RGB ale czopkii "zielone", "czerwone" i "niebieskie" widzą pewien zakres długości fali. Zakresy zachodzą na siebie a ich maksima przypadają w pobliżu tego co nazywamy RGB.

    Sensorów od luminancji (pręcików) jest w oku od 70 do 140 milionów (różne źródła różnie podają). Czopków rozróżniających kolor jest znacznie mniej, tylko 6-7 milionów. Nasze "czujniki" koloru pozwalają nam rozróżnić od 120 do 200 odcieni dla każdego z kolorów w zależności od natężenia. Przy słabym świetle działają dobrze tylko pręciki luminancji, stąd czarno-białe widzenie w słabym świetle i "w nocy wszystkie koty są czarne". Ich czułość wielokrotnie przewyższa zdolność postrzegania kolorów. Widzimy w bardzo słabym świetle nie tak dobrze jak pies czy kot ale daleko lepiej niż się zwykle wydaje. Dodatkowo nasze oczy inaczej - lepiej widzą kolor zielony - potrafimy rozróżnić dwukrotnie więcej odcieni zieleni niż czerwieni czy błękitów. Nic dziwnego jeśli wyjrzeć przez okno latem. Według obecnej wiedzy mamy ok. 64% czerwonych, 32% zielonych i tylko 2% niebieskich czopków (tu też są różnice pomiędzy źródłami). Różnice pojawiają się w "czułości" - najbardziej czułe są "sensory"" niebieskie. Pręciki (rods) w ogóle nie widzą pasma czerwonego. To dlatego instrumenty w samochodzie, na statku czy w samolocie świecą na czerwono - nie ma to wpływu na zdolność nocnego widzenia.

    Gamma i rozpiętość tonalna

    Kamera cyfrowa (sensor CCD lub CMOS) widzi światło inaczej niż oczy ludzkie. Sensor kamery zlicza fotony padające na poszczególne foto-elementy i liniowo (wprost-proporcjonalnie) do tego zapisuje obraz. To zliczanie fotonów nie jest taką dużą przenośnią bo każdy foton uderzający w fotocelę powoduje powstanie jakiegoś napięcia elektrycznego. Wielkość tego napięcia jest wprost proporcjonalna do liczby fotonów. Oczy w połączeniu z przetwornikiem jakim jest nasz mózg działają inaczej. Nasze widzenie jest mocno nieliniowe. Im więcej światła pada na czopki (ang. cones) na dnie oka tym mocniej jest ono tłumione. Taki wzmacniacz o różnym współczynniku amplifikacji - im słabszy sygnał tym większe wzmocnienie a silny sygnał powoduje najpierw tłumienie a potem "zatkanie" wzmacniacza. Właściwie to "odwrotność" wzmacniacza - osłabiacz raczej. Oczy potrafią łatwiej ocenić drobne różnice przy małych poziomach sygnału. Dużo gorzej oceniamy różnice poziomów przy silnym świetle. Nasze oczy są dobre "w cieniach" i słabsze "w światłach". Błona filmowa została stworzona 'na obraz i podobieństwo' naszych oczu i w zbliżony sposób reaguje na światło. Pewnie dlatego, że to też chemia.

    Kodowanie gamma to nic innego jak próba sprowadzenia obrazu zapisanego przez sensor kamery do sposobu widzenia naszych oczu. Gamma 1.0 to liniowe widzenie sensora. Nasze oczy to gamma gdzieś pomiędzy 2.0 a 3.0
    Gamma to funkcja:

    Output = Input ↑ Gamma

    Gdzie: Input – poziom sygnału na wejściu normalizowany do przedziału <0, 1>.
    a symbol ↑ oznacza "do potęgi.

    Tak naprawdę funkcja jest nieco bardziej skomplikowana – zwykle przedstawiana jest jako wielomian – ale praktycznie przybliżenie tak jak wyżej w zupełności wystarczy. Jak wygląda wykres takiej funkcji to chyba wszyscy wiedzą ale „w razie czego” warto zajrzeć tu:
    http://www.dpreview.com/learn/?/Glos...g/Gamma_01.htm

    Skutek naszego logarytmicznego widzenia w porównaniu z kamerą cyfrową jest łatwy do przewidzenia. Liniowe widzenie kamery powoduje, że proporcjonalnie mniej bitów jest wykorzystywanych do zapisu różnych poziomów luminancji w cieniach. Stosunkowo duża część "pola widzenia" - i duża liczba bitów - poświęcona jest zapisowi świateł. Stąd już prosta droga do stwierdzenia, że cyfra jest dobra "w światłach" i słabsza "w cieniach". Około 3/4 ogółu bitów zużytych na zapis to "światła" - cienie to tylko pozostała 1/4.

    Dalszą konsekwencją tego sposobu zapisu jest wniosek, że przyciemnianie obrazu cyfrowego jest dużo bezpieczniejsze od rozjaśniania. Przyciemnianie przesuwa więcej bitów w kierunku cieni, gdzie nasze oczy są bardziej czułe, niejako "scieśnia" bity i zwiększa ilość informacji w miejscu w którym oczy wspaniale to wykorzystają. Rozjaśnianie natomiast "rozciąga" niewielką ilość bitów zużytych do zapisu cieni na szersze pole bitowe zwiększając rozpiętość tonalną. Co się więc dzieje? "Produkujemy" informację, której w oryginalnym zapisie po prostu nie ma, zwiększamy tym samym szumy i posteryzację. Często pojawia się "banding" (paskowanie). Nasze oczy doskonale widzą nawet drobne różnice w cieniach więc z łatwością spostrzegamy wszystko co złe.

    No i mamy całe wyjaśnienie dlaczego w fotografii cyfrowej musimy naświetlać "odwrotnie" jak w analogu. Naświetlać na światła i wywoływać na cienie.
    Tak widzą nasze oczy. Półcienie leżą w środku zakresu (zaznaczone kropką)


    A tak widzi kamera:


    Pójdźmy teraz o krok dalej. Rozłóżmy liniowy obrazek z kamery na "czynniki pierwsze". Załóżmy, że rozpiętość tonalna matrycy wynosi 6 f-stopów. Wiem, że niektórzy powiedzą "to nieprawda, nie ma tyle...". Napisałem "załóżmy" bo chodzi o pokazanie czegoś gdzie parzysta ilość akurat ułatwia wyjaśnienia. Zresztą współczesne (2006) dSLRy mają taką rozpiętość tonalną. To, że często tego nie dostrzegamy wynika również z tego co poniżej.

    Jeśli przyjąć, że kamera jednak ma te 6 f-stopów i zapisuje w 12 bitach to górna połówka (tak, tak, całe pół paska na obrazku) to jeden f-stop czyli 4096/2 = 2048 odcieni. Tylko wtrącę, że tak jest zdefiniowany f-stop. Każdy kolejny to dwukrotnie więcej (lub dwukrotnie mniej) światła. Z dolnej połówki kolejny jeden f-stop zabiera połowę to jest 1024 odcieni. I tak dalej i tak dalej. W ostatnim najniższym na cały jeden f-stop przypada tylko 64 odcienie. Ilustruje to obrazek poniżej.

    Kamera w rozbiciu na f-stopy



    Można to również przedstawić w postaci tabelki:


    Tu pojawia się mały problem. Ten najniższy f-stop to TYLKO 64 odcienie. Jak się to rozciągnie na marne 256 odcieni monitora w sRGB to nie dziwota, że pojawia się posteryzacja, paskowanie, szumy i wszystko co złe.
    Większość współczesnych kamer zapisuje co najmniej 12 bitów na kanał. To daje 4096 poziomów w każdym z kanałów. JPEG to 8 bitów i 256 poziomów w kanale. To szesnaście!!! razy mniej. Wyrzucasz do kubła tylko 4 bity informacji o kolorze ale aż 3840 możliwych odcieni. To bardzo ale to bardzo dużo – blisko 94%. Trochę dba o Ciebie sam aparat bo zdjęcie tak naprawdę to RAW przerabiany wewnątrz w aparacie na JPEG ale wszelka dalsza obróbka w Photoshopie, GIMPie czy innym programie zwykle powoduje katastrofalne wręcz szkody. Niestety nieodwracalne.

    Nieco „przy okazji” warto zwrócić uwagę na położenie środka (półtonów) na obrazku liniowego widzenia matrycy. To wyjaśnia m. in. kwestię dlaczego balans bieli powinien być ustawiany na jasno szary wzorzec. To co my widzimy jako jasno szare leży dokładnie pośrodku zakresu tonalnego sensora. Tak właśnie zrobiony jest np. WhiBal – jego szarość wydaje się dość jasna bo leży w pobliżu „środka zakresu sensora”.

    Janusz
    Ostatnio edytowane przez Janusz Body ; 19-07-2006 o 19:39

  2. #2
    Coś już napisał
    Dołączył
    Jun 2006
    Posty
    65

    Domyślnie

    Opis super - jak w książce "Real world Camera Raw..." tyle że po naszemu

    Dwie uwagi technicznie:
    -potęgę oznacza się przez znaczek "^" a nie przez strzałkę.
    -nasze oczy mają widzenie "wykładnicze" (dokładniej - eksponencjalne) a nie "logarytmiczne".

    Pozdrawiam,

    MG

  3. #3
    Moderator Awatar Janusz Body
    Dołączył
    Apr 2004
    Miasto
    Szczecin
    Wiek
    71
    Posty
    5 757

    Domyślnie

    Cytat Zamieszczone przez gregor40
    ....
    -potęgę oznacza się przez znaczek "^" a nie przez strzałkę.
    -nasze oczy mają widzenie "wykładnicze" (dokładniej - eksponencjalne) a nie "logarytmiczne".

    - Książka, którą wymieniasz jest jednym ze źródeł - nie jedynym zresztą a to co napisałem powstało "pod wpływem" kliku ostatnich dyskusji na forum.

    - Historycznie strzałka była pierwsza :-) a "^" pojawił się w internecie stosunkowo niedawno.

    - Chyba jednak widzenie "ma charakter" funkcji logarytmicznej. W ciemnosciach nie widzimy wcale, potem mamy szybki wzrost i rozróżniamy nawet małe różnice sygnału, żeby na koniec powoli przestać rozróżniać cokolwiek a chwilę póżniej i widzieć wogóle :-) Dla funkcji wykładniczej ( y = a^x ) oznaczało by to, że im jaśniej tym słabiej widzimy (dla a z przedziału 0,1) a dla a >1 to by oznaczało że łatwo rozróżniamy detale w światłach.

    Janusz

  4. #4
    Coś już napisał
    Dołączył
    Jun 2006
    Posty
    65

    Domyślnie

    Cytat Zamieszczone przez Janusz Body
    - Książka, którą wymieniasz jest jednym ze źródeł - nie jedynym zresztą a to co napisałem powstało "pod wpływem" kliku ostatnich dyskusji na forum.
    Czy mozesz podac biliografie? Chetenie poczytam sobie wiecej, bo zagadnienie jest ciekawe.


    Cytat Zamieszczone przez Janusz Body
    - Chyba jednak widzenie "ma charakter" funkcji logarytmicznej. W ciemnosciach nie widzimy wcale, potem mamy szybki wzrost i rozróżniamy nawet małe różnice sygnału, żeby na koniec powoli przestać rozróżniać cokolwiek a chwilę póżniej i widzieć wogóle :-) Dla funkcji wykładniczej ( y = a^x ) oznaczało by to, że im jaśniej tym słabiej widzimy (dla a z przedziału 0,1) a dla a >1 to by oznaczało że łatwo rozróżniamy detale w światłach.
    Przekonales mnie - masz racje

    Pozdrawiam,

    MG

  5. #5
    Pełne uzależnienie
    Dołączył
    Jul 2004
    Miasto
    Staszów
    Wiek
    51
    Posty
    1 709

    Domyślnie

    Cytat Zamieszczone przez Janusz Body
    Nieco „przy okazji” warto zwrócić uwagę na położenie środka (półtonów) na obrazku liniowego widzenia matrycy. To wyjaśnia m. in. kwestię dlaczego balans bieli powinien być ustawiany na jasno szary wzorzec. To co my widzimy jako jasno szare leży dokładnie pośrodku zakresu tonalnego sensora. Tak właśnie zrobiony jest np. WhiBal – jego szarość wydaje się dość jasna bo leży w pobliżu „środka zakresu sensora”.
    Przyznam, że trochę się pogubiłem. Niebardzo rozumiem, dlaczego uważasz, że balans bieli należy ustawiąc na szarość? Karta kodaka jest dwustronna - z jednej strony jest szarość 18% do poprawnej ekspozycji, z drugiej (chyba?) biała do balansu bieli. Niebardzo rozumiem rozumowania - możesz wyjaśnić?

    BTW: Bardzo fajny artykuł.

  6. #6
    Moderator Awatar Janusz Body
    Dołączył
    Apr 2004
    Miasto
    Szczecin
    Wiek
    71
    Posty
    5 757

    Domyślnie

    Cytat Zamieszczone przez Tomasz Urbanowicz
    Przyznam, że trochę się pogubiłem. Niebardzo rozumiem, dlaczego uważasz, że balans bieli należy ustawiąc na szarość? Karta kodaka jest dwustronna - z jednej strony jest szarość 18% do poprawnej ekspozycji, z drugiej (chyba?) biała do balansu bieli. Niebardzo rozumiem rozumowania - możesz wyjaśnić?

    BTW: Bardzo fajny artykuł.
    Biel i czerń to tylko "szczególne przypadki" szarości. Balans bieli powinno się ustawiac na "środek" matrycy bo taki sposób minimalizuje błedy nieliniowości matrycy. Nie można ustawiać balansu na "czystą" biel bo to RGB = 255,255,255 i nie wiadomo czy któryś z kanałow nie byłby przepalony.

    - Karta Kodaka nie "posiada szarości" 18% tylko odbija 18% światła. Pochłania 82% - więc raczej "posiada szarość" na poziomie tychże 82% - tak mniej więcej pokazuje światłomierz dla kartki zadrukowanej z ok. 80% fill. Nie ma gwarantowanego braku zafarbu. Została zrobiona do pomiaru światła światłomierzem.

    - Druga strona karty kodaka jest biała (tez nie gwarantowany wzorzec bieli ale nie jest tragicznie). Odbija 90% światła tj. dokładnie dwa i 1/3 f-stopów więcej niż szara strona i też została zrobiona do pomiaru świetła w "trudnych warunkach". Jeśli przyjąć, że zmierzymy światło na szarą stronę i zrobimy zdjęcie białej stronie to pytanie - w którym miejscu zakresu matrycy się znajdziemy jeśli zakres tonalny wynośi 6 f-stopów?

    - Papier fotograficzny odbija około 95% światła. Często trochę mocniej odbija UV, żeby podnieść wrażenie bieli ale dla sensorów w aparacie UV jest nieco mniej "widoczne".

    Na stronach www.whibal.com jest porównanie widma odbitego przez WhiBal i karte Kodaka.


    Do wyboru mamy różne wzorce za 300 USD tablice Gragtag Macbeth, za 60 USD mniejszą tablicę Gregtaga, za 30 USD WhiBal i za ok. 2 PLN kartke dobrego papieru foto. Oczywiście są i będą różnice w precyzji wzorców i różnice są proporcjonalne do ceny. Osobiście używam WhiBala bo jest poręczny i wystarczająco dokładny.

    I tak pytanie czy taki super dokładny balans bieli jest naprawde potrzebny? Czy nocne zdjęcia Pragi wyglądały by lepiej gdyby były z technicznie poprawnym balansem bieli? Mnie się wydaje, że niekoniecznie a technicznie poprawny WB jest potrzebny tylko dla drukujących katalogi farb, tkanin itp.

    Pozdrawiam
    Janusz
    Ostatnio edytowane przez Janusz Body ; 01-08-2006 o 11:55

  7. #7
    Coś już napisał Awatar bachoo
    Dołączył
    Mar 2006
    Wiek
    23
    Posty
    70

    Domyślnie

    Cytat Zamieszczone przez Janusz Body
    - Karta Kodaka nie "posiada szarości" 18% tylko odbija 18% światła. Pochłania 82%
    mmm chyba raczej odwrotnie. pochłania 18% a odbija 82%. Bo biel odbija swiatło a czern pochlania, wiec najprosciej mowiąc jezeli cos jest jasne to bardziej odbija niz pochlania. prawda?

  8. #8
    Moderator Awatar Janusz Body
    Dołączył
    Apr 2004
    Miasto
    Szczecin
    Wiek
    71
    Posty
    5 757

    Domyślnie

    Cytat Zamieszczone przez bachoo
    mmm chyba raczej odwrotnie. pochłania 18% a odbija 82%. Bo biel odbija swiatło a czern pochlania, wiec najprosciej mowiąc jezeli cos jest jasne to bardziej odbija niz pochlania. prawda?
    Szara strona karty kodaka odbija 18% światła. Koniec. Kropka.
    Tak poprostu jest. To standard dla wszystkich światłomierzy tych wbudowanych w TTL też.

    Karta Kodaka jest "dość ciemnoszara". "Podróbki" to wklejka w okładce w Szkole Fotografowania National Geographic i wkładka MIDTONE w Fotografii Cyfrowej Scotta Kelby. Zobacz proszę jak to wygląda a pozbędziesz się wątpliwości ile toto odbija światła.

    Janusz

  9. #9
    Pełne uzależnienie
    Dołączył
    Jul 2004
    Miasto
    Staszów
    Wiek
    51
    Posty
    1 709

    Domyślnie Światła, cienie, korekta ekspozycji w RAW.

    @Janusz Body

    Dawno temu zakodowałem sobie coś i po przeczyteniu tego artykułu doszedłem do wniosku, jak bardzo żyłem w nieświadomości Otóż...
    Została tu przedstawiona w sposób niezwykle logiczny liniowość matrycy: mało bitów (odcieni) w cieniach, dużo więcej bitów (odcieni) w światłach.
    Widać, że matryca w aparatach więcej odcieni zarejestruje w światłach niż w cieniach, nasze oczy jednak więcej zarejestrują w cieniach - nie wiem jak to się stało, ale kiedyś byłem przekonany (nie zastanowiłem się nad tym), że matryca lepiej "pracuje" w cieniach, znaczy to, że lepiej jest zmniejszyć ekspozycje robiąc zdjęcie żeby nie przepalić przypadkowo nieba, a i tak wyciągnie się ciemne partie rozjaśniając w programie.
    Nie wiem, czy błędnie rozumuję, ale wychodzi na to, że nie należy niedoświetlać zdjęcia, gdyż rozjaśniając je potem tracimy na jakości w cieniach - no bo z pustego to i Salomon nie naleje. Z drugiej strony prześwietlając niebo, nie uratujemy jego niebieskiego odcienia - mówię tutaj o JPG. Więc jak to jest?
    Drugie moje pytanie: w jaki sposób program do RAW ma możliwość korekty ekspozycji? Widząc przepalone niebo, możemy suwaczkiem zrobić korektę na minus i jest OK. Nie mogę tego pojąć, w jaki sposób jest to możliwe. Jeśli będziemy robili wszystko na -1EV co na tym tracimy wywołując potem w RAW? Będzie więcej szumów? Dlaczego?

  10. #10
    Moderator Awatar Janusz Body
    Dołączył
    Apr 2004
    Miasto
    Szczecin
    Wiek
    71
    Posty
    5 757

    Domyślnie

    Cytat Zamieszczone przez Tomasz Urbanowicz
    ....
    Nie wiem, czy błędnie rozumuję, ale wychodzi na to, że nie należy niedoświetlać zdjęcia, gdyż rozjaśniając je potem tracimy na jakości w cieniach - no bo z pustego to i Salomon nie naleje. Z drugiej strony prześwietlając niebo, nie uratujemy jego niebieskiego odcienia - mówię tutaj o JPG. Więc jak to jest?
    Wątek jest o RAW więc o JPEGach nie będę pisał Napisałem :"...No i mamy całe wyjaśnienie dlaczego w fotografii cyfrowej musimy naświetlać "odwrotnie" jak w analogu. Naświetlać na światła i wywoływać na cienie... i tak to dokładnie jest. Histogram "do prawego", najbliżej prawego jak się da, najlepiej bez clippingu. Są oczywiście wyjątki.

    Cytat Zamieszczone przez Tomasz Urbanowicz
    Drugie moje pytanie: w jaki sposób program do RAW ma możliwość korekty ekspozycji? Widząc przepalone niebo, możemy suwaczkiem zrobić korektę na minus i jest OK. Nie mogę tego pojąć, w jaki sposób jest to możliwe. Jeśli będziemy robili wszystko na -1EV co na tym tracimy wywołując potem w RAW? Będzie więcej szumów? Dlaczego?"
    Z przepalonym niebem i suwaczkiem w dół może nie jest super ale "zagęszczanie" informacji jest mało szkodliwe. To jest OK w niewielkich granicach - powiedzmy korekty o -0.5 EV są akceptowalne ale więcej to już znaczy gorzej Przepalony jeden kanał to jeszcze nie jest straszna tragedia bo w pozostałych dwóch zostaje conieco szczegółów. Zdecydowanie najlepiej jest naświetlić poprawnie.

    W RAWie jest zapisana tylko luminancja (to jest czarno-biały obraz) więc można wartości dla każdego pixela zwiększyć o taką samą stałą co symuluje wzrost ekspozycji. To jest właściwie nieszkodliwe tylko wtedy gdy żadna z wartości nie przekracza 255 (max) lub nie spada poniżej 0 (min). Jeśli dodamy/odejmiemy za dużo to nastąpi utrata informacji i "dziura" w obrazie. Jeśli w jakimś pikselu w oryginale było zapisane 5, my podnosimy ekspozycję i dodajemy 10 to "wyciągamy" z obrazu coś czego nie ma (Zeby pasowało proporcjami do pozostałych pikseli musiało by być zapisane jako -5), czyli generujemy informację, której w oryginale nie było. Szum.

    Jak zrobisz wszystko z -1EV (zakładając, że światło zostało zmierzone poprawnie) to utracisz bezpowrotne minimum 50% informacji. "Górny" f-stop to połowa całego obrazka.
    Ostatnio edytowane przez Janusz Body ; 03-08-2006 o 18:22

Strona 1 z 8 123 ... OstatniOstatni

Uprawnienia umieszczania postów

  • Nie możesz zakładać nowych tematów
  • Nie możesz pisać wiadomości
  • Nie możesz dodawać załączników
  • Nie możesz edytować swoich postów
  •