Strona 3 z 8 PierwszyPierwszy 12345 ... OstatniOstatni
Pokaż wyniki od 21 do 30 z 72

Wątek: #22 Liniowość matrycy i co z tego wynika

  1. #21
    Adaminio
    Guest

    Domyślnie

    A więc...czy fakt, że matryca rejestruje '3/4 bitów świateł i 1/4 cieni' jest cechą właściwą matryc, i wynika z ich budowy, czy z matematyki obróbki danych (funcji gammy)?

    Czyli, w praktyce, jeśli do dystpozycji mamy oświetlenie studyjne, i zależy nam na szczegółach w cieniach, lepiej jest zrobić jasne zdjęcie, a potem je ściemnić w oprogramowaniu?

    Niezbyt rozumiem też stwierdzenie użyte przez Janusza, któy pisze o 'zagęszczaniu danych' do którego dochodzi przy ściemnianiu zdjęcia. Czy mógłby ktoś rozpisać to stwierdzenie w inny sposób.

    Dzięki, jeśli ktoś zechce.

  2. #22
    Pełne uzależnienie
    Dołączył
    Oct 2006
    Miasto
    Kraków/Szczecin
    Wiek
    44
    Posty
    1 641

    Domyślnie

    Cytat Zamieszczone przez Adaminio Zobacz posta
    A więc...czy fakt, że matryca rejestruje '3/4 bitów świateł i 1/4 cieni' jest cechą właściwą matryc, i wynika z ich budowy, czy z matematyki obróbki danych (funcji gammy)?

    Czyli, w praktyce, jeśli do dystpozycji mamy oświetlenie studyjne, i zależy nam na szczegółach w cieniach, lepiej jest zrobić jasne zdjęcie, a potem je ściemnić w oprogramowaniu?
    Wynika ze sposobu widzenia świata przez człowieka (patrz Prawo Webera-Fechnera) - czyli z tego, że człowiek postrzega bodziec "logarytmicznie", zaś przyrząd pomiarowy (komórka CMOS/CCD) - liniowo.

    Oświetlenie tu nic nie pomoże - chyba że pogodzisz się z "przepalonym" pomiarem i utratą informacji w światłach. Pomógłby wzmacniacz działający logarytmicznie przed digitalizacją danych z elementu CCD/CMOS.

  3. #23
    Adaminio
    Guest

    Domyślnie

    HuleLam, dzięki za że chciało ci się odpowiedzieć. Jednakże, trochę się pogóbiłem w twojej bardzo technicznej odpowiedzi. Zadam pytanie jeszcze raz, dlaczego matryca jest słaba w cieniach? Czy winika to z jej fizycznej budowy, (element światłoczuły gorzej rejestruje małe ilości fotonów w pikselu) czy raczej z matematycznej interpretacji danych z matrycy?

    Czyli, funkcja gamma sprowadza się do odpowiedniego przyciemnienia zdjęcia? Funkcja ta nie wzmacnia obszarów jasnych, czy dobrze rozumiem?

  4. #24
    Pełne uzależnienie Awatar piast9
    Dołączył
    Sep 2005
    Miasto
    Wrocław
    Posty
    3 267

    Domyślnie

    Nie, to wynika z tego, że ogólnie pojęty SYGNAŁ wychodzacy z matrycy jest liniowo zależny od natężenia światła. Czyli tak, to jest związane z jej budową. W oku sygnał zależy logarytmicznie od natężenia światła - stąd różnica.

    I moim zdaniem sam wzmacniacz log nie pomoże na to, tak jak sugeruje HuleLam. Gdyby to było tak proste to zostałoby zrobione. Należałoby odlinearyzować sam sensor. Krokiem w tę stronę są matryce Fuji.
    650D, T 12-24 4.0, S 30 1.4, S 18-35 1.8, C 70-210 3.5-4.5, C 50 2.5 macro, M42: Praktica LLC, Jupiter 9, Pentacon 135 2.8, Orestegor 300 4.0

  5. #25
    Pełne uzależnienie Awatar Tomasz Golinski
    Dołączył
    Jul 2004
    Miasto
    Białystok
    Wiek
    45
    Posty
    8 623

    Domyślnie

    Cytat Zamieszczone przez Adaminio Zobacz posta
    HuleLam, dzięki za że chciało ci się odpowiedzieć. Jednakże, trochę się pogóbiłem w twojej bardzo technicznej odpowiedzi. Zadam pytanie jeszcze raz, dlaczego matryca jest słaba w cieniach? Czy winika to z jej fizycznej budowy, (element światłoczuły gorzej rejestruje małe ilości fotonów w pikselu) czy raczej z matematycznej interpretacji danych z matrycy?

    Wynika z fizycznej budowy oka i matrycy - jest różna, więc trzeba to matematycznie kompensować.
    30D | 85/1.8 | 135/2 | 70-200/4 | T17-50/2.8 | 100-300/4.5-5.6 | 50/1.4 | 650 | 430EX | Sherpa 600r
    Zdjęcia - Iran, folk, jazz, wątek galeriowy


    FoFot.pl
    Canon IRC

  6. #26
    Dopiero zaczyna Awatar gof
    Dołączył
    Sep 2007
    Miasto
    Warszawa
    Wiek
    39
    Posty
    49

    Domyślnie

    Cytat Zamieszczone przez Adaminio Zobacz posta
    Zadam pytanie jeszcze raz, dlaczego matryca jest słaba w cieniach?
    To nie matryca jest słaba w cieniach tylko oko jest silne w cieniach.

    Matryca zamienia światło na sygnał elektryczny. Poziom sygnału z matrycy jest wprost proporcjonalny do poziomu światła (ilości fotonów zarejestrowanych w jednostce czasu) - taką zależność nazywa się zależnością liniową. Oko (i ogólnie ludzkie zmysły - np. słuch też) potrafi się dostosować do sytuacji w której jest mniej światła i "wzmocnić" sygnał ("zwiększyć ISO"). Jako ciekawostka - ta operacja zajmuje mu więcej czasu niż "zmniejszenie ISO" (przystosowanie się do warunków jasnego światła po wyjściu z cienia). Dlatego po zgaszeniu światła często zanim zobaczymy cokolwiek, widzimy ciemność, a po zapaleniu dużo szybciej przestajemy mrużyć oczy.

    I teraz mamy dwa podejścia, jedno czysto proporcjonalne (poziom sygnału jest zależny wprost proporcjonalnie od poziomu światła) i drugie w uproszczeniu logarytmiczne (tak jak w oku, które w cieniach "wzmacnia bardziej" niż w światłach). Na sygnał z zakresu 0-50% (ciemność do połowy jasności) i 50%-100% (połowa jasności do max jasności) z matrycy przeznaczonych jest tyle samo bitów, więc tyle samo szczegółów będzie zarejestrowanych w obu tych zakresach.

    A oko w cieniach zwiększa swoją czułość, więc widzi więcej niż matryca w tym samym zakresie (zakładając że w "jasności" widzą tyle samo). Albo w jasności widzi mniej niż matryca (zakładając że w "cieniach" widzą tyle samo).

    Dlatego lepiej jest zrobić zbyt jasne zdjęcie i je potem ściemnić niż zbyt ciemne i je potem rozjaśnić. Oczywiście najlepiej jest zrobić zdjęcie prawidłowo naświetlone
    EOS

  7. #27
    Adaminio
    Guest

    Domyślnie

    Panowie dziękuję za podjęcie dyskusji. Jednakże, istota mojego pytania wciąż leży nietknięta, wraz z przeczytaniem postu golfa mam wrażenie nawet że padają tu sprzeczne dane. Gdyby informacje jakie do mnie docierają zawierały się w tym, że matryca rejestruje liniowo i że, cytując golfa:

    Na sygnał z zakresu 0-50% (ciemność do połowy jasności) i 50%-100% (połowa jasności do max jasności) z matrycy przeznaczonych jest tyle samo bitów, więc tyle samo szczegółów będzie zarejestrowanych w obu tych zakresach.

    Nie zadawałbym więcej pytań ale... zobaczmy co pisze Janusz.

    Stąd już prosta droga do stwierdzenia, że cyfra jest dobra "w światłach" i słabsza "w cieniach". Około 3/4 ogółu bitów zużytych na zapis to "światła" - cienie to tylko pozostała 1/4.

    Czy jest to sprzeczność pozorna?

    Aby zadać nurtujące mnie pytanie wystarczająco jasno, muszę uciec się do opisu wyidealizowanego doświadczenia. Więc: Załóżmy, że mamy diodę w zupełnej ciemności, podłączoną do urządzenia w które pozwala na bardzo dokładną kontrolę natężenia światła przez nią emitowanego. 'Zapalamy' diodę i robimy zdjęcie w trybie M o stałych parametrach. Rezultatem, matryca rejestruje światło na poziomie 1 (z możliwych 4096). Obliczamy ilość fotonów i zapisujemy jako n1. Teraz zwiększamy natężenie światła, i na kolejnym zdjęciu światło zarejestrowane jest poziomem 2. Obliczamy ilość fotonów zebranych w pikselu jako n2, łatwo wyliczamy przyrost delta n. Teraz powtarzamy ten sam algorytm, ale po znacznym podkręceniu diody, tak iż pierwsza rejestracja wychodzi na poziomie powiedzmy 3005. I pytanie główne - czy aby podnieść rejestracje z 3005 na 3006 potrzebujemy takiego samego przyrostu fotonów delta n jak przy przejściu z poziomu 1 na 2?

    Liniowość matrycy właśnie rozumiałem w ten sposób, przyrost poziomów dokonywał się liniowo, w oparciu o przyrost fotonów. Ale, dlaczego więc tabelki w stylu 1 f stop 64, 2 f stop 128 (widoczna w poście Janusza)
    Czekam w nadziei że podejmiecie dyskusje.

  8. #28
    Pełne uzależnienie Awatar Tomasz Golinski
    Dołączył
    Jul 2004
    Miasto
    Białystok
    Wiek
    45
    Posty
    8 623

    Domyślnie

    Tak, matryca rejestruje liniowo w tym sensie, o jakim myślisz. Jednak obraz z matrycy nie nadaje się jeszcze do oglądania. Trzeba zastosować nieliniową transformację danych zebranych z matrycy, żeby obraz był strawny dla człowieka.

    Szczerze mówiąc, to jeszcze przed chwilą to rozumiałem... A teraz sobie pomyślałem, że prawdziwym powodem jest to, że MONITOR odkręca transformację gammy. Dwukrotne zwiększenie natężenia światła powoduje 2x zwiększenie poziomu zarejestrowanego na matrycy i efekt na monitorze też musi być 2x większy! Anatomia nie ma nic do rzeczy.

    Jednak praktyka programistyczna jest taka, że ustalono iż poziom 100 jest "na oko" dwa razy ciemniejszy niż 200. Jest to umowa Być może wygodna z pewnych względów, ale nie jest to prawo fizyki.
    30D | 85/1.8 | 135/2 | 70-200/4 | T17-50/2.8 | 100-300/4.5-5.6 | 50/1.4 | 650 | 430EX | Sherpa 600r
    Zdjęcia - Iran, folk, jazz, wątek galeriowy


    FoFot.pl
    Canon IRC

  9. #29
    Pełne uzależnienie
    Dołączył
    Jul 2004
    Miasto
    Staszów
    Wiek
    51
    Posty
    1 709

    Domyślnie

    To ja też napiszę co nie co....

    Chciałbym zacząć od tego jak właściwie monitor w kooperacji pokojowej z komputerem wyświetla. Otóż wyświetla liniowo - wynikowa gamma z gammy monitora i systemu jest 1:

    gamma winikowa = gamma monitora x gamma systemu

    (źródło: Desktop Color Handbook 07 - EIZO str. 47 - akurat mam ją przed sobą).

    Czyli dla PC monitor (zakładam idealne warunki) ma gamme = 2.2, system Windows nadaje w gammie = 1/2.2 co wynikowo daje gammę = 1 czyli funkcje liniową (nachyloną pod kątem 45 stopni).

    Dla Mac OsX monitor gamma = 1.8, system OsX gamma = 1/1.8, co również wynikowo daje gammę jak wyżej.

    Skoro tak, zapewnioną mamy liniowość, czyli np. dla luminancji od 0-120 cd/m2 liniowo będzie zależeć szarość w RGB np. od 0-255 (przykładowo dla szarości RGB=128 będzie 60 cd/m2 luminancji). Proszę zrobić sobie gradient szarości np. w PS czy GIMPie od 0-255 i zmierzyć color pickerem środek tegoż gradientu - będzie ok RGB =128 128 128.

    Teraz do rzeczy...

    Janusz pisze, że matryca jest liniowa. Następnie słusznie pisze, że wzrok ludzki ma charakter adaptacyjny. Jednak później pisze że wzrok ludzki ma charakter logarytmiczny z jaką tam gammą od 2-3 (zapewne chodzi o wykładnik potęgi 1/2-1/3 zamiast 2-3). Dalej piszę o jakimś przekształceniu JPG z RAW z funkcją logarytmiczną - tylko po co ta funkcja?

    Na monitorze chcemy widzieć dokładnie to, co widzimy w rzeczywistości. Monitor+PC wyświetla obraz w postaci liniowej, matryca rejestruje liniowo - dlaczego jest to przekształcenie i czy ono w ogóle występuje?

    To co dociera do naszego komputera w ostatecznym rozrachunku ma mieć postać liniową jeśli zależy nam na wierność z rzeczywistością. Proszę mi powiedzieć, w którym miejscu następuję funkcja odwrotna to tej która podobno traktuje się JPG z RAW?
    Może ta funkcja o której Janusz pisze, to nic innego jak systemowa gamma (sam JPG jest liniowy)?

    Podobnie przecież jest z fotografią analogową - wprawdzie negatyw posiada funkcję jakąś tam logarytmiczną, ale w procesie wywołania (pozytyw) traktowany jest funkcją w miarę odwrotną co w przybliżeniu i ostatecznym rozrachunku daje coś koło gammy = 1 (wychodzi chyba 1.4 ale to z racji chyba rozpraszania światła).

    Może niektórzy będą się upierać do logarytmicznej natury naszego wzroku.
    Proszę wyobrazić sobie taki przykład:

    Jest artysta malarz który siedzi sobie w plenerze i maluje krajobraz (załóżmy że widzimy logarytmicznie). Dobiera odcienie, jasności farb nieliniowo. Teraz następnie chciałby sobie zrobić kopie tegoż obrazu i znów zasiada i również nieliniowo dobiera farby patrząc na oryginał obrazu. Proszę napisać, jak będzie wyglądała 5 kopia z poprzedniej kopii obrazu?

    Zresztą jakbyśmy nie widzieli otaczający nas świat, powinna być zapewniona ostateczna liniowość...

    Niektórzy pewnie z Was będą powoływać się na ten artykuł:

    http://www.fotosite.pl/artykuly/foto...a-swiatla.html

    Jednak proszę zwrócić uwagę na kilka rzeczy:
    1. Dlaczego drugie zdjęcie na rys. 2 jest totalnie niedoświetlone (proszę zobaczyć jak wygląda histogram).
    2. Dlaczego jest inny balans bieli.
    3. Dlaczego na tym niby liniowym RAWie nie ma żadnego pola jednakowo jasnego, jak na górnym obrazku?
    Ostatnio edytowane przez Tomasz Urbanowicz ; 04-11-2007 o 18:10

  10. #30
    Pełne uzależnienie Awatar ewg
    Dołączył
    Sep 2006
    Posty
    1 079

    Domyślnie

    I tu dochodzimy do relatywizmu (nie-)linowości widzenia - czytaj: do przepaści. :-)

    Jeśli ktoś jest nastawiony bardziej antropocentrycznie, równie dobrze może stwierdzić, że to oko widzi liniowo a jakaś tam matryca cyfrowa "krzywo" (tylko ta krzywa jest wtedy pod prostą a nie nad - choć to też jest względne). Jednak współzależność krzywa/prosta (obojętne co jest na krzywej a co na prostej) pozostaje taka a nie inna. Przetwornik cyfrowo analogowy z matrycy daje większą gęstość danych dla świateł a oko/mózg wymaga odpowiednio większej dla cieni (i to też wyłącznie z ludzkiego punktu widzenia!) i na jakimś etapie musi zajść tłumaczenie - jeśli nie na etapie przetwornika analogowo-cyfrowego, to np. RAW-JPEG. Dopóki cyfrówki a zwłaszcza RAWy nie zagrażały globalnej sielance pt. JPEG 8-bitowy, to mało kto nawet wiedział, że zachodzi jakieś tłumaczenie bitów - cyfrowych na ludzkie.

    A wiec, tak! - Antropocentrycznie malarz kopiuje własne płótna zdecydowanie liniowo, tylko przy oczywistym założeniu, że w takim rozumieniu/postrzeganiu "liniowości" również namalował swój pierwszy obraz no i że światło otaczające się nie zmieniało, albo nie padał gostek z wycieńczenia... ;-)
    mój aparat: [Ô] , szkła: OOO , statyw: /i\ , fotki: \\\-:\

Strona 3 z 8 PierwszyPierwszy 12345 ... OstatniOstatni

Uprawnienia umieszczania postów

  • Nie możesz zakładać nowych tematów
  • Nie możesz pisać wiadomości
  • Nie możesz dodawać załączników
  • Nie możesz edytować swoich postów
  •