Przeanalizowałem te RAWy dokładnie w DPP (bardzo dziękuję za ich udostępnienie!). Po ujednoliceniu wszystkich ustawień zacząłem przyciemniać 350d, potem znowu rozjaśniać 400d. Okazuje się, że różnica wynosi dokładnie, ale to dokładnie jak w pysk, 0.5 działki. Po zlikwidowaniu różnic jasności zacząłem porównywać szumy na iso1600 i miałem tu wrażenie, że to fotki z tego samego sensora! - dokładnie, ale to dokładnie... ten sam szum. - No dobra, ale co z tego skoro 400d jest o 0.5 stopa ciemniejszy? I tu doszedłem do pewnego pytania, które być może jest kluczowe dla rozwiązania zagadki i może odkryje trochę tok rozumowania projektantów 400d/350d. Ala najpierw krótkie wprowadzenie:
Sensor zamienia światło na prąd a ten prąd jest potem zamieniany na bity w przetwornikach analogowo-cyfrowych. Szereg 12 bitów daje maksymalną rozpiętość tonalną każdego piksela w pliku RAW w obu testowanych EOSach. (Jak coś pomyliłem z ilością bitów to poprawcie, ale istotne jest to, że jest to jakaś stała i całkowita rozpiętość tonalna każdego piksela pliku RAW.) Światło i prąd to zmienne analogowe, których nie opisują żadne ścisłe ramy lub same liczby całkowite jak to mam miejsce dalej w przypadku bitów. Wiadomo że rozpiętość tonalna światła zastanego jest o wiele wieksza niż rozpiętość, nazwijmy ją "tonalną", prądu które to światło generuje w sensorze (później zamienianego na bity). Podobie można założyć również, że maksymalna rozpiętość "tonalna" już samego prądu zawsze będzie dalece większa od "doskonale całkowitej" maksymalnej rozpiętości bitowej - a to z racji właśnie analogowej natury prądu.
Pytanie sprowadza sie zatem do określenia jak działają przetworniki analogowo-cyfrowe w sensorze? Idąc dalej, czy 12-bitowa rozpiętość tonalna pokrywa pełną "paletę" prądów na sensorze wycinając z niej tylko 12-bitowy fragment? Czy raczej zdolność przetworników do rozpoznawania minimalnych różnic w prądach sensora nie pozwala wykorzystać potem pełnych 12 bitów dostępnych w pliku (być może wykorzystując jedynie środkowy lub skrajny fragment jego rozpiętości)?
Jeśli powuższe założenia są prawdziwe (i to jest to podstawowe pytanie), myślę że dla obu przypadków decyzja o tym jak jasne ma być zdjęcie wyświetlane na monitorze jest już wyłacznie arbitrarną i podyktowana estetyką lub przydatnością takich plików/zdjęć.
Gdyby 12 bitów to było "za mało", tak w 400d jak w 350d będziemy mieli inny zakres tonalny informacji o obrazie w plikach RAW o identycznej rozpiętości bitowej.
Gdyby zaś 12 było "za dużo" (nadmierna rozpiętość bitowa względem zdolności przetworników a-c) wtedy pliki RAW z obu aparatów zawierałyby dokładnie tą samą informację o obrazie (przy założeniu, że dane przyporządkowane są środkowemu zakresowi rozpiętości bitowej z czystymi marginesami).
![]()
Dobra. Teraz id spać bo mi zaraz łeb pęknie. Powiedzcie mi proszę gdzie się mylę, bo pewnie jutro mnie to będzie dalej gnębiło. ;-)
Aha, zapomniałem wczoraj o konkluzji, żeby wszystko było jasne:
Zmierzam do tego żeby zapytać (bo udowodnić chyba nie sposób), czy aby dwa identyczne sensory (nie wiem czy przetworniki a-c są liczone jako część sensora/matrycy, ale przyjmijmy że tak) zaprogramowane na dwa różne sposoby nie mogłyby generować zdjęć różniących się podobnie jasnością jak różnią się 400d i 350d (te 0.5 działki ekspozycji)? Jeśli tak oba sensory (z 400d i 350d) wcale nie muszą różnić sie czułością, a jedynie programem, który ich czułość wykorzystuje w różny sposób...
Ok, jest git. Nie ukrywam, że licze na odpowiedź jakiegoś niezłego szpeca w temacie sensorów. No to tyle. :-)