Pokaż wyniki od 1 do 10 z 71

Wątek: niedoświetlone foty w 400D

Mieszany widok

  1. #1
    Pełne uzależnienie Awatar Tomasz1972
    Dołączył
    Mar 2005
    Miasto
    Ząbkowice Śląskie
    Wiek
    52
    Posty
    3 042

    Domyślnie

    350 jest czulszy od 400D
    do pobrania rawy z 350 oraz 400D ( przy otwieraniu proszę zwrócić uwagę na ustawiania aparatu gdyż są inne , oczywiście ustawienie tak samo w konwerterze to nieproblem )
    warunki focenia te same , obiektyw ten sam , inne parametry w exifie .

  2. #2

    Domyślnie

    Witam!

    Jakie tam niedoświetlenie...i tak każdą fote trzeba popieścić PS'em, jeśli jest ktoś innego zdania to chętnie wysłucham. Wchodzisz w poziomy i suwak z prawej strony przybliżasz do początku wykresu i wszystko na ten temat.

    Ja celowo niedoświetlam, latem nawet robie na -1/3 do -2/3 gdyż wole niedoświetlić niż przepalić białe elementy zdjęcia.

    Pzdr!
    7D, C 18-55 IS, T 70-300 VC USD
    fotki

  3. #3
    Pełne uzależnienie Awatar ewg
    Dołączył
    Sep 2006
    Posty
    1 079

    Domyślnie

    Cytat Zamieszczone przez Tomasz1972 Zobacz posta
    Przeanalizowałem te RAWy dokładnie w DPP (bardzo dziękuję za ich udostępnienie!). Po ujednoliceniu wszystkich ustawień zacząłem przyciemniać 350d, potem znowu rozjaśniać 400d. Okazuje się, że różnica wynosi dokładnie, ale to dokładnie jak w pysk, 0.5 działki. Po zlikwidowaniu różnic jasności zacząłem porównywać szumy na iso1600 i miałem tu wrażenie, że to fotki z tego samego sensora! - dokładnie, ale to dokładnie... ten sam szum. - No dobra, ale co z tego skoro 400d jest o 0.5 stopa ciemniejszy? I tu doszedłem do pewnego pytania, które być może jest kluczowe dla rozwiązania zagadki i może odkryje trochę tok rozumowania projektantów 400d/350d. Ala najpierw krótkie wprowadzenie:

    Sensor zamienia światło na prąd a ten prąd jest potem zamieniany na bity w przetwornikach analogowo-cyfrowych. Szereg 12 bitów daje maksymalną rozpiętość tonalną każdego piksela w pliku RAW w obu testowanych EOSach. (Jak coś pomyliłem z ilością bitów to poprawcie, ale istotne jest to, że jest to jakaś stała i całkowita rozpiętość tonalna każdego piksela pliku RAW.) Światło i prąd to zmienne analogowe, których nie opisują żadne ścisłe ramy lub same liczby całkowite jak to mam miejsce dalej w przypadku bitów. Wiadomo że rozpiętość tonalna światła zastanego jest o wiele wieksza niż rozpiętość, nazwijmy ją "tonalną", prądu które to światło generuje w sensorze (później zamienianego na bity). Podobie można założyć również, że maksymalna rozpiętość "tonalna" już samego prądu zawsze będzie dalece większa od "doskonale całkowitej" maksymalnej rozpiętości bitowej - a to z racji właśnie analogowej natury prądu.

    Pytanie sprowadza sie zatem do określenia jak działają przetworniki analogowo-cyfrowe w sensorze? Idąc dalej, czy 12-bitowa rozpiętość tonalna pokrywa pełną "paletę" prądów na sensorze wycinając z niej tylko 12-bitowy fragment? Czy raczej zdolność przetworników do rozpoznawania minimalnych różnic w prądach sensora nie pozwala wykorzystać potem pełnych 12 bitów dostępnych w pliku (być może wykorzystując jedynie środkowy lub skrajny fragment jego rozpiętości)?

    Jeśli powuższe założenia są prawdziwe (i to jest to podstawowe pytanie), myślę że dla obu przypadków decyzja o tym jak jasne ma być zdjęcie wyświetlane na monitorze jest już wyłacznie arbitrarną i podyktowana estetyką lub przydatnością takich plików/zdjęć.
    Gdyby 12 bitów to było "za mało", tak w 400d jak w 350d będziemy mieli inny zakres tonalny informacji o obrazie w plikach RAW o identycznej rozpiętości bitowej.
    Gdyby zaś 12 było "za dużo" (nadmierna rozpiętość bitowa względem zdolności przetworników a-c) wtedy pliki RAW z obu aparatów zawierałyby dokładnie tą samą informację o obrazie (przy założeniu, że dane przyporządkowane są środkowemu zakresowi rozpiętości bitowej z czystymi marginesami).

    Dobra. Teraz id spać bo mi zaraz łeb pęknie. Powiedzcie mi proszę gdzie się mylę, bo pewnie jutro mnie to będzie dalej gnębiło. ;-)

    Aha, zapomniałem wczoraj o konkluzji, żeby wszystko było jasne:
    Zmierzam do tego żeby zapytać (bo udowodnić chyba nie sposób), czy aby dwa identyczne sensory (nie wiem czy przetworniki a-c są liczone jako część sensora/matrycy, ale przyjmijmy że tak) zaprogramowane na dwa różne sposoby nie mogłyby generować zdjęć różniących się podobnie jasnością jak różnią się 400d i 350d (te 0.5 działki ekspozycji)? Jeśli tak oba sensory (z 400d i 350d) wcale nie muszą różnić sie czułością, a jedynie programem, który ich czułość wykorzystuje w różny sposób...
    Ok, jest git. Nie ukrywam, że licze na odpowiedź jakiegoś niezłego szpeca w temacie sensorów. No to tyle. :-)

Uprawnienia umieszczania postów

  • Nie możesz zakładać nowych tematów
  • Nie możesz pisać wiadomości
  • Nie możesz dodawać załączników
  • Nie możesz edytować swoich postów
  •