Strona 3 z 5 PierwszyPierwszy 12345 OstatniOstatni
Pokaż wyniki od 21 do 30 z 45

Wątek: Czy da sie przerobić 40D na monochromatyczny

  1. #21
    Pełne uzależnienie Awatar MariuszJ
    Dołączył
    Dec 2009
    Miasto
    Łódź
    Wiek
    56
    Posty
    1 697

    Domyślnie

    Cytat Zamieszczone przez ksx Zobacz posta
    Tak, ale te 12 bitów, nawet gdyby było, jest dla człowieka niedostrzegalne. Rozróżnisz pewnie koło 200 poziomów, reszta jest nie do pokazania, stanowi ewentualną rezerwę w obróbce i nic ponad.
    To że i tak docelowo zamieniasz to na mniejszą rozdzielczość a tym samym ta większa jest tylko rezerwą w obróbce, to prawda. Chodziło mi tylko o to, że tej przewagi nie jest tyle, ile różnicy między "bitowością" pixela rawa a wirtualnego pixela rgb - jest znacznie mniej, co więcej, "zmiennie mniej" Zdjęcie filtrów mozaikowych daje Ci to, że masz czysty, nieprzeliczany pomiar luminancji z pełną czułością i rozdzielczością sensora.
    Entuzjastyczny Neofita

  2. #22
    Początki nałogu
    Dołączył
    Jan 2008
    Posty
    290

    Domyślnie

    Cytat Zamieszczone przez MariuszJ Zobacz posta
    Chodziło mi tylko o to, że tej przewagi nie jest tyle, ile różnicy między "bitowością" pixela rawa a wirtualnego pixela rgb - jest znacznie mniej, co więcej, "zmiennie mniej"
    No dobra, OT już mamy, to z czystej ciekawości, ile mniej? Dlaczego "zmiennie mniej"? I czy da się to jakoś logicznie wyjaśnić?
    Cytat Zamieszczone przez MariuszJ Zobacz posta
    Zdjęcie filtrów mozaikowych daje Ci to, że masz czysty, nieprzeliczany pomiar luminancji z pełną czułością i rozdzielczością sensora.
    Problem z cmosem jest taki, że każdy piksel oprócz faktu że jest natury aktywnej, to ma osobne tranzystory. I nie da się tych tranzystorów, wyprodukować identycznych. Dalej, jedne tranzystory są bliżej krawędzi, inne dalej, co daje im różne warunki cieplne. Fotodiody też nie są w 100% identyczne. Cała matryca jest kalibrowana w fazie produkcji, ale kalibrowana w takiej formie, w jakiej ma pracować-z filtrami. Zdejmiesz filtr, tracisz kalibrację. I teraz pozostaje pytanie, na które pewnie się odpowiedzieć nie da, lepiej przeliczać, czy lepiej mieć każdy piksel działający troszkę inaczej?
    I pytanie ostatnie, wspomniałeś o stracie zakresu tonalnego. Naświetlisz?

  3. #23
    Pełne uzależnienie Awatar pan.kolega
    Dołączył
    May 2008
    Posty
    2 817

    Domyślnie

    Mam nadzieje, ze wszyscy oczywiscie wiedza, ze te filtry kolorowe da pod mikrolensami?
    !!! Łączenie podwójnego wpisu !!!
    Da = sa
    Ostatnio edytowane przez pan.kolega ; 13-01-2011 o 22:40 Powód: Automerged Doublepost

  4. #24

    Domyślnie

    Cytat Zamieszczone przez ksx Zobacz posta
    Bez wątpienia da się wyrównać macierz poza fabryką. Bez wątpienia można też wprowadzić chłodzenie matrycy. To jest elektronika, da się zrobić niemal wszystko, ale nie jest tanio. Nie wiem czy czterostrzałowa ścianka nie wyjdzie ciut taniej. Że o zwykłym analogu i filmie nie wspomnę. A tak na marginesie, podałeś szerokość pasma, a jaki to ma być kolor?
    Kolor purpury Dokładniej nie napiszę, bo co bardziej kumaci mogliby mnie zidentyfikować.
    W tym, co rozważam, C40D byłby zupełnie wystarczający, więc po co strzelać z armaty do wróbla, tym bardziej że dla kogoś, kto już ma odpowiednie body, pozostaje tylko koszt konwersji.
    Pozdrawia Leopold

    PS. Analog super, hiper, jak nie ma kilku tysięcy zdjęć dziennie. Potężne koszty negatywów, a w dodatku mój ulubiony Kodak 2415 dawno już przeszedł do historii. Potem trzeba to było wywołać w D19, digitalizacja skanerami też ani tania ani szybka nie jest. Jedyna zaleta analoga to autoarchiwizacja informacji.

  5. #25
    Początki nałogu
    Dołączył
    Jan 2008
    Posty
    290

    Domyślnie

    Cytat Zamieszczone przez pan.kolega Zobacz posta
    Mam nadzieje, ze wszyscy oczywiscie wiedza, ze te filtry kolorowe da pod mikrolensami?
    !!! Łączenie podwójnego wpisu !!!
    Da = sa
    Tak, to są czysto teoretyczne dywagacje.

  6. #26
    Pełne uzależnienie Awatar MariuszJ
    Dołączył
    Dec 2009
    Miasto
    Łódź
    Wiek
    56
    Posty
    1 697

    Domyślnie

    Cytat Zamieszczone przez ksx Zobacz posta
    No tu akurat paradoksu nie widzę. Tyle że raw ma 12 bitów, jpg 8.
    8 bitów na kolor. Czyli 24 bity na pixel.
    Entuzjastyczny Neofita

  7. #27
    Pełne uzależnienie Awatar MariuszJ
    Dołączył
    Dec 2009
    Miasto
    Łódź
    Wiek
    56
    Posty
    1 697

    Domyślnie

    8 bitów na kolor. Czyli 24 bity na pixel.

    (coś się stało z kolejnością postów, zdaje się że Vitez zakrzywił czasoprzestrzeń)
    Entuzjastyczny Neofita

  8. #28

    Domyślnie

    Cytat Zamieszczone przez ksx Zobacz posta
    Cała matryca jest kalibrowana w fazie produkcji, ale kalibrowana w takiej formie, w jakiej ma pracować-z filtrami. Zdejmiesz filtr, tracisz kalibrację. I teraz pozostaje pytanie, na które pewnie się odpowiedzieć nie da, lepiej przeliczać, czy lepiej mieć każdy piksel działający troszkę inaczej?
    I pytanie ostatnie, wspomniałeś o stracie zakresu tonalnego. Naświetlisz?
    W niektórych zastosowaniach kalibracje macierzy monochromatycznych, jesli trzeba, robi sie codziennie albo nawet częściej . Wykonuje się darki (DC) oraz flaty (FF), a potem kalibruje się każdy z pikseli z osobna. Przy czym nie kalibruje się wcale absolutnej zależności sygnał/DNS a tylko względne czułości poszczególnych pikseli. No i jeszcze dobrze znać zależność DC od temperatury (zresztę przy takich zabawach z regóły macierze są chłodzone (Peltier, glikol, azot itp.), liniowośc matrycy, bias itp.
    Kupa... zabawy
    Pozdrawia znękany Leopold

  9. #29
    Pełne uzależnienie Awatar MariuszJ
    Dołączył
    Dec 2009
    Miasto
    Łódź
    Wiek
    56
    Posty
    1 697

    Domyślnie

    Cytat Zamieszczone przez ksx Zobacz posta
    No dobra, OT już mamy, to z czystej ciekawości, ile mniej? Dlaczego "zmiennie mniej"? I czy da się to jakoś logicznie wyjaśnić?
    Dla uproszczenia przyjmijmy że demozaikowanie odbywa się w najprostszy z możliwych sposobów - każdy wirtualny rgb-pixel, wyliczony dla czterech otaczających go realnych (dwóch zielonych, czerwonego i niebieskiego) dostaje wartość będącą znormalizowaną do 8-bitów wartością luminancji realnych (2 zielone uśredniamy). Mamy do czynienia z 16-krotnym spadkiem rozdzielczości. Tyle, że te same realne pixele, z których wylicza się wirtualne rgb, są wykorzystywane do wyliczania innych - w metodzie którą przedstawiłem każdy czterech.

    Jeżeli chodzi o liczbę informacji, to paradoksalnie 10mpx 12-bitowych pixeli rawa niesie DUŻO MNIEJ informacji, niż 10mpx 24-bitowych pixeli zdemozaikowanego rgb!

    Oznacza to, że zysk na rozdzielczości musi być liczony inaczej, względem nie obrazu o całkowicie swobodnych wartościach (maksymalnej entropii) dla każdego punktu matrycy, a "typowego obiektu foto" (oraz wrażenia, jakie wywołuje np. w ludzkim oku, które nie analizuje przecież obrazu na poziomie jego elementarnych składowych).

    Dlaczego "zmiennie mniej"? Bo zależnie od tego, z czego składa się kadr. Łatwo sobie to wyobrazić na dwóch skrajnych przykładach - gradientowego przejścia z zupełnej czerni do maksymalnie nasyconej czerwieni oraz kadru w którym mamy naprzemiennie czarne i czerwone paski o szerokości jednego pixela.

    Cytat Zamieszczone przez ksx Zobacz posta
    Problem z cmosem jest taki, że każdy piksel oprócz faktu że jest natury aktywnej, to ma osobne tranzystory. I nie da się tych tranzystorów, wyprodukować identycznych. Dalej, jedne tranzystory są bliżej krawędzi, inne dalej, co daje im różne warunki cieplne. Fotodiody też nie są w 100% identyczne. Cała matryca jest kalibrowana w fazie produkcji, ale kalibrowana w takiej formie, w jakiej ma pracować-z filtrami. Zdejmiesz filtr, tracisz kalibrację. I teraz pozostaje pytanie, na które pewnie się odpowiedzieć nie da, lepiej przeliczać, czy lepiej mieć każdy piksel działający troszkę inaczej?
    A gdzie wg Ciebie po kalibracji umieszcza się te dane kalibracyjne? Bo na wyczucie, to nie ma ich w ogóle... A jeżeli tak, nie ma żadnego osobniczego dopasowania sensorów do mozaiki, czyli: mozaikę można ściągać bez obawy rozkalibrowania.

    Cytat Zamieszczone przez ksx Zobacz posta
    I pytanie ostatnie, wspomniałeś o stracie zakresu tonalnego. Naświetlisz?
    Patrz pierwszy akapit.
    !!! Łączenie podwójnego wpisu !!!
    .
    Po przemyśleniu, co do drugiego akapitu - przyznaję Ci rację: kalibracja, jeżeli już, ma sens tylko przy sensorach scalonych z mozaiką. A ponieważ (jak zresztą Leopold napisał) sygnały są jednak osobniczo przetwarzane, po (potencjalnym) usunięciu mozaiki musisz kalibrować ponownie.
    Ostatnio edytowane przez MariuszJ ; 13-01-2011 o 23:48 Powód: Automerged Doublepost
    Entuzjastyczny Neofita

  10. #30
    Początki nałogu
    Dołączył
    Jan 2008
    Posty
    290

    Domyślnie

    Cytat Zamieszczone przez MariuszJ Zobacz posta
    8 bitów na kolor. Czyli 24 bity na pixel.
    To taka zmyła? Ale ok, chcesz przez to powiedzieć, że jpg o ośmiobitowej głębi ma więcej informacji o tanalności niż 12 bitowy raw? Delikatnie rzecz ujmując, ryzykowne twierdzenie.

Strona 3 z 5 PierwszyPierwszy 12345 OstatniOstatni

Uprawnienia umieszczania postów

  • Nie możesz zakładać nowych tematów
  • Nie możesz pisać wiadomości
  • Nie możesz dodawać załączników
  • Nie możesz edytować swoich postów
  •