Zaloguj się

Zobacz pełną wersję : Czy da sie przerobić 40D na monochromatyczny



leopold
12-01-2011, 11:43
Szanowni,
tak sobie siedzę i kombinuję... Czy ktoś z Koleżeństwa może wie, czy da się przerobić C40D na kamerę monochromatyczną poprzez zdjęcie z matrycy wszystkich filtrów (mozaiki, IR)? Prawdziwe obrazy mono bez kombinowania w sofcie to byłoby super :)
Pozdrawia kombinator Leopold

Przemek_PC
12-01-2011, 11:51
Matryca jest RGB więc nici z czystej monochromii.

MariuszJ
12-01-2011, 12:44
Nie, matryca nie jest rgb, leopold kombinuje dobrze. Nie wiem jednak czy to wszystko nie jest technicznie scalone (sensory z filtrem Bayera).

przemko216
12-01-2011, 12:44
tak jak Przemek_PC napisał matryca jest RGB czyli trójkolorowa.
Po zdjęciu filtra IR będziesz miał albo zepsuty aparat albo nadający się tylko lub aż do fotografii astro.Napisz coś więcej do czego potrzebujesz matrycy mono?Są przeznaczone do tego specjalne kamery mono ale to już majątek...

MariuszJ
12-01-2011, 12:46
Matryca rejestruje tylko luminancję, zbiorem równoczułych sensorów - to że widzisz docelowo jakieś kolory wynika z tego że jest pokryta mozaiką kolorowych filtrów.

Przemek_PC
12-01-2011, 12:52
To dlaczego hot piksele świecą na czerwono, niebiesko czy biało?

justanimage
12-01-2011, 12:53
Za odpowiednią kwotę pewnie da sie przerobić :)
W linku masz firme która się zajmuje przeróbkami Canonów na BW:
http://www.maxmax.com/b&w_conversion.htm

Nawet sprzedają takie przerobione aparaty, ale za przeobione 500D zyczą sobie... 1800 dolarów :)

przemko216
12-01-2011, 12:55
MariuszJ dokładnie tak ,masz rację .
Napisz nam jeszcze sensorów czułych na jaki kolor jest najwięcej
tzn.w jakich proporcjach. a filtr przepuszcza pewne pasmo wiązki światła.prawda?więc jego zdemontowanie nic nie załatwi

MariuszJ
12-01-2011, 12:56
To dlaczego hot piksele świecą na czerwono, niebiesko czy biało?
Hotpixele są już zdemozaikowaniu.

Jeżeli "hotuje" jeden samotny pixel matrycy, to oznacza że po zdemozaikowaniu w obrazie wynikowym pixel wirtualny będzie świecił na zielono (z prawdopodobieństwem 1/2) lub czerwono/niebiesko (z prawdopodobieństwami 1/4).

Pixele matrycy NIE SĄ pixelami rawa. Pixele rawa są wyliczane z pixeli matrycy w procesie demozaikowania.

przemko216
12-01-2011, 12:56
spóżniłem się w tym linku jest wszystko jak na dłoni

MariuszJ
12-01-2011, 12:59
MariuszJ dokładnie tak ,masz rację .
Napisz nam jeszcze sensorów czułych na jaki kolor jest najwięcej
tzn.w jakich proporcjach. a filtr przepuszcza pewne pasmo wiązki światła.prawda?więc jego zdemontowanie nic nie załatwi
Sensory nie są czułe na kolory. Po prostu filtr przed sensorem zmienia pasmo, które dochodzi do sensora. Usunięcie filtra, bądź zastąpienie go filtrem neutralnie szarym oraz niestosowanie demozaikowania (czyli własne procedury konwersji rawa) dają Ci wypasiony aparat BW.

leopold
12-01-2011, 13:00
Rzeczywiście, matryca aparatu, niezależnie czy to jest CCD czy CMOS, z natury swojej jest macierzą identycznych fotometrów szerokopasmowych. Zwykle krzywa czułości czystego CCD zaczyna się gdzieś w UV, leci przez całe VIS a potem, w zależności od technologii kończy się w bliższej lub dalszej IR. Wydajność kwantowa macierzy w części VIS jest rzędu co najmniej 60%, ale może dochodzić do nawet 90% (np. w technologii back-iluminated), ale mase światła traci się na filtrach: mozaikowym (2 zielone, czerwony i niebieski, cztery w kwadracik), IR a jeszcze może być anty-aliasowy. Czyli gdyby zdjąć z taśmy produkcyjnej nasz sensor przed naniesieniem filtrów i wsadzić do puszki, to mamy aparat monochromatyczny. I teraz jest pytanie, jak filtry są nanoszone lub montowane na macierz? Filtr IR to z pewnością osobna płytka, co najwyżej przyklejona, i wiem, że są goście, którzy IR usuwają np. do astrofotografii. Natomiast jeśli dla filtru barwnego jest to jakiś rodzaj litografii, to umarł w butach... ale gdyby to jednak było np. przyklejane, to kto wie?
Pozdrawia Leopold

PS. W serwisie powiedzieli: nie... bo nie.

PawelB
12-01-2011, 13:00
Tyle że filtru Bayera raczej nie da się zdjąć z matrycy. Nawet zastanawiam się czy ten filtr to jedna całość, czy tez każda komórka ma swój wmontowany filtr w określonym kolorze.

leopold
12-01-2011, 13:03
Za odpowiednią kwotę pewnie da sie przerobić :)
W linku masz firme która się zajmuje przeróbkami Canonów na BW:
http://www.maxmax.com/b&w_conversion.htm

Nawet sprzedają takie przerobione aparaty, ale za przeobione 500D zyczą sobie... 1800 dolarów :)

Dzięki!
w stosunku do cen niektórych kamer to i tak drobne...
Pozdrawia Leopold
!!! Łączenie podwójnego wpisu !!!
Nie jest tak źle:
All of the digital SLR cameras cost $450 for conversion to IR-Only, IR-Visible or Visible High Resolution (HR). 1500 złociszy..... hmmm.......
Pozdrawia zadumany Leopold

Krzychu
12-01-2011, 14:12
All of the digital SLR cameras cost $450 for conversion to IR-Only, IR-Visible or Visible High Resolution (HR). 1500 złociszy..... hmmm.......
Pozdrawia zadumany Leopold

A mi się tylko nasuwa pytanie po co (zakładając że nie chodzi o IR tylko normalną BW fotografię)...

ksx
12-01-2011, 14:19
Ale w jakim celu chcecie te filtry usuwać? Filtr na matrycy powoduje, że do piksela "zielonego" dociera światło zielone, ale piksel i tak mierzy tylko jasność tego światła. To procesor rozpoznaje że teraz załatwia jasność koloru zielonego. Matryca sama w sobie tego nie wie. Więc jakby się bardzo uprzeć, to można napisać na nowo oprogramowanie, aby nie rozróżniało kolorów, ale prościej w stylach wybrać b&w i pewnie na jedno wyjdzie. Tyle że taniej i bez ryzyka uszkodzenia czegokolwiek.

MariuszJ
12-01-2011, 15:06
Ale w jakim celu chcecie te filtry usuwać? Filtr na matrycy powoduje, że do piksela "zielonego" dociera światło zielone, ale piksel i tak mierzy tylko jasność tego światła...
Tego światła dociera mniej. Co więcej - "nierównomiernie" mniej (pixel w pixel) - spada więc nie tylko czułość matrycy, ale i rozdzielczość tonalna.

Często spotyka się takie uproszczenie - w rawie mam 12 bitów informacji na pixel, w srgb 8. Raw jest więc niby 16 razy (2 do czwartej) dokładniejszy od jpega - niestety, to przez konstrukcję filtra bayerowskiego tylko niby. Mozaikowanie wytraca sporą część tej rozdzielczości.

leopold
12-01-2011, 17:55
Gwoli wyjaśnienia:
Moje rozważania na temat modyfikacji C40D spowodowane są koniecznością wykonania serii zdjęć w świetle ścisle monochromatycznym (pasmo, bagatela, o szerokości 0.03 nm) ale bez nadzwyczajnie dokładnej fotometrii.
Można to zapisać jako proste równanie:
światło monochrom + niekonieczna dokładna fotometria = zmodyfikowany C40D
c.b.d.o.
Pozdrawia wyrachowany Leopold

photographus
13-01-2011, 00:02
Masz łeb i ....uj to kombinuj :)
pozd®ówka

ksx
13-01-2011, 10:44
Tego światła dociera mniej. Co więcej - "nierównomiernie" mniej (pixel w pixel) - spada więc nie tylko czułość matrycy, ale i rozdzielczość tonalna.

Często spotyka się takie uproszczenie - w rawie mam 12 bitów informacji na pixel, w srgb 8. Raw jest więc niby 16 razy (2 do czwartej) dokładniejszy od jpega - niestety, to przez konstrukcję filtra bayerowskiego tylko niby. Mozaikowanie wytraca sporą część tej rozdzielczości.
Tak, ale te 12 bitów, nawet gdyby było, jest dla człowieka niedostrzegalne. Rozróżnisz pewnie koło 200 poziomów, reszta jest nie do pokazania, stanowi ewentualną rezerwę w obróbce i nic ponad.
!!! Łączenie podwójnego wpisu !!!

Gwoli wyjaśnienia:
Moje rozważania na temat modyfikacji C40D spowodowane są koniecznością wykonania serii zdjęć w świetle ścisle monochromatycznym (pasmo, bagatela, o szerokości 0.03 nm) ale bez nadzwyczajnie dokładnej fotometrii.
Można to zapisać jako proste równanie:
światło monochrom + niekonieczna dokładna fotometria = zmodyfikowany C40D
c.b.d.o.
Pozdrawia wyrachowany Leopold
Faveon?

MariuszJ
13-01-2011, 12:52
Tak, ale te 12 bitów, nawet gdyby było, jest dla człowieka niedostrzegalne. Rozróżnisz pewnie koło 200 poziomów, reszta jest nie do pokazania, stanowi ewentualną rezerwę w obróbce i nic ponad.
To że i tak docelowo zamieniasz to na mniejszą rozdzielczość a tym samym ta większa jest tylko rezerwą w obróbce, to prawda. Chodziło mi tylko o to, że tej przewagi nie jest tyle, ile różnicy między "bitowością" pixela rawa a wirtualnego pixela rgb - jest znacznie mniej, co więcej, "zmiennie mniej" :) Zdjęcie filtrów mozaikowych daje Ci to, że masz czysty, nieprzeliczany pomiar luminancji z pełną czułością i rozdzielczością sensora.

ksx
13-01-2011, 21:50
Chodziło mi tylko o to, że tej przewagi nie jest tyle, ile różnicy między "bitowością" pixela rawa a wirtualnego pixela rgb - jest znacznie mniej, co więcej, "zmiennie mniej" :)
No dobra, OT już mamy, to z czystej ciekawości, ile mniej? Dlaczego "zmiennie mniej"? I czy da się to jakoś logicznie wyjaśnić?

Zdjęcie filtrów mozaikowych daje Ci to, że masz czysty, nieprzeliczany pomiar luminancji z pełną czułością i rozdzielczością sensora.
Problem z cmosem jest taki, że każdy piksel oprócz faktu że jest natury aktywnej, to ma osobne tranzystory. I nie da się tych tranzystorów, wyprodukować identycznych. Dalej, jedne tranzystory są bliżej krawędzi, inne dalej, co daje im różne warunki cieplne. Fotodiody też nie są w 100% identyczne. Cała matryca jest kalibrowana w fazie produkcji, ale kalibrowana w takiej formie, w jakiej ma pracować-z filtrami. Zdejmiesz filtr, tracisz kalibrację. I teraz pozostaje pytanie, na które pewnie się odpowiedzieć nie da, lepiej przeliczać, czy lepiej mieć każdy piksel działający troszkę inaczej?
I pytanie ostatnie, wspomniałeś o stracie zakresu tonalnego. Naświetlisz?

pan.kolega
13-01-2011, 22:39
Mam nadzieje, ze wszyscy oczywiscie wiedza, ze te filtry kolorowe da pod mikrolensami?
!!! Łączenie podwójnego wpisu !!!
Da = sa

leopold
13-01-2011, 23:21
Bez wątpienia da się wyrównać macierz poza fabryką. Bez wątpienia można też wprowadzić chłodzenie matrycy. To jest elektronika, da się zrobić niemal wszystko, ale nie jest tanio. Nie wiem czy czterostrzałowa ścianka nie wyjdzie ciut taniej;). Że o zwykłym analogu i filmie nie wspomnę. A tak na marginesie, podałeś szerokość pasma, a jaki to ma być kolor?

Kolor purpury :) Dokładniej nie napiszę, bo co bardziej kumaci mogliby mnie zidentyfikować.
W tym, co rozważam, C40D byłby zupełnie wystarczający, więc po co strzelać z armaty do wróbla, tym bardziej że dla kogoś, kto już ma odpowiednie body, pozostaje tylko koszt konwersji.
Pozdrawia Leopold

PS. Analog super, hiper, jak nie ma kilku tysięcy zdjęć dziennie. Potężne koszty negatywów, a w dodatku mój ulubiony Kodak 2415 dawno już przeszedł do historii. Potem trzeba to było wywołać w D19, digitalizacja skanerami też ani tania ani szybka nie jest. Jedyna zaleta analoga to autoarchiwizacja informacji.

ksx
13-01-2011, 23:23
Mam nadzieje, ze wszyscy oczywiscie wiedza, ze te filtry kolorowe da pod mikrolensami?
!!! Łączenie podwójnego wpisu !!!
Da = sa
Tak, to są czysto teoretyczne dywagacje.

MariuszJ
13-01-2011, 23:27
No tu akurat paradoksu nie widzę. Tyle że raw ma 12 bitów, jpg 8.
8 bitów na kolor. Czyli 24 bity na pixel.

MariuszJ
13-01-2011, 23:28
8 bitów na kolor. Czyli 24 bity na pixel.

(coś się stało z kolejnością postów, zdaje się że Vitez zakrzywił czasoprzestrzeń)

leopold
13-01-2011, 23:30
Cała matryca jest kalibrowana w fazie produkcji, ale kalibrowana w takiej formie, w jakiej ma pracować-z filtrami. Zdejmiesz filtr, tracisz kalibrację. I teraz pozostaje pytanie, na które pewnie się odpowiedzieć nie da, lepiej przeliczać, czy lepiej mieć każdy piksel działający troszkę inaczej?
I pytanie ostatnie, wspomniałeś o stracie zakresu tonalnego. Naświetlisz?

W niektórych zastosowaniach kalibracje macierzy monochromatycznych, jesli trzeba, robi sie codziennie albo nawet częściej :). Wykonuje się darki (DC) oraz flaty (FF), a potem kalibruje się każdy z pikseli z osobna. Przy czym nie kalibruje się wcale absolutnej zależności sygnał/DNS a tylko względne czułości poszczególnych pikseli. No i jeszcze dobrze znać zależność DC od temperatury (zresztę przy takich zabawach z regóły macierze są chłodzone (Peltier, glikol, azot itp.), liniowośc matrycy, bias itp.
Kupa... zabawy
Pozdrawia znękany Leopold

MariuszJ
13-01-2011, 23:44
No dobra, OT już mamy, to z czystej ciekawości, ile mniej? Dlaczego "zmiennie mniej"? I czy da się to jakoś logicznie wyjaśnić?
Dla uproszczenia przyjmijmy że demozaikowanie odbywa się w najprostszy z możliwych sposobów - każdy wirtualny rgb-pixel, wyliczony dla czterech otaczających go realnych (dwóch zielonych, czerwonego i niebieskiego) dostaje wartość będącą znormalizowaną do 8-bitów wartością luminancji realnych (2 zielone uśredniamy). Mamy do czynienia z 16-krotnym spadkiem rozdzielczości. Tyle, że te same realne pixele, z których wylicza się wirtualne rgb, są wykorzystywane do wyliczania innych - w metodzie którą przedstawiłem każdy czterech.

Jeżeli chodzi o liczbę informacji, to paradoksalnie 10mpx 12-bitowych pixeli rawa niesie DUŻO MNIEJ informacji, niż 10mpx 24-bitowych pixeli zdemozaikowanego rgb!

Oznacza to, że zysk na rozdzielczości musi być liczony inaczej, względem nie obrazu o całkowicie swobodnych wartościach (maksymalnej entropii) dla każdego punktu matrycy, a "typowego obiektu foto" (oraz wrażenia, jakie wywołuje np. w ludzkim oku, które nie analizuje przecież obrazu na poziomie jego elementarnych składowych).

Dlaczego "zmiennie mniej"? Bo zależnie od tego, z czego składa się kadr. Łatwo sobie to wyobrazić na dwóch skrajnych przykładach - gradientowego przejścia z zupełnej czerni do maksymalnie nasyconej czerwieni oraz kadru w którym mamy naprzemiennie czarne i czerwone paski o szerokości jednego pixela.


Problem z cmosem jest taki, że każdy piksel oprócz faktu że jest natury aktywnej, to ma osobne tranzystory. I nie da się tych tranzystorów, wyprodukować identycznych. Dalej, jedne tranzystory są bliżej krawędzi, inne dalej, co daje im różne warunki cieplne. Fotodiody też nie są w 100% identyczne. Cała matryca jest kalibrowana w fazie produkcji, ale kalibrowana w takiej formie, w jakiej ma pracować-z filtrami. Zdejmiesz filtr, tracisz kalibrację. I teraz pozostaje pytanie, na które pewnie się odpowiedzieć nie da, lepiej przeliczać, czy lepiej mieć każdy piksel działający troszkę inaczej?

A gdzie wg Ciebie po kalibracji umieszcza się te dane kalibracyjne? Bo na wyczucie, to nie ma ich w ogóle... A jeżeli tak, nie ma żadnego osobniczego dopasowania sensorów do mozaiki, czyli: mozaikę można ściągać bez obawy rozkalibrowania.


I pytanie ostatnie, wspomniałeś o stracie zakresu tonalnego. Naświetlisz?
Patrz pierwszy akapit.
!!! Łączenie podwójnego wpisu !!!
.
Po przemyśleniu, co do drugiego akapitu - przyznaję Ci rację: kalibracja, jeżeli już, ma sens tylko przy sensorach scalonych z mozaiką. A ponieważ (jak zresztą Leopold napisał) sygnały są jednak osobniczo przetwarzane, po (potencjalnym) usunięciu mozaiki musisz kalibrować ponownie.

ksx
13-01-2011, 23:48
8 bitów na kolor. Czyli 24 bity na pixel.
To taka zmyła;)? Ale ok, chcesz przez to powiedzieć, że jpg o ośmiobitowej głębi ma więcej informacji o tanalności niż 12 bitowy raw? Delikatnie rzecz ujmując, ryzykowne twierdzenie.

ksx
13-01-2011, 23:49
W niektórych zastosowaniach kalibracje macierzy monochromatycznych, jesli trzeba, robi sie codziennie albo nawet częściej :). Wykonuje się darki (DC) oraz flaty (FF), a potem kalibruje się każdy z pikseli z osobna. Przy czym nie kalibruje się wcale absolutnej zależności sygnał/DNS a tylko względne czułości poszczególnych pikseli. No i jeszcze dobrze znać zależność DC od temperatury (zresztę przy takich zabawach z regóły macierze są chłodzone (Peltier, glikol, azot itp.), liniowośc matrycy, bias itp.
Kupa... zabawy
Pozdrawia znękany Leopold
Bez wątpienia da się wyrównać macierz poza fabryką. Bez wątpienia można też wprowadzić chłodzenie matrycy. To jest elektronika, da się zrobić niemal wszystko, ale nie jest tanio. Nie wiem czy czterostrzałowa ścianka nie wyjdzie ciut taniej;). Że o zwykłym analogu i filmie nie wspomnę. A tak na marginesie, podałeś szerokość pasma, a jaki to ma być kolor?
!!! Łączenie podwójnego wpisu !!!

Dla uproszczenia przyjmijmy że demozaikowanie odbywa się w najprostszy z możliwych sposobów - każdy wirtualny rgb-pixel, wyliczony dla czterech otaczających go realnych (dwóch zielonych, czerwonego i niebieskiego) dostaje wartość będącą znormalizowaną do 8-bitów wartością luminancji realnych (2 zielone uśredniamy). Mamy do czynienia z 16-krotnym spadkiem rozdzielczości. Tyle, że te same realne pixele, z których wylicza się wirtualne rgb, są wykorzystywane do wyliczania innych - w metodzie którą przedstawiłem każdy czterech.

Dla uproszczenia to jest tak, że każdy piksel ma jasność jednego kanału mierzoną, a dwóch pozostałych zgadywanych na podstawie sąsiednich pikseli. Nie widzę jak dotąd powodu, aby ilość poziomów, czy jak wolisz rozdzielczości konkretnych kanałów obniżać.


Jeżeli chodzi o liczbę informacji, to paradoksalnie 10mpx 12-bitowych pixeli rawa niesie DUŻO MNIEJ informacji, niż 10mpx 24-bitowych pixeli zdemozaikowanego rgb!

No tu akurat paradoksu nie widzę. Tyle że raw ma 12 bitów, jpg 8. 24 bitów nie mam dostępnych.
I niestety nadal nie rozumiem dlaczego 12 bitów niesie mniej informacji, niż się po nich spodziewamy. I nadal nie wiem ile mniej. I nadal nie rozumiem, dlaczego ilość informacji jest zależna od kadru.

MariuszJ
13-01-2011, 23:55
To taka zmyła;)? Ale ok, chcesz przez to powiedzieć, że jpg o ośmiobitowej głębi ma więcej informacji o tanalności niż 12 bitowy raw? Delikatnie rzecz ujmując, ryzykowne twierdzenie.
W kategoriach ilości informacji - tak.

Jeżeli pixel realny jest 12-bitowy, a wirtualny 24-bitowy - dodatkowa informacja musi pochodzić z aproksymacji.

Rzecz w tym, że ostateczna konsumpcja obrazka rozgrywa się w nieco innej domenie niż liczenie bitów :) Bayer wymyślił to tak, że to 12-bit - wygrywa :)

ksx
14-01-2011, 09:12
W kategoriach ilości informacji - tak.

Jeżeli pixel realny jest 12-bitowy, a wirtualny 24-bitowy - dodatkowa informacja musi pochodzić z aproksymacji.

Rzecz w tym, że ostateczna konsumpcja obrazka rozgrywa się w nieco innej domenie niż liczenie bitów :) Bayer wymyślił to tak, że to 12-bit - wygrywa :)
No dobrze, tylko piksel wirtualny, jeśli dobrze Cie zrozumiałem, to abstrakcja. Jego nie ma. Jest piksel z rawa-12 bitowy i piksel z jpga-8bitowy. Nawet jeśli w pikselu z jpga masz informacje o 3x256 poziomów jasności (przy czym 2x256 poziomów jest zgadywane) to nie daje 16mln poziomów jakie sugeruje zapis 24 bitowy. Trzy słowa po osiem bitów nie jest jednoznaczne z jednym 24 bitowym. To matematyka a nie Bayer. Tak samo jak trzy liczby dwucyfrowe nie są równe jednej sześciocyfrowej.

justanimage
14-01-2011, 10:38
Ło matko głowa zaczyna mnie boleć jak czytam wasze posty ;)

Leopold, jesli rzeczywiscie masz trzaskac kilka tysiecy zdjęć (dziennie?) w BW, i masz za to zarabic to moze warto se przerobic czterdziestke na BW. W innym wypadku to chyba nie ma sensu...

leopold
14-01-2011, 11:05
Ło matko głowa zaczyna mnie boleć jak czytam wasze posty ;)

Leopold, jesli rzeczywiscie masz trzaskac kilka tysiecy zdjęć (dziennie?) w BW, i masz za to zarabic to moze warto se przerobic czterdziestke na BW. W innym wypadku to chyba nie ma sensu...

Ja nie mam trzaskać, od lat mam takie dni, że "urobek" idzie w tysiące :( i za to zarabiam... lepiej nie mówić ile, bo się będziecie śmiali. Zacząłem trzaskać jeszcze Olympusami OM2... To była maszynka! Teraz już takich nie robią, magazynek na 250 klatek, timer zewnętrzny z dodatkowym zewnętrznym wyzwalaniem itd.
Pozdrawia Leopold

PS. No właśnie o przerabianiu mówimy :)

PS2. To, że ktoś robi zylion zdjęć dziennie, wcale nie znaczy, że potrafi robić porządne zdjęcia krajobrazowe, portretowe itd. Jest tylko rzemieślnikiem. Co do widoczków i ciotek to jestem zupełnym amatorem i mi to całkiem pasuje :)

justanimage
14-01-2011, 11:16
Ja nie mam trzaskać, od lat mam takie dni, że "urobek" idzie w tysiące :( i za to zarabiam... lepiej nie mówić ile, bo się będziecie śmiali. Zacząłem trzaskać jeszcze Olympusami OM2... To była maszynka! Teraz już takich nie robią, magazynek na 250 klatek, timer zewnętrzny z dodatkowym zewnętrznym wyzwalaniem itd.
Pozdrawia Leopold

PS. No właśnie o przerabianiu mówimy :)

PS2. To, że ktoś robi zylion zdjęć dziennie, wcale nie znaczy, że potrafi robić porządne zdjęcia krajobrazowe, portretowe itd. Jest tylko rzemieślnikiem. Co do widoczków i ciotek to jestem zupełnym amatorem i mi to całkiem pasuje :)

Jak robisz dużo zdjęć to może lepiej przerób sobie starego Deesa mkI, lub 1dmk2 - powinny dłużej wytrzymac a i jakość zdjęcia(ostrość) bedzie lepsza niż w 40d.

leopold
14-01-2011, 11:53
Jak robisz dużo zdjęć to może lepiej przerób sobie starego Deesa mkI, lub 1dmk2 - powinny dłużej wytrzymac a i jakość zdjęcia(ostrość) bedzie lepsza niż w 40d.

Leopold jest zwierzęciem ostrożnym :) 40D ma na składzie, jak nawet jedno nie przeżyje eksperymentu, to trudno (do pewnego stopnia oczywiście). Łączne ryzyko finansowe to raptem koszt przeróbki. Natomiast, jak a) zdobędę forsę b) przeróbka się uda i c) wyjdzie jak tego oczekuję, oooooo, to wtedy zacznie się inna rozmowa.
Pozdrawia Leopold

PS. Pracuję na sprzęcie, na który i Wy (tak! i Pan, i Pan, i jeszcze ta Pani... ) się zrzuciliście, poprzez podatki. Chyba nie chcecie, żebym szastał Waszymi pieniędzmi :roll:

MariuszJ
14-01-2011, 12:02
No dobrze, tylko piksel wirtualny, jeśli dobrze Cie zrozumiałem, to abstrakcja. Jego nie ma. Jest piksel z rawa-12 bitowy i piksel z jpga-8bitowy. Nawet jeśli w pikselu z jpga masz informacje o 3x256 poziomów jasności (przy czym 2x256 poziomów jest zgadywane) to nie daje 16mln poziomów jakie sugeruje zapis 24 bitowy. Trzy słowa po osiem bitów nie jest jednoznaczne z jednym 24 bitowym. To matematyka a nie Bayer. Tak samo jak trzy liczby dwucyfrowe nie są równe jednej sześciocyfrowej.

Zanim nas znienawidzą ;)

Matematyka mówi, że trzy liczby 8-bitowe w ustalonej kolejności to liczba 24-bitowa. :)

Problem jest niematematyczny: RGB jest nie dla fotografii, jest dla monitorów i drukarek. Dla człowieka ważniejsza (bo wierniejsza) jest 12-bitowa luminancja białego plus po bayerowsku wyliczona chrominancja niż 8-bitowe luminancje trzech kolorów podstawowych. Nie mówiąc już o tym, że lepiej mieć 12mpx sensorów luminancji niż np. 4Mpx sensorów luminancji barw podstawowych.

Wracając do tematu off-topica: jeżeli by się dało i nie spieprzyła by się kalibracja, do fotografii mono warto maskę Bayera zdjąć. Zyskujemy na czułości i rozdzielczości (bo po przejściu przez maskę luminancję białego trzeba wyliczać ze sczytanych wartości średnią ważoną).

justanimage
14-01-2011, 12:37
Leopold jest zwierzęciem ostrożnym :) 40D ma na składzie, jak nawet jedno nie przeżyje eksperymentu, to trudno (do pewnego stopnia oczywiście). Łączne ryzyko finansowe to raptem koszt przeróbki. Natomiast, jak a) zdobędę forsę b) przeróbka się uda i c) wyjdzie jak tego oczekuję, oooooo, to wtedy zacznie się inna rozmowa.
Pozdrawia Leopold

PS. Pracuję na sprzęcie, na który i Wy (tak! i Pan, i Pan, i jeszcze ta Pani... ) się zrzuciliście, poprzez podatki. Chyba nie chcecie, żebym szastał Waszymi pieniędzmi :roll:

A witamy sfere budzetową :)
Miło wiedzieć ze dobrze sie bawicie za nasze podatki ;))

A wracając do tematu: ta firma od przeróbek mocno się chwali jakimi są profesjonalistami, więc chyba ryzyko nieprzeżycia sprzetu jest minimalne:
http://www.maxmax.com/hall_of_shame.htm

"We work on cameras in a Class 100 clean bench environment. Class 100 US FED Std 209E is equivalent to a Class 5 ISO 14644-1. Class 100 environment means that maximum particles for cubic foot is 100 > 5 microns. Once we noted on our website that we installed a class 100 clean bench, one of our competitors claimed they had a ISO Class 100 clean bench a week later. Subsequently, they changed their claim to a Class 5 environment. We also don't claim to have equipment we don't really have.

We are not wedding photographers who convert cameras as a side job. We do not sell services to teach people how to retouch photographs. We sell and modify a wide variety of optical equipment. We have been in business since 1997 and occupy our own 6,500 square foot building. We ship worldwide on a daily basis and count many industrial, educational, scientific and military users as our customers."

Kajtek_bez_Majtek
14-01-2011, 13:28
Hmm, a czy przy okazji nie trzeba by było też przerabiać firmware? W końcu aparat dalej myśli, że robi w kolorze.

MariuszJ
14-01-2011, 13:41
Hmm, a czy przy okazji nie trzeba by było też przerabiać firmware? W końcu aparat dalej myśli, że robi w kolorze.
Zbieramy raw i obrabiamy go na zewnątrz, niestandardowym oprogramowaniem.

ksx
14-01-2011, 20:45
Kolor purpury :) Dokładniej nie napiszę, bo co bardziej kumaci mogliby mnie zidentyfikować.
W tym, co rozważam, C40D byłby zupełnie wystarczający, więc po co strzelać z armaty do wróbla, tym bardziej że dla kogoś, kto już ma odpowiednie body, pozostaje tylko koszt konwersji.
Pozdrawia Leopold

PS. Analog super, hiper, jak nie ma kilku tysięcy zdjęć dziennie. Potężne koszty negatywów, a w dodatku mój ulubiony Kodak 2415 dawno już przeszedł do historii. Potem trzeba to było wywołać w D19, digitalizacja skanerami też ani tania ani szybka nie jest. Jedyna zaleta analoga to autoarchiwizacja informacji.
1. Próbowałeś robić nieprzerabianym c40d? Bo sobie tu teoretyzujemy, dyskutujemy w fajnej atmosferze, ale może się okazać, że na normalnym aparacie nie jest źle.
2. C40d nawet przerobione może nie pożyć za długo w pracy po tysiąc i więcej zdjęć dziennie.

pan.kolega
16-01-2011, 17:52
Ja też bym zapłacił każdą cenę, żeby tylko mieć więcej megapikseli, kosztem obniżenia światłoczułości....przecież wszyscy cierpimy na zbyt mało Mpix...:rolleyes:

leopold
17-01-2011, 11:31
Są dwa istotne powody, które w niektórych zastosowaniach skłaniają do stosowania matryc monochromatycznych: 2-krotny wzrost przestrzennej zdolności rozdzielczej w każdej z osi lub ponad dwukrotny (dla zieleni) albo ponad czterokrotny (dla czerwieni i błękitów) wzrost czułości ze względu na wzrost powierzchni aktywnej oraz usuniecie filtrów IR i antyaliasowego.
Pozdrawia Leopold

flankerp
19-01-2011, 19:19
@leopold: czy ty pracujesz nad silnikami Warpowymi :D Normalnie jestem pod wrazeniem tej tajemniczości :)

Pozdrawiam