Zmienił się tylko kąt padania światła...
Wersja do druku
Zmienił się tylko kąt padania światła...
Panowie i Panie.Nie zapominając że jest to wątek o następcy 5D w którym to chcielibyśmy mieć najnowsze technologie przyszłości (kosmiczne,opracowane przez NASA) weźcie pod uwagę że problem prześwietlenia pikseli nie dotyczy tylko fotografii.
Jest on również w filmie.Jeśli przyjrzeć się materiałom z planu filmowego to widać ludzi zasuwających z blendami.Technologia o której piszecie może być opracowana ,opatentowana ,ale z jakiegoś powodu nie jest wdrożona w przemysł który jest odrobinę bardziej rozwinięty niż nasza ulubiona fotografia.A już na pewno nie mamy co liczyć na taką nowinkę w segmencie dla zaawansowanych amatorów.
Migawka byłaby do tego, żeby uciąć strumień światełka ciągle walący w fotodetektory i uwalniający elektrony. Inaczej może dojść do tego, że zczytasz partię fotodetektorów a reszta w tym czasie ciągle zbiera. Szczególnie niebezpieczne na granicy przepału chyba.
Nie wiem - tak zupełnie lamersko mi się to ułożyło. Być może błędnie :-)
Jarku - wiem :) aż tak ślepy nie jestem ;) ... taka mała prowokacja dla tych, którzy jeszcze nie bawili się w rozjaśnianie EVOLUTION (są tacy ?)
... a na poważnie... najchętniej widziałbym w tym księżycowym projekcie następce 5D - np. 3D ze zintegrowanym gripem (co tłumaczyłoby przysłonięcie dołu korpusu)... a kółko to taki zewnętrzny drobiazg, który odróżniać miałby ten model od jedynek
To jest film...w każdej kolejnej klatce można nanieść poprawkę mając pomiar z poprzedniej.W filmie kadry zmieniają się spokojnie , powoli , nawet w dynamicznych scenach akcji , jest na to czas a nasze oko i tak tego nie wychwyci bo oglądamy 24 klatki na sekundę i dopiero to nam tworzy obraz (ruchomy) - filmu nie ogląda się jak zdjęcia.
myst - to działa w drugą stronę, wielokrotnie naświetlane są tylko przepalone piksele, cała reszta (w naszym pomyśle;) jest traktowana jak na zwykłej przestarzałej i zaśniedziałej dzisiejszej matrycy:mrgreen:
W patencie CBmatrix;) trzeba by naświetlać na cienie, bo tylko światła mogłyby być 'ratowane'. Mechaniczna migawka w niczym nie przeszkadza i w fotografii sportowej CBMatrix nie jest żadnym ograniczeniem - bo ona reguluje czas na podstawie wcześniejszego pomiaru.
Zamiast wielokrotnej ekspozycji można by ew. zastosować dynamiczne wzmocnienie (ISO) - kiedy piksel się szybko 'zapełnia' procesor żeby zapobiec przepaleniu w czasie ekspozycji obniża napięcie na danym pikselu zmniejszając czułość, czy ew. po przepełnieniu następny pomiar wykonuje z odp dobranym wzmocnieniem.
CBMatrix to przyszłość fotografii:mrgreen:
Tylko że musiałaby zasłonić całą matrycę w jednym momencie, być wystarczająco szybka. Pewnie przy dłuższych czasach nie miałoby to znaczenia, ale zbliżając się do czasu synch. z lampą, nierówne naświetlenie mogłoby być coraz bardziej widoczne. Może wygodniej po prostu odciąć jej prąd :-) ? Zresztą ja tam się nie znam... lubię prześwietlenia, niedoświetlenia i dobrze mi z tym :mrgreen:
Hmm... jednak po głębszym zastanowieniu, gdyby ekspozycja rozpoczynała się od włączenia matrycy podobnie jak w kompaktach, to termin czas synchronizacji przestałby istnieć :)
O tym patencie pisałem jakiś czas temu.
www.canon-board.info/showpost.php?p=503501
Nie, to wszystko się nie trzyma kupy...
Wyobraźmy sobie:
-Jeśli na dany punkt obrazu nic nie wpadło (w sensie światła), to oznacza że w efekcie jest czarny 0,0,0.
-Jeśli uległ całkowitemu zapełnieniu staje się biały 255,255,255
Jaki mi się stać jeśli zostanie powtórnie naświetlony ? np. 428,428,428 ? Przecież nie ma czegoś takiego zakładając, że opieramy się na 8 bitach kolorów na kanał, choć w każdej większej głębi będzie analogicznie.
Można by spróbować "skompresować" całe zdjęcie tak aby się zmieściło, ale wtedy wszystko co poniżej max jasności staje się ciemniejsze i w efekcie dokonany wcześniej pomiar światłomierzem staje się bezużyteczny.
No chyba że ja czegoś nie rozumiem ;)
.. prosze bardzo. Juz w 2006 w dpreview o tym trabilo i podawalo linka.
Ponizej dzailajaca puszka z ta technologia ( prototyp ze standford ).
http://graphics.stanford.edu/papers/lfcamera/
Jedyny problem to mala rozdzielczosc wynikowej fotki. Jak widac zakres zmian punktu ostrosci bardzo duzy. Skoro te informacje o ostrosci tam sa i punkt mozemy przesuwac dowolnie to zrobienie prawie dowolnej(w rozsadnych granicach) glebi jest jak najbardziej mozliwe ...
Co do rewolucji to mam nadzieje ze nie bedzie to movie mode(30fps/12+mpix/bufor 1 min) a wlasnie taka regulacja GO + wyrzucenie calej mechaniki i przejscie na af na kontrascie, tyle ze bardzo szybkie ( przedsmak rozwiazania w panasoniku )..
azaliz nie :) matryca jest w 100% monochromatyczna i tam jest tylko jedna wartosc. nota bene, nie od 0 do 255 tylko od 0 do 16383, bo na chwile obecna zczytuje sie 14-bitowo :) zreszta, ile by sie nie zczytywalo, maja byc same jedynki :)
resetowanie mialoby polegac na wyzerowaniu piksela. i tu niestety dotarl do mnie problem techniczny zagadnienia: "wartoscia" piksela jest sygnal analogowy, a dopiero jego odczyt jest "digitalny". i wyzerowanie tez musi sie odbyc analogowo, czyt. przez zwykle odciecie pradu. i nie jestem wcale pewny, ze to zerowanie odbywa sie w atomowej jednostce czasu (rzedu 1/8000s jadac z grubej rury, albo chociaz 1/250s po czasie synchro - co do potrzeb praktycznych mogloby wystarczyc).
MMM - no, dokladnie to samo wykminilem. wiec prawdopodobnie nie ma to racji bytu, bo pewnie i bardziej tegie glowy na to wpadly, a implementacji nie widac :(
JEDYNKA napewno to nie jest bo raz że kółko jest na górze dwa że przy zaczernieniu widac załamanie wiec to sama puszka bez wbudowanego gripa (uff).
Zastanawia mnie nazwa tego modelu. Jezeli ma być to faktycznie przełomowa rzecz to 5D mark II jakoś nie pasuje bo pachnie odgrzewanym kotletem. Wg mnie 3D lub 7D - ta tórjka bardziej rozpala wyobraźnie przywołując na myśl mitycznego analoga ;)
Wydaje mi się że można to zrealizować tak: Migawka jest otwierana na jakiś określony czas a piksele mogą być czytane np po 1/10, 1/2 i po całości czasu. Potem te 3 fotki składamy sobie w kompie (lub digicu) i jeśli coś jest przepalone na całym czasie bierzemy sobie te piksele z 1/2 a jeśli na 1/2 są nadal przepalone to z 1/10. Tych składowych całkiem nie musi być 3 jeśli szybkość czytania i czas otwarcia migawki pozwoli nawet bardzo dużo. Podobnie wydaje mi się że można zrealizować regulowaną GO ale jasne stałki nie znikną bo będą potrzebne do "wyseparowania warstw" obrazu i znów podobnie jak w bardzo super dynamicznej matrycy robimy AF szuka najdalszego i najbliższego obiektu, foci przy otwartej przysłonie na kilku ustawieniach odległości. Wybierając z tego jedną z kilku klatek mamy GO tam gdzie chcemy a miksując je powiększamy GO. I tu dochodzę do czegoś co podchwycą wyznawcy teorii spiskowej. Poza tym że lada dzień będzie 50 milionów pikseli i więcej to jeszcze dojdą udogodnienia zmuszające do zapisywania kilku klatek dla tego samego obrazu co już zakrawa mi na tajną zmowę producentów puszek z producentami kart pamięci i dysków twardych :).
Rozważałem nad już zdigitalizowanym finalnym obrazkiem, wziąłem teoretyczne białe światło padające równomiernie na 3 punkty odpowiedzialne za r,g,b... w sumie faktycznie niepotrzebnie skomplikowałem.
Ale nawet zakładając jeden sensor: po konwersji dostajemy 16383+ileś tam. Teraz pytanie, jak to przedstawić :-) ?
Zakładamy że problem analogowego opróżniania nie istnieje :mrgreen:.
Wyzerowanie analogowo po przekroczeniu określonego poziomu - żaden problem, byle tylko elektronikę zmieścić na pixelu. Można to robić szybko. I taki wyzerowany automatycznie pixel miałby gdzieś trzymany status, że został wyzerowany. I raz na jakiś czas, stan tych statusów byłby sprawdzany zliczany i zerowany. Na tyle często aby nie pominąć żadnego z tych wyzerowań.
Każdy pixel jest naświetlany przez taki sam czas więc to, że migawka jest szczelinowa nie jest problemem.
A jeśli by nie nadążąło z zerowaniem tych pixeli i odczytywaniem statusów mielibyśmy znów do czynienia z "przepaleniami" ale nie związanymi z prześwietleniem pixela tylko z niewyrabianiem się tego magicznego mechanizmu tyle, że występującym przy znacznie większych prześwietleniach.
Przepraszam ale gadacie o wszystkim i o niczym :) To już dawno zostało wymyślone i nazywa sie HDR High dynamic range imaging.
I to w niedalekiej przyszłości ma wejść w kompakty jak zostanie przyjęte to wejdzie w lustrzanki. Tak samo jak LV czy Wideo mode itp
I nad czym tu się rozwodzić :)
http://cweb.canon.jp/camera/eosd/index.html
jp - "subete wo uketomeru tame ni"
eng - "for the purpose of catching everything"
chodzi Ci o wyznaczenie ekspozycji na podstawie takiego wielokrotnego sprobkowania?
to moze tak:
dane sa piksele P_i, i=1...I (I - rozmiar matrycy)
dla kazdego piksela zebrana jest probka: sample(P_i) = (t_0, t_1, ..., T_{K_i-1}), gdzie k_i to ilosc ekspozycji piksela P_i.
usredniony czas ekspozycji: (\prod{t_{k_i}})^{1/k_i}.
pozostaje teraz przetlumaczyc czasy na dzialki ekspozycji (pikus) i zmapowac dzialki na strefy (tzn. nalozyc krzywa tonalna). co akurat nie wychodzi ponad to co do tej pory sie robi w konwerterach RAW.
!!! Łączenie podwójnego wpisu !!!
zupelnie o czym innym mowa. HDR to marna proteza duzej rozpietosci tonalnej. a tu mowimy o rozwiazaniu, ktore natywnie na poziomie matrycy osiaga niemal nieograniczona rozpietosc tonalna, ograniczona w zasadzie tylko przez dlugosc ekspozycji - przy czym ilosc dzialek jest liniowo zalezna od czasu naswietlania.
to jest zupelnie innej klasy zjawisko. prawdziwa plynnosc tonalna, a nie taka kupa jaka HDR
Niezły R+D team tu mamy:D
Akustyk napisał : "HDR to marna proteza duzej rozpietosci tonalnej".
Radzę rozwinąć sobie ten skrót ;) To nie jest proteza, tylko to jest właśnie określenie obrazu o dużej dynamice, czy jak kto woli rozpiętości tonalnej.
A propos R&D, to taki sensor już jest opisany w jakimś patencie lub wniosku o patent... można sobie wygooglać.
Nie wiem czy się nie mylę, ale wydaje mi się że mogły by powstać jakieś dziwne efekty na fragmentach zdjęcia gdzie pixele były resetowane, coś jak posteryzacja (może jestem w błędzie).
No chyba że resetowane byłyby wszystkie jednocześnie (zaczynam się gubić bo nie wszystkie {} do mnie przemawiają :smile:) ?
P.S. "Użytkownicy aktualnie czytający ten wątek: 61", wow :mrgreen:
Dla mnie właśnie ta cała teoria dopalania pixeli to jedna wielka proteza :mrgreen:
Oko ludzkie czy inne organiczne ewoluowało przez miliardy lat i i nie ma nic takiego jak dopalanie receptorów :roll:
Po prostu trzeba poprawić sam materiał odbiorczy i nic więcej. Cała sztuka polega na tym że cały obraz ma być naświetlony tą samą wartością światła inaczej powstaną kwiatki.
Może fotochromowe soczewki na matrycy? :).
racja. bardziej chodzilo mi (i laminatowi, jesli sie nie myle) o DRO, ktore czesto jest podciagane pod okreslenie HDR, a nie jest tym samym.
generalnie tak, przy czym nawet nie tylko posteryzacja ale jeszcze nakladalby sie szum, w konsekwencji "zanieczyszczajac" pomiary. sek w tym, ze dokladnosc pomiarow jest tym wieksza im dluzsza ekspozycja (bo maleje niedokladnosc pomiaru czasu na skutek kwantyzacji). a te krotkie pomiary - dzieki ich krotkosci - mozna powtarzac wielokrotnie. przy odrobinie sprytnego doszlifowania algorytmicznego moznaby dobrze uciec od posteryzacji i uzyskac dobra plynnosc przejsc. na pewno o niebo lepsza niz to co teraz mamy :)
kazdy z osobna. w najprostszym przypadku, gdy zliczamy tylko "wyjarania" rzecz jest do zrobienia, bo do zrealizowania na poziomie drucikow (wlacznie z wielokrotnym samplowaniem). w rozbudowanym przypadku, gdzie probkowanie jest progowe (nie tylko "czy wyjarane?") jest gorzej, bo musi byc jakas komunikacja z Digikiem. raczej asymetryczna a wrecz jednostronna, ale mimo to, jak sie to przemnozy przez ilosc pikseli i wymagana dla precyzji takiego ukladu czestotliwosc odczytow... to umarl w butach :) znaczy sie sparzyl sobie reke od trzymania gripa, nagrzanego przez bioracy w d... QuadCore w srodku :)
Różnica czasu - Warszawa - Tokio +7h :mrgreen:
.... proponuję zerkać na stronę japońską EVOLUTION ...
wystarczy porównać z wersją EN, by stwierdzić, że jest tam nieco więcej szczegółów...
Podobno ostatnia wiadomość na stronie JP to: "subete wo uketomeru tame ni"
co ma oznaczać: "for the purpose of catching everything"
(podaję za dpreview - niestety szwagra nie ma w tej chwili na skypie, by to potwierdzić)... ale otwierają się kolejne ścieżki interpretacyjne :D
Apeluje o podforum "Canon Board R&D" :idea:
Nie wiem, czemu mówicie o tym resetowaniu. Nie wystarczy, żeby wynikiem była odwrotność czasu potrzebnego do zapełnienia piksela? Trochę mniejsza dokładność w światłach, ale 100bitowa precyzja raczej nie jest potrzebna :)
ha na japonskiej stronce od razu widac ze nie ma gripa ;p
Witam forumowiczów!
A może jakiś konkurs - kto pierwszy z forumowiczów pokaże zdjęcia z nowej puchy?
PS Własne zdjęcia z własnej nowej puchy :)
Dajcie spokój już z tymi pixelami. Stwórzcie nowy temat FUTURE matryca. Tutaj człowiek oczekuje nowych wiadomości na temat nowego następcy 5D.
Popieram - od postu #3724 ... trudno przebrnąć przez te technologiczne dywagacje (nie twierdzę, że niepotrzebne - tylko nie bardzo związane z TEMATEM wiodącym) ... proponuję wydzielić do osobnego wątku.
Panie/Panowie przerażacie mnie, z waszych klimatów pamiętam tylko wzór na oporność ;)
Trochę dziwne że tak rzadko wpadają tu moderatorzy robić porządek.. :-/
Robić TU porządek? Herakles takie rzeczy umiał :twisted:
Jednak większość postów z wątku jest na temat.
true... popieram.... więcej o nowym 5d ewentualnie 7d i 3d a mniej wszelkich innych pobocznych dywagacji..... teraz ciężko już w tym gąszczu informacji dotrzeć do postów na temat nowej puchy.... trzeba ztym zrobić porządek ;)
technicznie rzecz biorac, to do kazdego micro-site'i musi byc doprowadzony sygnal taktujacy, bo inaczej to bedzie **** nie spojny pomiar czasu na calej matrycy. i teraz kwestia, czy elektronika piksela dziala pasywnie (czeka na pytanie procesora obrazu, czy piksel zostal wyjarany) czy aktywnie (sama przesyla sygnal). rozwiazanie drugie jest w zasadzie jedyne realne do zrealizowania, bo 15Mpix kilkaset/tysiecy razy na sekunde, to jest niezle coco-jumbo. ale odbywa sie kosztem dodatkowej elektroniki na chipie, a wiec i dodatkowego zuzycia pradu. w takiej realizacji podzial czasu moze byc bardzo drobnoziarnisty i efektow posteryzacji nie bedzie
trzeba by usiasc i to po bozemu z wodka razbieriot... ;) przy odpowiednio niskim stezeniu krwi bysmy to nawet sami mlotkiem wyklepali, olewajac Canona :mrgreen: