Filtr AA i filtr dolnoprzepustowy (w odniesieniu do dSLR) to jest to samo. Chodzi o wycięcie wysokich częstotliwości w dziedzinie przestrzeni.Cytat:
Zamieszczone przez Tomasz Urbanowicz
Wersja do druku
Filtr AA i filtr dolnoprzepustowy (w odniesieniu do dSLR) to jest to samo. Chodzi o wycięcie wysokich częstotliwości w dziedzinie przestrzeni.Cytat:
Zamieszczone przez Tomasz Urbanowicz
Czyli wynika z tego, że maksymalna rozdzielczość będzie przy częstotliwości Nyquista zakładając, że filtr optyczny AA będzie idealny, czyli w 350D dokładnie będzie to 77,84 pixels/mm.Cytat:
Zamieszczone przez Cyborg
Czyli wynika z tego, że EOS 20D ma zakres F-stop 8,4?Cytat:
Zamieszczone przez Cyborg
Po pierwsze nie ma pojęcia "idealnego filtra AA". Filtr AA to kompromis pomiędzy morą, zafarbami krawędzi a rozmyciem obrazu. Pytanie gdzie producent ustawi poprzeczkę. Wystarczy założyć że filtr nie będzie bardzo "skopany".Cytat:
Zamieszczone przez Tomasz Urbanowicz
Po drugie, jak pisałem, to zależy co rozumiemy przez rozdzielczość. Jeżeli gęstość rozmieszczenia różniących się elementów obrazu to nie powinna być ona pogorszona przez AA. Sub-pikselowa zdolość do pozycjonowania elementów obrazu ulegnie pogorszeniu. Ale w kategoriach jakości obrazu pod pojęciem rozdzielczości rozumiemy raczej MTF, a ta ulegnie pogorszeniu.
Po trzecie nie 77,84 pixels/mm tylko ~155,7px/mm. Nie myl gęstości par linii z gęstością pikseli.
155,7 px/mm to 2 razy częstotliwość Nyquista - więc należy patrzeć IMHO na rozdzielczość Nyqyista - powyżej tej częstotliwości zobaczymy more- aliansing, a w zasadzie chyba nie zobaczymy, bo filtr AA ją "rozmyje" poprzez pogorszenie rozdzielczości optycznej przed matrycą.
Przeczytaj jeszcze raz. Częstotliwość Nyqyista to częstotliwość SYGNAŁU, czyli w tym przypadku par linii (jasne-ciemne). Częstotliwość PRÓBKOWANIA, czyli pikseli / mm, o których piszesz musi być 2x większa. Zgodnie ze wzorem.Cytat:
Zamieszczone przez Tomasz Urbanowicz
Edit:
I jeszcze jedno: mora nie bierze się z wysokiej częstotliwości sygnału, tylko z INTERFERENCJI pomiędzy częstotliwością sygnału (np. sztachety płotu :-) ) a próbkowania (piksle).
Z wyliczeń wychodzi, że maksymalna rozdzielczość matrycy to 155,7 i taka wartość jest 2*częstotliwości Nyqysta. Połowa tej wartości to częstotliwość Nyquista czyli 77,8, czyli IMHO częstotliwość próbkowania jest dwa razy mniejsza od częstotliwości/rozdzielczości 155,7 px/mm. A skoro częstotliwość próbkowania jest w okolicach Nyquista więc powyżej tej częstotliwości powstałby efekt mory - ale nie wystąpi, bo jest filtr AA. Prawda?
Nie prawda.
Próbkownaie to w tym przypadku odczyt wartości piksela. Wszystkie piksele są odczytywane a zatem częstotliwość próbkowania = gęstość pikseli.
A teraz wartości.
Pikseli jest ~155.7/mm Najbardziej szczegółowy obraz uzyskamy, gdy co drugi pikcel będzie jasy, a co drugi ciemny. Czyli ~77.8 par linii / mm.
Czyli ~155.7 pikseli / mm pozwala zapisać ~77.8 (par) linii / mm.
Co do mory powtórzę jeszcze raz: to wynik interferencji i wystąpi także przy częstotliwościach poniżej częst. Nyqysta.
Czyli uważasz że częstotliwość próbkowania jest to częstotliwość 2*częstotliwość Nyquista? Przecież częstotliwość próbkowania powinna być przynajmniej 2 razy mniejsza od częstotliwość nośnej, przy której IMHO mamy 155,7 px/mm.
Muszę sobie to jakoś poukładać... Użycie filtru AA powoduje rozmycie szczegółów, przez co spadnie rozdzielczość matrycy. Pytanie tylko ile?
Wlasnie z takiego "analogowego" sygnalu z matrycy biora sie bzdury o elektrycznych czy programowych filtrach AA w dslr'ach ;)Cytat:
Zamieszczone przez piast9
Ale to taka pulapka dla nieuwaznych :D
Tam nie ma probkowania. Jest dokladnosc wagi napiecia z pixeli wyrazona owymi 12 bitami, ale nie ma probkowania ani w czasie ani w przestrzeni... Gdyby bylo probkowanie bylo by owe 12 bitow na sekunde czy metr.
To jest właśnie treść wzoru na częst. Nyquista.Cytat:
Zamieszczone przez Tomasz Urbanowicz
"Nośnej"? Nośną są przecież póbki. Próbka = jasność (wartość) piksla...
Zresztą nie trzeba tutaj poszukiwać jakichś wielkich teorii na sieci (np. cytowany przez Ciebie Nyquist). Wszystko można wykapować na tzw. chłopski rozum. Ewentualnie z pomocą kratkowanej kartki papieru.
:???:Cytat:
Zamieszczone przez Tomasz Urbanowicz
No to wracamy do punktu wyjścia :-( Zobacz post #8
Jest jeszcze jedna kwestia tutaj nie poruszana: interpretacja danych z matrycy Bayera. Wynikowe piksle są skutkiem interpolacji kolorów i to też wpływa negatywnie na rozdzielczość.
To skąd się bierze pojęcie częstotliwość próbkowania, częstotliwość Nyquist'a?Cytat:
Zamieszczone przez KuchateK
Zapoczątkowałem wątek na grupie dyskusyjnej:
http://groups.google.pl/group/pl.rec...a8d6a54416a5db
Przyznam, że coraz bardziej zaczynam mieć mętlik w głowie :|
Kuchatek, z całym szacunkiem dla Twojej wiedzy, ale tutaj totalnie zamieszałeś.Cytat:
Zamieszczone przez KuchateK
1. Sygnał z samej matrycy jest ANALOGOWY. Trafia on następnie na przetwornik A/D. Przetwornik(i) może być umieszczony na strukturze matrycy lub w chipsecie aparatu.
2. Filtr AA w postaci programowej występuje w DSLrach Kodaka.
3. Próbkowanie w przestrzeni występuje - wymuszone jest przez samą budowę matrycy (piksele).
4. 12 bitów nie dotyczy próbkowania tylko kwantyzacji próbek.
5. 12bit/próbkę można też przeliczyć na kategorię przestrzeną ("na metr" jak napisałeś) - otrzymujemy precyzje zapisu albo na czas ("na sekundę") - otrzymujemy wielkość strumienia danych które przetwarza DIGIC.
@Cyborg:
Zdaję sobie sprawę, że masz niezłą wiedzę na ten tamat. Wyjaśnij mi tak na chłopski rozum działanie filtra AA i efekt mory zniwelowany tym filtrem na przykładzie rozdzielczości matrycy 350D.
Z góry dziękuję i proszę o cierpliowość :)
E tam wiedzę. Zastanawiałem się kiedyś jak to wszystko musi działać i doszedłem do następujących wniosków:Cytat:
Zamieszczone przez Tomasz Urbanowicz
Jak nie ma filtra AA to są następujące problemy:
1. Mora. Jak w obrazie trafimy na coś, co ma wyraźną, równomierną częstotliwość przestrzenną (np. ogrodzenie, wzór tkaniny, itp.) i ta częstotliwość jest zbliżona do częstotliwości próbkowania (lub jej całkowitej wielokrotności / podziałowi) następuje interferencja. Jak działa interferencja opisano w wielu miejscach. W każdym razie co któryś piksel następuje wzmocnienie sygnału i są widoczne prążki - mora.
2. Zafarb na krawędziach (dotyczy tylko matryc z filtrem Bayera). Jak w obrazie występuje wyraźna granica między jasnym a ciemnym, to jasne piksele na tej granicy trafiają np. na linię pikseli niebieskich, a sąsiednia linia pikseli czerwonych tonie już w ciemnościach. W takiej sytuacji, po interpolacji danych z matrycy w wynikowej bitmapie uzyskujemy krawędź w kolorze niebieskim. Jest to szczególnie widoczne, gdy krawędź jest dokładnie pozioma/pionowa.
Takie wady były widoczne w pierwszych aparatach cyfrowych i pamiętam jak dziennikarze się nad tym pastwili.
Rozwiązaniem jest odpowiednie uśrednienie obrazu tak, aby obraz z jednego punktu trafiał też na sąsiednie (grupy) pikseli. Wtedy częstotliwość próbkowania jakby się rozmywa i zjawisko interferencji występuje w dużo mniejszym stopniu. Jakby co, mogę porobić jakieś poglądowe rysunki / tabelki w wolnej chwili (kiedy to będzie? :? ).
Wydawało by się, że takie uśrednianie można wykonać w postprocesingu poprzez odpowiednią modyfikację algorytmu uśredniania kolorów (brać średnią z większego otoczenia). I tym tropem poszedł Kodak. Niestety efekt końcowy jest daleki od ideału. Przykłady można zobaczyć w sieci. Zaletą takiego rozwiązania jest jednak to, że cały filtr AA można by w takim przypadku wyłączyć nie tracąc ostrości obrazu, bo efekt mory występuje tylko na niewielkiej ilości zdjęć (musi się trafić odpowiedni temat).
Inną drogą jest zastosowanie optycznego filtra, który trochę rozmywa obraz przed samą matrycą. Tą drogą poszła reszta producentów. W różnych markach, a nawet w różnych modelach aparatów próg działania filtra jest różnie ustawiony. Stad mówi się o słabszych lub mocniejszych filtrach AA. Efekt końcowy przy typowych zdjęciach jest niezły (co widać), ale wada tego rozwiązania jest taka, że nie da się tego wyłączyć, a jak pisałem, filtr AA przydaje się tylko w niektórych miejscach niektórych kadrów.
Rozpatrujac pixele pojedynczo tak, mozna to uznac za analogowy i teoretycznie to jest przetwornik A/D.Cytat:
Zamieszczone przez Cyborg
Ale bedac dokladniejszym niestety tak nie jest. Wyjdz z definicji sygnalu czy przetwornika i zobaczysz ;)
Do pelnowartosciowego przetwornika oprocz rozdzielczosci w bitach powinien miec tez rozdzielczosc wyrazona czasem albo przestrzenia. Ten przetwornik tego drugiego parametru nie posiada i sygnal ktory mierzy nie jest uzalezniony od czasu ani przestrzeni.
Tak naprawde prawdziwym przetwornikiem analogowo cyfrowym zamieniajacym sygnal analogowy na cyfrowy moze byc dopiero zespol zlozony z matrycy i tego przetwornika a/d.
Ale druga czesc w sumie jest zbedna. Nadal podciagajac to pod definicje sygnalu cyfrowego nie ma znaczenia, ze nasz obraz cyfrowy zapisany jest w postaci elektronow zlapanych przez komorki na matrycy, w postaci szerego cyfr na kartce czy nieco dalej w pamieci.
Sam mi przyznajesz racje. To matryca dokonuje probkowania i to ona jest przetwornikiem.Cytat:
3. Próbkowanie w przestrzeni występuje - wymuszone jest przez samą budowę matrycy (piksele).
To ze ona nie zapisuje sygnalu bezposrednio do pamieci a korzysta z dodatkowego duperela liczacego elektrony aby zapisac je jako liczby do pamieci dla digica nie ma znaczenia. Sygnal poza pixelami z matrycy jest juz cyfrowy, choc zapisany analogowo elektronami.
Czy jak zapisze na wielkiej karce szereg wartosci rgb w kratkach to zrobi to mi z obrazu obraz analogowy i ciagly? Niestety nie.
Tak samo wysylajac te liczby komus swiatlowodem nie zmienia tych danych na postac analogowa i nie niweluje cyfrowosci, mimo ze po drodze moze byc wiele przetwornikow zamieniajacych to na analogowe swiatlo, napiecie i znow na liczby gdzies w pamieci.
Ja wiem ze elektrykom i elektronikom to ciezko zrozumiec, bo dla nich napiecie to analog, ale niestety w tym przypadku to nie jest do konca prawda. Nie operujemy tu na napieciach a na obrazie.
5. 12bit/próbkę można też przeliczyć na kategorię przestrzeną ("na metr" jak napisałeś) - otrzymujemy precyzje zapisu albo na czas ("na sekundę") - otrzymujemy wielkość strumienia danych które przetwarza DIGIC.[/QUOTE]Cytat:
4. 12 bitów nie dotyczy próbkowania tylko kwantyzacji próbek.
Zgoda, ale do pelnego zapisu na metr (skoro o obrazie) oprocz kwantyzacji dokonanej przez "to cos a/d" potrzeba tez drugiej czesci okreslajacej rozdzielczosc (probkowanie), czyli matrycy.
Calosc wyglada tak ze matryca dokonuje probkowania a przetwornik a/d kwantyzacji.
Ale mowiac ogolnie o samym obrazie jako calosci to matryca jest przetwornikiem. Choc zapisuje wartosc analogowo elektronami to jednak mimo wszystko ona dokonuje digitalizacji. Wszystko dalej to juz pixele. Choc mamy to bez dokonanej kwantyzacji zapisane analogowo to jednak sa to cyfrowe pixele.
Aliasing jesli mogl to juz wystapil i nic z tym nie da sie obecnie za bardzo zrobic.
To byla biedna namiastka i ratowanie badziewia czym sie dalo (podobnie jak szumy latane odszumiarkami w puszkach nikona). W praktyce nie dzialal wogole a ilosc artefaktow byla masakryczna.Cytat:
2. Filtr AA w postaci programowej występuje w DSLrach Kodaka.
Aliasing na obrazie wystapi przy podziale go na pixele. To co potem bedziesz dlubac z elektronami czy cyferkami w pamieci juz niestety wiele nie pomoze. Jeszcze nie bylo takiego magika ktoremu sie udalo.
Kodak sprzedawal do tych matryc prawdziwy optyczny filtr AA za jakies 1000 dolcow :D
Bayery maja pixele ulozone w kratke, wiec jak niby chcesz trafic na linie pixeli niebieskich? To o czym piszesz moglo by byc problemem przy najgorszym mozliwym algorytmie interpolacji. Przy czyms nieco bardziej zaawansowanym jak "nearest neighbor" ma minimalne szanse wystapic.Cytat:
Zamieszczone przez Cyborg
NO właśnie. Zostałem zmylony przez słowo częstotliwość. Częstotliwość jest to wielkość w stosunku do czasu. Kwantyzacja nie zależy od częstotliwości ale od ustalonych progów kwantyzacji. Zastanawia mnie fakt użycia słowa częstotliwość próbkowania - w kwantyzacji takiego tworu nie ma. Podobnie jak czestotliwość Nyquista - co to za częstotliwość?
Czestotliwosc przy sygnalach moze byc tez polozeniem w przestrzeni, nie tylko czasem. Obrabiajac obraz obrabiamy "cos gdzies", pixele na dwuwymiarowej plaszczyznie. Nasza czestotliwosc to rozdzielczosc umieszczenia tych pixeli.
Dalsza kwantyzacja tymi 12 bitami to juz lepszy albo gorszy sygnal cyfrowy :)
No więc dobrze. Jeżeli chcesz przejść na formalny język definicji OK.Cytat:
Zamieszczone przez KuchateK
1. Matryca dokonuje dyskretyzacji przestrzennej obrazu.
2. Następnie następuje zmiana dziedziny dyskretyzacji z przestrzeni na czas, bo przetworników A/D jest (znacząco :-) ) mniej niż pikseli.
3. Następuje kwantyzacja sygnału w przetworniku A/D.
Etapy 1 i 3 są niezbędne w procesie zamiany obrazu na dyskretną postać cyfrową. Etap 2 jest potrzebny ze względów technicznych.
Sygnał po procesie 1 ma postać analogową zdyskretyzowaną, po procesie 3 cyfrową zdyskretyzowaną.
A co do Twojej interesującej tezy, że "druga część jest w sumie zbędna" to przypomnij sobie zasadę działania telewizora CRT albo analogowej kamery wideo. Tam też był sygnał zdyskretyzowany (w 1 kierunku) i nikt nie mówił o cyfrowości.
Nie wiem tylko po co ten przytyk do "elektroników"? Zawodowo jestem bardziej zbliżony do przetwarzania obrazów niż do elektroniki :-)
@Kuchatek:
Encyklopedia podaje:
Częstotliwość określa liczbę cykli zjawiska okresowego występujących w jednostce czasu.
A to o czym piszesz, to najbliżej pasuje do rozdzielczości niż częstotliwości.
Cytujac angielskie zrodla:
Sygnal to przeplyw (potok) informacji. Wiekszosc sygnalow moze byc zaprezentowana w postaci funkcji w czasie albo polozeniu (w przestrzeni).Cytat:
a signal is a flow of information. Most signals of interest can be modeled as functions of time or position
Fakt, mowimy o czestotliwosci nyquista, ale w przypadku obrazow jednostka tej czestotliwosci bedzie rozdzielczosc.
W obrobce sygnalow obraz i przestrzen to ulamek calego zagadnienia obejmujacego glownie elektryke i sinusy w czasie ;), dlatego wiekszosc pojec wydaje sie do tego nie pasowac.
A o czestotliwosci jest tam:
Czestotliwosc to miara ilosci razy wystapienia powtarzajacego sie zdarzenia[...]Cytat:
Frequency is the measurement of the number of times that a repeated event occurs[...]
Jesli olac dalsza czesc zdania mowiaca o czasie (jak zwykle :D) to nasze pixele na metr tez sa czestotliwoscia. W koncu oprocz czasu (ktorego nawet nie potrafimy kontrolowac) glownym naszym wymiarem jakim sie poslugujemy na codzien jest przestrzen.
Spróbuj uściślić moje rozumowanie:
1. Mamy matrycę 12-sto bitową. Znaczy to, że mamy 4096 progi kwantyzacji - innymi słowy, nasz pixel może się zmieniać od 0 do 4096 bitów.
2. Mamy rozdzielczość matrycy - w tym przypadku wynosi ok. 155 px/mm.
3. Mamy "częstotliwość" Nyquista - ok. 77 px/mm - co ona oznacza i o czym mówi?
4. Nie mamy nic o czasie.
5. Przy jakiej "częstotliwości" Nyquista (czy na jaką "częstotliwość" Nyquista) budowany jest filtr dolnoprzepustowy AA?
EDYCJA:
* Spróbuję
Tutaj słuchaj Kuchataka. Autorzy tej "encykopedi" są mocno ograniczeni :smile:Cytat:
Zamieszczone przez Tomasz Urbanowicz
Nie kwestionuje wiedzy Kuchatka, żeby nie było :)
No bo robisz "still image" a nie "moving picture". Dlatego nie ma nic o czasie. :grin:Cytat:
Zamieszczone przez Tomasz Urbanowicz
Ale w definicji Nyquista trzeba przejść z dziedziny czasu na przestrzeń i jest OK.
Ano - już powoli wychodzę z koleiny w którą wpadłem :) Zakodowane miałem od wieków, że częstotliwość związana jest stricte z czasem.
Czas? Gdzie?Cytat:
Zamieszczone przez Cyborg
To ze przetwornik pracuje tak szybko ma jakies znaczenie jesli chodzi o cierpliwosc uzytkownika ;), ale liczac efekt w postaci obrazu dalej w pamieci nie ma kompletnie znaczenia. W audio by mial. Ale nie przy obrazach nieruchomych uniezaleznionych po zlapaniu od czasu. Jak wstawimy 4 przetworniki i zrobimy to 4x szybciej jak jednym nie zmieni nic w pamieci za calym duetem matryca i przetwornik(i) a/d.
Gdybys kwestionowal encyklopedie to jeszcze mozna sie czepiac, ale kwestionowanie mnie jest w sumie nawet wskazane :mrgreen:Cytat:
Zamieszczone przez Tomasz Urbanowicz
No to może podsumujemy oszacowaniem - na jaką częstotliwość Nyquista budowany jest filtr dolnoprzepustowy? (przepraszam, że się powtarzam).
Tutaj matematyka i teoria moze byc nieco oderwana od praktyki. Wiadomo, ze ma byc iles, ale praktycznie bywa roznie.
Podobne matryce (takie same nawet) miewaja filtry o bardzo roznej sile dzialania. Kodak jest przykladem, ze mozna sie calkiem niezle w wiekszosci sytuacji obejsc i bez filtra. Inne przyklady to D70 i D50 czy 1ds i 5D.
Zdaje sie ze u Korena cos jest na temat nyquistow i aliasingu wyrazone liczbami i wzorami, ale nie chce mi sie juz tego czytac :D
http://www.normankoren.com/Tutorials/MTF2.html
Ale spróbujmy założyć czysto teoretycznie - pal licho na razie praktykę.
Zakładamy też, że filtr jest idealny tzn. ma max pionowe zbocze. Jaka to może być częstotliwość w odniesieniu do Nyquista?
Czyli wychodzi na to, że powyżej częstotliwości Nyquista występuje aliasing:
Signal energy above fN is aliased— it appears as artificial low frequency signals in repetitive patterns, typically visible as Moiré patterns. In non-repetitive patterns aliasing appears as jagged diagonal lines— "the jaggies."
EDYCJA:
The sensor responds to signals above Nyquist— MTF is nonzero, but because of aliasing, it is not good response.
Many digital camera sensors have anti-aliasing or low-pass filters (the same thing) to reduce response above Nyquist. Anti-aliasing filters blur the image slightly; they reduce resolution. Kodak publishes MTF curves for a low cost anti-aliasing filter. Sharp cutoff filters don't exist in optics as they do in electronics, so some residual aliasing remains. Lens MTF losses also reduce aliasing. Analog reconstruction is not shown.
Dziękuję Kuchatek za linka :)
Tak. Efekt jest zalezny od tego ile przekroczysz nyquista. Tutaj juz bez rysunkow i wykresow sie nie obejdzie. Dla 3/2 (1,5x) nyquista jest przyklad rysunkowy u korena jak to dziala.
Dla kodaka granica bylo 63 lp/mm. Jako ze tam pixele byly wieksze, to u Ciebie bedzie to 77px/mm.
Generalnie jest to polowa rozdzielczosci sensora na mm. Rozdzielczosc obiektywow jest okreslana w parach linii na milimetr, wiec latwo porownac czy dany duet (matryca i obiektyw) bedzie generowal artefakty.
No, ale skoro zastosowano filtr AA muszę "martwić się" o artefakty kupując super ostre szkło?
Canon nie ma chyba w zadnej puszce problemow z artefaktami spowodowanymi aliasingiem.
Dziękuję za wyjaśnienie sprawy filtru AA :)
EDYCJA:
OT:
Czy filtr IR stosowany jest we wszystkich aparatach? Czytałem artykuł o zdjęciach z filtrem podczerwonym (przepuszczającym pasmo podczerwone) i chyba nic nie wtrącili, że jest problem z filtrem IR który jest nad matrycą.
Przy ściąganiu danych z matrycy. W CCD przetwornik(i) A/D przetwarzają napięcie na końcu kanału pomp ładunkowych na dane. A napięcie to zmienia się w czasie podczas przesuwania ładunków przez pompę. W CMOS też mamy zmienne w czasie napięcie, tyle że związane z matrycowym wybieraniem i podłączaniem się do kolejnych pixeli w rządku.Cytat:
Zamieszczone przez KuchateK
Ale to i tak jest mieszanie niepotrzebne. Dyskretyzację w przestrzeni zapewnia matryca przez swoją pixelową konstrukcję. I to wymaga stosowania antyaliasingu. To, w jaki sposob sygnał z poszczególnych pixeli zostanie zebrany nie ma tu znaczenia.
Obecnie we wszystkich. Z komorkami na czele :D
Wymuszone to zostalo afera z sony w Japonii, ktore za dobrze radzilo sobie w generowaniu zdjec we wspolpracy z takimi filtrami:
http://www.kaya-optics.com/products/applications.shtml
Filtr IR co prawda nie eliminuje zjawiska calkowicie i nadal sie da cos zdzialac, ale czasy rosna znacznie, co powoduje niemozliwosc krecenia filmow nieprzerobiona kamera, robienie zdjec z reki albo obiektom w ruchu.
Otoz to. To nie dzwiek gdzie liczymy napiecie zmieniajace sie w czasie. Proces co prawda odbywa sie w jakims skonczonym czasie, ale jest od tego czasu niezalezny dla efektu jaki zostanie wygenerowany. Czas nie wplywa na informacje.Cytat:
Zamieszczone przez piast9
A no tak:Cytat:
Zamieszczone przez KuchateK
albo tak:
O tym, że problem jednak występuje można się przekonać oglądając zdjęcia z Kodaka.
Tak. A teraz wez do tego obrazka podciagnij jakis przyzwoity algorytm demozajkowania i zobacz co powstanie.
Tutaj masz pare przykladow z roznego softu do obrabiania rawow na motywie generujacym takie sytuacje.
http://www.dpreview.com/reviews/cano...kii/page18.asp
Problem w kodakach zwiazany byl glownie z mora na drobnych detalach a nie rzedami pixeli. To o czym piszesz powyzej jest swietnie eliminowane przez dobre algorytmy przy konwersji rawa usredniajace grupy pixeli. No i filtr AA, jesli sie go ma ;)
Super, Panowie, gratuluję. Szkoda, że nie rozpisaliście się więcej o zaleznościach częstotliwość/przestrzeń, nic o np. faza/przestrzeń, nic o Fourrierze:grin: . Ale tu pewnie dużo kodowania jest załatwiane hardwarowo. Chociaż, jeżeli rzeczywiście tak mało jest tych przetw. A/D? Fascynujące.
Obecne dslr'y canona maja srednio od 2 (350D) poprzez 4 (20D, 5D) do 8 rownoleglych kanalowm (1d/1ds) sciagajacych dane z matrycy, a co za tym idzie oddzielnych przetwornikow a/d.
A fourier to juz calkiem inna historia...
Ponieważ padło pytanie: cyt.: "6. Zasada działania i budowa (w miarę szczegółowy opis w miarę możliwości)."Cytat:
Zamieszczone przez Cyborg
To warto uzupełnić, że filtrem AA optycznie jest płat kryształu dwójłomnego.
Opis dwójłomności i dolnprzepustowych filtrów optycznych tutaj i tutaj.
I tu obrazek.
Dzieki za uzupelnienie luki :D Wiedzialem jak to jest robione w praktyce poprzez rozszczepianie, ale nie wiedzialem ze to robia za pomoca krysztalow o wdziecznej nazwie dwojlomnych ;)
Ale do rzeczy:
W Canonach (wiekszosci) sa trzy warstwy tworzace obraz rozszczepiony na 4 czesci. Pierwsza rozszczepia na dwa poziome, druga na dwa pionowe. Dostajemy cztery obrazy z przesunieciem dopasowanym do odleglosci pixeli na matrycy. Trzecia srodkowa warstwa pomiedzy tymi dwoma zamienia polaryzacje liniowa z pierwszego krysztalu na polaryzacje kolowa dla drugiego.
Do tego jeszcze jedna warstwa odbijajaca podczerwien, druga pochlaniajaca, jakies powloki i mamy cala kanapke szkielek na matryce zwanych filtrem AA.
Co na celu ma zamiana polaryzacji z liniowej na kołową?Cytat:
Zamieszczone przez KuchateK
OT:
Dlaczego w cyfrówkach stosowane są filtry polaryzacyjne kołowe, w analogach liniowe? Jakie są różnice w budowie i działaniu? Jaki to ma związek z działaniem AF, pomiar ekspozycji itp? Dlaczego w filtrze pol. mamy dwie płytki - czy nie wystarczy jedna (która odbija lub pochłania światło spolaryzowane/niespolaryzowane) którą będziemy kręcić?
EDYCJA:
W Wikipedii można przeczytać:
Przypadek po lewej, to polaryzacja liniowa, drganie odbywa się wzdłuż linii prostej. Każde drganie można przedstawić jako sumę drgań wzdłuż osi X i Y. W przypadku polaryzacji liniowej drgania składowe są w fazie lub w przeciwfazie (180°). Stosunek amplitud drgań składowych określa kierunek drgania a tym samym i polaryzację. Brak jednej ze składowych odpowiada polaryzacji wzdłuż osi. W polaryzacji liniowej przemieszczenie (natężenie pola elektrycznego) punktu w każdym cyklu przechodzi dwa razy przez zero.
Przypadek środkowy ilustruje polaryzację kołową. Drganie to odpowiada ruchowi po okręgu. Można je rozłożyć na dwa drgania o jednakowych amplitudach ale o fazach przesuniętych dokładnie o 90° lub 270° (-90°). W zależności do tego, czy fazy są przesunięte o 90° czy 270°, mówi się o polaryzacji kołowej prawoskrętnej lub polaryzacji kołowej lewoskrętnej. Wynika to z faktu, że wektor wychylenia może obracać się albo w lewo albo w prawo. W polaryzacji kołowej przemieszczenie (natężenie pola elektrycznego) ma zawsze taką samą wartość, zmienia się tylko kierunek przemieszczenia.
Niebardzo mogę sobie to wyobrazić. Wyczytałem w sieci, że polaryzacja liniowa może wprowadzać w bład układ pomiaru światła, AF gdzie wykorzystuje się układ lustra półprzeźroczystego - dlaczego polaryzacja kołowa nie wprowadza w błąd? Można więc zrozumieć użycie polaryzatora kołowego przed układem pomiarowym, ale dlaczego więc w układzie filtra AA mamy tą zamianę na polaryzację kołową?
Swiatło spolaryzowane kołowo to takie w którym płaszczyzna polaryzacji kręci się (dość szybko :-) ) i żaden kierunek polaryzacji w dostatecznie długim okresie czasu nie jest wyróżniony i światło dla automatyki aparatu i filtra AA ma cechy światła nie spolaryzowanego.
Polaryzatory kołowe stosowane w fotografii skłądają się z płytki polaryzatora liniowego i obracacza fazy sklejonych razem. Kręci się całym kompletem.
Kołowe filtry polaryzacyjne stosuje się także w lustrzankach analogowych.
"The anti-aliasing filter, which also functions as theCytat:
Zamieszczone przez KuchateK
CMOS sensor package’s cover glass, consists of an
infrared-blocking filter, a primary low-pass filter, a
phase plate and a secondary low-pass filter. While
other cameras, such as the EOS 20D camera, have
three crystal plates, the EOS 5D model’s filter has one
independent crystal plate doing double duty as the
cover glass. This reduces cost without affecting the
filter’s performance."
To jest cytat z 5D White Paper. Tam jest też rysunek, jak to jest złożone Zmiana jest tylko technologiczna z zachowaniem tej samej zasady działania.
Ale jest przypadek, gdzie na wyjściu z filtra polaryzacyjnego kołowego otrzymamy liniową polaryzację - gdy na filtr pol. koł. padnie światło spolaryzowane kołowo :)Cytat:
Zamieszczone przez Cyborg
Tak. Taki numer stosuje Polaroid w swoich filtrach na monitory.
A możesz wyjaśnić celowość takiego działania?
Tak w skrócie:
To jest zrobione tak samo, jak fotograficzny filtr polaryzacyjny kołowy.
Światło zewnętrzne jest polaryzowane liniowo, następnie kołowo, takie trafia na szybę monitora i odbija się przy czym odwraca się kierunek polaryzacji "z lewej w prawą". Odbite światło trafia spowrotem na obracacz fazy, który robi z niego spowrotem spolaryzowane liniowo, ale z płaszczyczną obróconą o 90* w stosunku do tego na początku. Takie światło wygasza wspomniany zewnętrzny polaryzator liniowy.
Szczegóły znajdziesz w materiałach reklamowych Polaroida.
Ups. Moj blad :DCytat:
Zamieszczone przez Cyborg
Jest inaczej, ale nie z zastapieniem trzech krysztalow jednym a z zastapieniem szkla nakrywajacego matryce jednym z krysztalow.