Kubaman boj sie Boga ;):twisted:Cytat:
Zamieszczone przez Kubaman
Jaki filtr AA? Filtr AA to rozwiazanie softwareowe siedzace w fimware aparatu :)
To co oslania matryce to filtr IR... :-)
Wersja do druku
Kubaman boj sie Boga ;):twisted:Cytat:
Zamieszczone przez Kubaman
Jaki filtr AA? Filtr AA to rozwiazanie softwareowe siedzace w fimware aparatu :)
To co oslania matryce to filtr IR... :-)
I co, Kuba? Boisz sie?
jasne, cały drżę ;)Cytat:
Zamieszczone przez Tomasz Goliński
masz rację ale nie do końca. Filtr AA to jak najbardziej fizyczny element w aparatach (np standart w Kodakach).Cytat:
Zamieszczone przez Andee
Jest stosowany albo zamiast filtra IR albo w połączeniu z nim jak np. w D2H
Efekt działania filtra AA rzeczywiście można zasumulować software'owo.
Kuba, nie wierz w takie bzdury. Zamiast tego poczytaj sobie co to jest antyaliasing. Najprościej w Wikipedii, ale nie tylko tam oczywiscie. W sieci są setki informacji na ten temat, przy okazji obróbki analogowo cyfrowej.Cytat:
Zamieszczone przez Kubaman
Jurku, cenię bardzo twoje zdanie, ale chyba jednak nie masz racji :roll: .
Po pierwsze, filtry AA do Kodaka możesz kupić, więc są to jak najbardziej elementy optyczne.
Po drugie, wszyscy gdzieś IMHO ulegamy rozmaitym przekłamaniom i to może być przyczyną nieporozumień. Sam nie do końca wiedziałem jak to się definiuje, więc przeczytałem.
Sprawa wygląda tak, że aliasingiem w fotografii cyfrowej nazywane jest zjawisko aliasingu chromatycznego, powstającego w czasie interpolacji kolorów w procesorze obrazu. Nie ma to niec wspólnego z "ząbkowaniem krawędzi" a z faktem zbyt małej zdolności matrycy do rozróżniania wartości w obszarach o szybkich przejściach w szerokim spektrum światła na niewielkich obszarach (porównywalnych z rozmiarami piksela). Innymi słowy, jest to dobrze znany efekt kolorowej mory - choć znów tutaj powszechnie stosowane nazewnictwo nie jest precyzyjne, bo mora to jeszcze coś innego.
Filtr AA obcina specyficzne zakresy widma, aby przejścia miały mniejszą rozpiętość i procesor obrazu mógł je rozróżnic i właściwie interpretować. Z drugiej strony powoduje to utratę informacji "w przejściach" i dlatego pogarsza się ostrość takiego obrazu (spadek kontrastu).
Podaję linka jednego z wielu, które znalazłem, który w sposób zwarty to opisuje.
Kuba, delikatnie mówiąc jest to nadużycie, aby napluć na filtr UV, rozmazać ślinę i nazwać to filtrem antyalisingowym :rolleyes:Cytat:
Zamieszczone przez Kubaman
One way to reduce aliasing is to use a blurring (or “anti-aliasing”) filter, which deliberately discards fine details. Defocussing the camera lens does almost the same thing.
Takie "filtry" antyaliasingowe będące w gruncie rzeczy filtrami zmiękczającymi stosują producenci tych aparatów cyfrowych, którzy z jakichś względów nie potrafią, lub nie mogą tego zrobić w sposób programowy!
dlatego nie kupuję Kodaków ;)Cytat:
Zamieszczone przez Jurek Plieth
brzmi to trochę jak frazes ze stajni Nikona. Przeciez w podanym przeze mnie wytłumaczeniu i linku wyraźnie jest napisane na czym to polega i dlaczego zmniejsza ostrość zdjęć :roll:Cytat:
One way to reduce aliasing is to use a blurring (or “anti-aliasing”) filter, which deliberately discards fine details. Defocussing the camera lens does almost the same thing.
jak Nikon w D1H?Cytat:
producenci tych aparatów cyfrowych, którzy z jakichś względów nie potrafią, lub nie mogą tego zrobić w sposób programowy!
Nieważne 8-) , zrobiliśmy mocny OT. Jeśli ktoś będzie chciał kontynuować tę dyskusję, może wydzielić to do osobnego wątku ?
Dzieki za wydzielenie nowego tematu, choc nie sadzilem ze jest tego wart...
Rozmawiamy chyba o Canonach a nie Kodakach czy Nikonach. Rozmawialimy tez chyba o filtrze chroniacym matryce a nie jakichs innych faktycznych czy wyimaginowanych filtrach, a ten filtr w Canonach to filtr IR. Prawdziwy filtr AA to rozwiazanie czysto softwareowe, to ze jakis producent wymysla sobie optyczne filtry zmiekczajace i nazywa je AA to sprawa tego producenta, dla mnie to oszustwo lub nieudolnosc. Jezeli softwareowy filtr danego producenta nie radzi sobie z usuwaniem niepotrzebnych artefaktow to dodaje filtr optyczny wycinajacy pasmo, nie jest to filtr AA tylko cos co usprawnia jego funkcjonowanie. Tak jak to zreszta wczesniej opisal Jurek...
A ten filtr o ktorym mowa w pierwszym poscie to FILTR IR... I wlasnie jego glownie tyczyla sie moja wypowiedz.
hmmm chyba nie do konca software ...
na powierzchni matrycy sa mikrosoczewki i to wedlug mnie one sa filtrem AA.
jak dziala filtr software-owy ano interpoluje wartosc ...
a soczewka w dokladnie taki sam sposob moze interpolowac.
co o tym myslicie ?
Mikrosoczewki na matrycy sa wlasnie jednym z powodow powstawania artefaktow typu kolorowa mora czy blooming (powstawanie aberracji chromatycznej we wspolpracy z obiektywami ktore jej nie wykazuja, lub wykazuja szczatkowa)...
Sluza one podnoszeniu wydajnosci absorbcji swiatla, niemaja nic wspolnego z AA.
Andee, jakbyś mógł mi wytłumaczyć co mikrosoczewki na matrycy mają do bloomingu, to byłbym wdzięczny.
wiec taka soczewka jesli ma dawac elementom swiatloczulym wiecej swiatla
to musi byc
- wieksza od takiego elementu
- odbierac swiatlo z wiekszego kata ...
jesli spelnia ktorychs z tych warunkow to dziala jako filtr AA
bo zadaniem filtra AA jes usrednianie wartosci z wiekszej przestrzeni.
gdyby ich nie bylo sensor bardzo punktowo rejestrowalby swiatlo i wtedy dopiero bylyby poszarpane linie ...
Nie wiem jak jest w Nikonie, nie wiem też jak to jest realizowane w Canonie. Miałem na myśli tylko tyle, że aliasing (antyaliasing) to terminy z dziedziny przetwarzania sygnałów, a nie optyki! W tańszych i prostszych cyfrakach, gdzie siłą rzeczy używa się mało skomplikowanej obróbki sygnału wykorzystując nieprzesadnie mocne procesory, użycie zmiękczającego filtru optycznego jest być może koniecznością. Natomiast już w dobrych dSLR moim zdaniem powinna przeważać filtracja w trakcie obróbki sygnału - software'owa, czy hardware'owa, lub jedna i druga, ale nie na drodze optycznej!Cytat:
Zamieszczone przez Kubaman
eMILz, fajnie ze kombinujesz ale nie masz racji, soczewki nie sa filtrem AA i absolutnie nie sluza do usredniania wartosci swiatla przez nie przechodzacego dla uzyskania efektu AA :). Wady korygowane przez filtr AA powstaja juz po przetworzeniu fotonow przez matryce CMOS.
Do SAM'a:
Soczewki maja to do bloomingu ze sa jego glownym sprawca, wlasnie przez kumulacje fotonow, efekt bloomingu wystepuje przy przepelnieniu komorki sensora.
Wiele osob dziwi sie dlaczego obiektyw poprawnie wspolpracujacy z analogiem po zapieciu do lustrzanki Canona z matryca CMOS zaczyna siac aberracja, to wlasnie z trego powodu...
Tutaj cytat, swietnie opisujacy ta wade, po co bede pisal drugi raz to samo skoro ktos to dobrze juz opisal:
"Sprawa bierze się z budowy matrycy. Płaski element światłoczuły posiada w pewnej wysokości nad sobą mikrosoczewkę. Tworzy ona coś w roczaju "domku" nad sensorem o prostopadłych do jego powierzchni ściankach i wypukłym "daszku". Jeśli promień światła z obiektywu nie jest odpowiednio równoległy do osi obiektywu (prostopadły do sensora) dla niektórych promieni mogą one padać nie bezpośrednio na sensor, ale na jedną z bocznych ścianek owego "domku". Może powodować to dwa przykre efekty:
1) Pierwszy objawia się wewnętrznymi odbiciami, jako że promień trafia do sensora dopiero po odbiciu od tej bocznej ścianki, co czasami wywołuje efekt "wewnętrznego blika".
2) Drugi polega na tym, że główny promień się nie mieści i pada dopiero dobity od ścianki "domku" ale z powodu aberracji chromatycznych obiektywu bezpośrednio na sensor pada wiązka rozproszona, część składowa fatalnej obwódki CA. W takim przypadku relacja pomiędzy promieniem głównym, a obwódką CA ulega zmianie na gorsze ( bo promień główny pada jako odbity od ścianki a promień obwódki CA bezpośrednio na sensor). "
Prawda.Cytat:
Zamieszczone przez Jurek Plieth
Ale wszystko sie wzielo z tego, ze problem, metodologia postepowania zarowno przy obrobce sygnalu jak i obrazu jest praktycznie ta sama. To ze sygnal obrabiasz filtrami, konwerterami i softem a swiatlo szkielkiem nie do konca jest powodem zeby nie mozna bylo filtra optycznego nazwac tak samo jak filtra elektrycznego. Stad ta sama nazwa filtrow zarowno przy obrobce sygnalow jak i swiatla w aparatach.
Tak naprawde cale to szkielko wlasciwie nazywane jest filtrem dolnoprzepustowym (low pass filter). Zreszta tak samo jak filtry dolnoprzepustowe (antyaliasingowe) przed konwerterami sygnalu przy jego obrobce. Chodzi o przyciecie rozdzielczosci sygnalu i wyeliminowanie detali powyzej rozdzielczosci sensora czy konwertera ktore powoduja more w obrazie czy buczenie przy audio.
Niezaglebiajac sie zbytnio w teorie sygnalow w cyfrakach chodzi o lekkie rozmycie najdrobniejszych detali, najlepiej bez naruszenia wszystkiego ponizej. Latwiej powiedziec, trudniej zrobic. Stad rozmycie calego obrazu.
Nie do konca... Tak naprawde koniecznosc uzycia filtra jest dyktowana przedewszystkim stosunkiem rozdzielczosci obiektywu i matrycy. Jako ze matryce kompaktow sa upakowane do granic mozliwosci wielokrotnie przewyzszajac rozdzielczosc matryc dslr'ow i obiektywow (zwlaszcza tanich kompaktowych hiperzoomow) praktycznie nie ma tam montowanych filtrow AA bo nie sa konieczne.Cytat:
Zamieszczone przez Jurek Plieth
Dla signalistow pomyslcie o tym jak o sygnale. Majac sygnal okreslonej niskiej czestotliwosci (swiatlo z obiektywu) i konwerter pozwalajacy na digitalizacje duzo wyzszych czestotliwosci (matryca) nie ma sensu filtrowac sygnalu (filtr na matrycy) ktory i tak nigdy nie zblizy sie do granicy przy ktorej zadziala filter.
Dlatego tez Kodak w swoim sensorze olal filter, gdyz uznal ze rozdzielczosc jest na tyle duza ze poradzi sobie w wiekszosci sytuacji bez filtra.
Nie. Tak sie nie da. Nie wyeliminujesz aliasingu oprogramowaniem czy sprzetem za sensorem czy konwerterem bo to "juz dawno po imprezie".Cytat:
Zamieszczone przez Jurek Plieth
Zeby wyeliminowac problem aliasingu trzeba sygnal odfiltrowac sygnal przepuszczajac go przez filter dolnoprzepustowy jeszcze PRZED jego konwersja do postaci cyfrowej.
To ze sensor teoretycznie jest analogowy to tylko zmyla. Jego struktura jest scisle cyfrowa. To wlasnie ta matryca pixeli rowno ulozonych zamienia analogowy obraz na cyfrowe pixele. To jest nasz sygnalowy odpowiednik konwertera. To przed tym trzeba odfiltrowac sygnal ograniczajac czestotliwosc zanim zostanie zdigitalizowany i zanim bedzie problem z aliasingiem. Dokladnie tak samo jak w sygnalach.
Cytat:
Zamieszczone przez Wikipedia
no własnie nie wiem, skąd ty masz taką pewność :roll: . Zauważ, że w linku który podałem jest wyraźnie napisane, że optyczne filtry AA mogą być połączone w całość z IR. I nie chodzi mi tu o potoczne nazewnictwo, bo już wyżej pokazałem do czego to prowadzi.Cytat:
Zamieszczone przez Andee
jeeez, proszę poczytaj linka jeśli łaska. Nie obchodzą mnie za bardzo Twoje odczucia tylko fakty. Jeśli są filtry optyczne AA, to są i nie próbuj stosować metodologii tłumaczenia rodem z fanatycznych pogaduszek forumowych. Przecież napisałem jak to działa. Ja się nie wymądrzam (bo nie mam wielkiej wiedzy), tylko na podane opisy techniczne z sieci, których znalazłem wiele, Wy piszecie że to nieprawda i nic nie podajecie konkretniej.Cytat:
Prawdziwy filtr AA to rozwiazanie czysto softwareowe, to ze jakis producent wymysla sobie optyczne filtry zmiekczajace i nazywa je AA to sprawa tego producenta,
kurczę Andee, chociaż w jednym mnie nie zanegowałeś (jam to nie chwaląc się napisał :mrgreen: )Cytat:
Zamieszczone przez Andee
Wszystkim ktorym sie nie podoba nazewnictwo proponuje pisac petycje do marketingowcow i inzynierow Sony czy Canona w dalekiej Japonii ze nie powinni tego tak nazywac bo to nie to.
Tyle ze najpierw radze sie wczytac zarowno w obrobke sygnalow jak i obrobke obrazu w cyfrakach i dostrzec pewne analogie dzialania filtrow zarowno optycznych jak i stosowanych przy konwersji sygnalow. Skoro cos dziala tak samo to czemu nie nazwac tego tak samo? Jakos nie widze wielkiego halo ze robota kuchennego nazywa sie mikserem i nie wolno bo mikser to gdzies tam przy audio i video czy instalacjach gazowych w samochodzie...
KuchateK, dzięki serdeczne za wsparcie fachowca 8-) Podobnie napisałem wyżej, tylko bez tego całego teoretycznego wyjaśnienia. Dzięki za informacje.Cytat:
Zamieszczone przez KuchateK
Moim zdaniem zdecydowanie nie! Uważam, że ta sama nazwa bierze się stąd, że o sprawie piszą ludzie nie mający o niej zielonego pojęcia, nawet na tak mądrych portalach jak dpreview itp. W smutnym efekcie natykamy się na takie rafy jak określenie, że jakiś aparat nie ma filtru antyaliasingowego. Po pierwsze więc pytam jakiego filtru nie ma? Tego szklanego (optycznego), czy też tego związanego z obróbką sygnału (co byłoby oczywistą bzdurą, bo tam musi być jakiś filtr). Po drugie zaś co to znaczy, że nie ma filtru? Dobrze to, czy może źle? A na dodatek nie ma jednoznacznej na to odpowiedzi. W ten sposób ludziom, którzy mają prawo z racji braku specjalistycznego wykształcenia nie mieć o tym pojęcia, robi się dodatkowo wodę z mózgu :(Cytat:
Zamieszczone przez KuchateK
W ten oto sposób sam się na tą rzeczoną rafę nadziałeś. Co nie miałoby miejsca, gdybyś się zastanowił jak wygląda widmo częstotliwościowe światła widzialnego i bliskowidzialnego. "Jadąc" więc z częstotliwością od dołu mamy najpierw podczerwień (IR), następnie światło o kolorze czerwonym, potem zielonym, wreszcie niebieskim i na najwyższych częstotliwosciach (najkrótsza długość fali) ultrafiolet (UV). Na drodze optycznej przez którą przechodzi całe to widmo (np. obiektyw, czy dalej już przed matrycą) wstawiasz "dolnoprzepustowy filtr optyczny" - cytuję Twoją wypowiedź. Jaki to jest więc filtr? Na logikę, aby być w zgodzie z Twoim cytatem jest to filtr, który tłumi światło o częstotliwości większej niż jakaś (wszakże jest dolnoprzepustowy). Jak więc jest to częstotliwość pytam? Na granicy IR i światła czerwonego? Bez sensu, bo taki filtr nie przepuści światła widzialnego. Gdzie jest więc ta częstotliwość odcięcia? Odpowiedź prawidłowa brzmi, że nie w zakresie widma optycznego :mrgreen: Dolnoprzepustowy filtr antyaliasingowy jest bowiem drogi Kuchatku filtrem związanym z obróbką sygnału, a jego częstotliwość odcięcia ma li tylko związek z częstotliwością próbkowania przetwornika A/C, a nie ma żadnego związku z widmem optycznym!Cytat:
Zamieszczone przez KuchateK
Itd., itd. Nie miejsce to na robienie wykładów na temat przetwarzania sygnałów, ani też ja nie jestem ku temu odpowiednią osobą, bo specjalizuję się w zupełnie innych zagadnieniach. Warto jednakże czasem sięgnąć do zupełnie podstawowych definicji.
Andee, moje powyższe pytanie pozostaje aktualne. :D
Wytłumaczyłeś mi to co wiedziałem, że soczewki (czy też mikrosoczewki) mogą powodować abberacje.
Natomiast nie ma słowa jak mikrosoczewki powodują blooming. Wg. mnie zjawisko to zależy wyłącznie od natężenia światła padającego na sensory. Po przekroczeniu pewnej wartości charakterystycznej dla danej matrycy następuje efekt nasycenia konkretnego sensora i to co jest istotą bloomingu, do częściowego naładowania sensorów-sąsiadów. Efekt bloomingu występuje oczywiście najczęściej tam gdzie jest bardzo, bardzo jasno, ale widoczny jest dobrze dopiero w miejscach kontrastowych przybierając efekt otoczki. Bardzo podobnie wyglądają abberacje chromatyczne powodowane podłą jakością obiektywów (brak soczewek o niskim współczynniku dyspersji). Abberacje chromatyczne są zjawiskiem czysto optycznym i można je wyeliminować tylko stosując lepiej skorygowany obiektyw. Natomiast, aby usunąć blooming, wystarczy zmienić parametry ekspozycji i otoczka znika.
Co ty na to ?:lol:
Co do nazwy: filtr AA, to prawdopodobnie nazwa rzeczywiście przyszła ze strony informatycznej, a nie optycznej. Natomiast wg. mnie liczy się efekt działania, jeżeli jakiś mechanizm działa tak samo najczęściej otrzymuje tą samą nazwę. Nasunęła mi się analogia z innej dziedziny, pierwszym rodzajem sterylizacji była sterylizacja gorącym suchym powietrzem, nastepnie przegrzaną parą wodną, tlenkiem etelenu, a ostatnio poprzez naświetlanie UV, promieniami gamma, czy też innymi. Efekt wszystkich powyższych technik jest ten sam, więc logiczne jest że nazwa też jest ta sama.
Ale wracając do AA, jeżeli kawałek odpowiednio spreparowanego szkiełka potrafi zrobić to samo co specjanie napisane oprogramowanie to nie widzę powodu, aby obu nie nazywać filtrami AA (jeden optyczny, drugi programowy). I tyle.
Panowie, jako że dyskusja bardzo mnie ciekawi, podsycam ogień i podpinam następujące informacje wygrzebane z sieci:
cytat:
I should note that film also has this problem of chromatic aliasing: strange borders appear around extreme colour contrasts (such as bright red against bright green) that sometimes look cartoonish or `fantasy'-like. In some cases, extra colours even appear, such as an extra yellow line along an extreme red-green contrast border.
oraz bardzo ciekawa informacja na temat maksymalnej częstotliwości próbkowania i tego, że problemy z tym związane rozwiązuje się instalując odpowiedni filtr przed matrycą (zanim zaczniemy próbkować trzeba odfiltrować).
http://www.photo.net/learn/optics/pi...eep_part2.html
Aj, kurde, mialem sie nie wtracac, ale w koncu ktos (Kuchatek) napisal to i porzadnie i lopatologicznie zarazem, a Ty sie czepiasz w sumie slowek ;-) Przeciez "czestotliwosc" swiatla nie ma tu nic do rzeczy! Mowa jest o obrazie na matrycy, tym, ktory powinien byc probkowany z rozdzielczoscia podwojnego Nyquista, co nawet przy rozdzielczosciach rzedu 1DsMk2 daje powiedzmy mikrometry - czyli ciagle kilka rzedow wielkosci wiecej niz to o czym piszesz. Moze i Kuchatek sie odrobine nieprecyzyjnie wyrazil jesli chodzi o ten 'filtr optyczny', ale przeciez od razu widac o co chodzi.Cytat:
Zamieszczone przez Jurek Plieth
Choc jesli chodzi o ten "software'owy filtr AA" to mozna by sie klocic (ale jest to spor o definicje, a nie o meritum). Aliasing to z definicji zjawisko, ktore zachodzi w momencie zamiany sygnalu analogowego na cyfrowy - ani pozniej, ani wczesniej, tylko dokladnie wtedy, w dokladnie znanych okolicznosciach. Oczywiscie mozna przepuscic zle sprobkowany obraz (np. z mora z D70 :mrgreen: ) przez mocnego blura i powiedziec, ze jest to filtr AA ;-) I z punktu widzenia "tego co wylazi" na koncu bedzie to nawet w sumie racja... ale formalnie nie :)
Edit: Jurek, teraz widze, ze w drugiej czesci postu napisales to samo :) Ale troche sie wkurzylem na takie czepianie sie ;-)
Oj, nie.. 'aliasing' to pojecie chyba troche starsze niz wiekszosc z nas ;-)Cytat:
Zamieszczone przez SAM
Cytat:
Zamieszczone przez Jurek Plieth
jesli z odleglosci 10 metrow bedziesz widzal zapalki poustawiane co centymetr
i na tej samej odleglosci ustawisz zapalki co 1 metr a nastepnie spojrzysz na nie przez cokolwiek co rozmarze obraz na tyle ze bedziesz mogl policzyc jedynie ilosc tych zapalek poustawianych co metr bo tych co centymetr nie bedziesz mogl rozroznic to czy w istocie nie bedziesz patrzec przez pewien rodzaj filtra dolnoprzepustowego ?
O wlasnie, a nasze oczy sa jak matryca w D70 - wrazliwe na more :mrgreen:
Przeciez odpowiedzialem...Cytat:
Zamieszczone przez SAM
Cytuje:
"Soczewki maja to do bloomingu ze sa jego glownym sprawca, wlasnie przez kumulacje fotonow, efekt bloomingu wystepuje przy przepelnieniu komorki sensora."
Mikrosoczewki nie powoduja efektu aberracji lecz go wzmacniaja, przez to obiektyw ze znikoma aberracja staje sie w niektorych przypadkach bardzo aberrujacym lub raczej bardzo wzmacniajacym efekt bloomingu... Kazdy obiektyw aberruje chromatycznie, nawet APO, APO nie oznacza braku aberracji lecz stopien jej korekcji.
Dlaczego kojarzysz to z filtrem dolnoprzepustowym? Gdzie widzisz tą "dolnoprzepustowość"?Cytat:
Zamieszczone przez eMILz
No wlasnie mozna by to naciagnac :) Bo jestes w stanie zobaczyc "sygnal" o niskiej czestotliwosci (zapalki co metr), a nie rozrozniasz (albo masz artefakty) szczegolow na "sygnale" o wysokiej czestotliwosci (zapalki co centymetr) :) Choc oczywiscie przyklad tez jest moooocno naciagany - bo jesli rozdzielczosc "oka" przez ktore patrzysz sie nie zmienia, to nie ma to nic wspolnego z aliasingiem, czy antyaliasingiem - ot zwykly blur :)Cytat:
Zamieszczone przez Jurek Plieth
Andee, nadal nie mogę się z tobą zgodzić właśnie w tej kwestii.
Napisałeś:
"Soczewki maja to do bloomingu ze sa jego glownym sprawca, wlasnie przez kumulacje fotonow, efekt bloomingu wystepuje przy przepelnieniu komorki sensora."
Blooming może powstać, niezależnie czy strumień fotonów przelatuje przez soczewką, czy też nie - choćby w fotografii otworkowej.
Zresztą w twoim tekście widzę sprzeczność, jeżeli blooming "powstaje po przepełnieniu komorki sensora", to czy sensor ten jest oświetlany przez mikrosoczewkę czy krasnoludka ze świeczuszką, nie ma znaczenia. Liczy się jedynie liczba fotonów. Chcesz powiedzieć, że gdyby przed matrycą nie było żadnych soczewek blooming by nie występował ?
Blooming zawsze moze wystapic, zalezy na co skierujesz obiektyw... Nie napisalem ze mikrosoczewki sa "jedynym sprawca" bloomingu, lecz ze sa jego "glownym sprawca", co chyba wyraznie widac w mojej wypowiedzi.
Cytat:
Zamieszczone przez Jurek Plieth
bo filtrem dolnoprzepustowym nie jest tylko cewka wpieta w szereg, z glosnikiem
czy prosty warunek jesli i<100 .. bla bla bla
tak samo filtrem gornoprzepustowym nie moznabyloby okreslic sitka ...
a niewatpliwie nim jest.
dlatego mozna nazwac filtrem dolnoprzepustowym element optyczny.
ah jeszcze odnosnie tego dlaczego soczewki moga byc filtrem AA
nie chcialo mi sie rysowac wiec tu jest link do rysunku http://www.siggraph.org/education/ma...ages/34_93.gif
jesli sensor bedzie wielkosci tych malych kropeczek, malo prawdopodobne jest ze przybierze wartosc rozna od czarnej badz pomranczowej ....
ale wyobrazmy sobie ze te punkciki beda o srednicy nie 1 pix tylko 10pix
czy wtedy obraz po prawej bedzie nadal taki sam ??
Czołem.
To JEST filtr dolnoprzepustowy. Jak technicznie jest zrobiony podobny w aparatach możesz poczytać tutaj:Cytat:
Zamieszczone przez Jurek Plieth
http://www.newton.dep.anl.gov/askasc...9/eng99312.htm
Filtrowanie antyaliasingowe musi być zrobione przed przetwarzaniem sygnału na postać dyskretną. Wszelakie software'owe próby poprawiania post factum to proteza, bo tak naprawdę nie ma żadnej metody stwierdzenie co jest rezultatem aliasingu, a co nie. Pomoże oversampling, ale to da się to zrobić tylko przy generacji obrazu o rozdzielczości znacznie mniejszej niż rozdzielczość matrcy.
Zwróć uwagę (bo zdaje się, że Ci to umnkęło), że przetwarzany jest sygnał obrazu w funkcji położenia, a nie w funkcji czasu. Częstotliwość przetwornika A/D nie ma tu zupełnie nic do rzeczy.
MUFLON -> Zjawisko aliasingu istnieje przecież "od zawsze"... Natomiast zdano sobie sprawę z jego istnienia gdzieś w latach 20 (w każdym razie na długo przed II W.Ś.). Jest tu ktoś starszy?. Zaś eMILz nie pisał, że w oku będzie aliasing, a podał przykład filtru, przynajmniej takie odniosłem wrażenie.
Pozdrawiam,
Jasiu
To jeszcze ja... Jak zwykle wyjdzie przydlugie :mrgreen:
Niech Ci bedzie... Nie kazdy jest inzynierem Canona i nie kazdy studiowal obrobke sygnalow.Cytat:
Zamieszczone przez Jurek Plieth
Strasznie motasz. Bez obrazy, ale uwazam ze to Ty robisz wode z mozgu tutaj nie do konca majac pojecie jak odbywa sie cala obrobka i co tak naprawde obrabiasz. Jestes pewien ze wiesz co jest tak naprawde sygnalem w naszym wypadku i co i jak mozesz filtrowac? Zaraz Ci pokaze gdzie i jak tam "musi byc jakis filtr", gdzie tak naprawde , co i po co filtrujemy i obrabiamy.Cytat:
Zamieszczone przez Jurek Plieth
Przesledzmy proces od poczatku w oparciu o proste definicje zgodnie z tym co napisales. Cytujac Wikipedie i tlumaczac to nieco dowolnie (bo tlumacz ze mnie marny):
Sygnal to przeplyw (potok) informacji. Wiekszosc sygnalow moze byc zaprezentowana w postaci funkcji w czasie albo polozeniu (w przestrzeni).Cytat:
a signal is a flow of information. Most signals of interest can be modeled as functions of time or position
Czyli bezposrednio odnosza sie do czasu albo przestrzeni. Nie wazne co tylko gdzie albo kiedy. To jest dosyc wazne. To nam wyznacza co tak naprawde jest sygnalem.
Dwa glowne typy sygnalow to analogowe i cyfrowe. W skrocie roznica pomiedzy nimi jest taka, ze sygnaly cyfrowe sa dyskretne (odrebny; oderwany; nieciagly; ziarnisty) oraz okreslone ilosciowo (z gory okreslona ilosc wartosci dyskretnych). Analogowe nie posiadaja zadnej z tych wlasnosci.Cytat:
The two main types of signals are analog and digital. In short, the difference between them is that digital signals are discrete and quantized, as defined below, while analog signals possess neither property
Zwlaszcza polecam nieciaglosc i ziarnistosc jako okreslenie cyfrowosci.
Generalnie definicje jak zwykle malo zrozumiale :D
Przesledzmy co sie dzieje zanim dostaniemy obraz cyfrowy.
Swiatlo z obiektywu pada na sensor. Na nim ulozone w matryce (siatke) komorki swiatloczole zamieniaja swiatlo proporcjonalnie na elektrony. Nastepnie elektrony sa "liczone" i reprezentowane jako wartosc liczbowa. Zbior tych wartosci liczbowych z calej matrycy daje nam cyfrowy plik w postaci RAW'a. Jego cyfrowosc chyba nie ulega watpliwosci. Jak widac w calym procesie jest kilka zmian wielkosci fizycznych w ktorych efekcie otrzymujemy scisle cyfrowy wynik w postaci plikow RAW na CF"ie.
Przesledzmy co dzieje sie w poszczegolnych krokach.
Zamiana analogowego ladunku elektrycznego (elektronow) z piksela na wartosc liczbowa. Zgodnie z definicja jest to konwerter analogowo cyfrowy. Ale czy tak naprawde mozemy mowic o sygnale?
Zdecydowanie calosc obrabianej informacji jest oderwana od czasu. Nie ma znaczenia czy konwertujemy piksel na godzine czy 69 milionow na sekunde (1dsmkII). Calosc informacji oderwana jest tez dosyc znacznie od przestrzeni. Nie ma znacznenia czy bedziemy przetwarzac piksele z matrycy po kolei czy losowo, w pionie, poziomie, pojedynczo czy po osiem na raz. Zawsze otrzymamy ta sama wartosc dla kazdego z nich.
Przetwornik elektronow w aparacie cyfrowym nie ma zadnego zwiazku z czasem i przestrzenia. Operujac na pikselu caly proces nie odnosi sie do niczego. Na wejsciu mamy jedna wielkosc oderwana od innych, na wyjsciu inna proporcjonalna do wejscia. Tak samo jest z zamiana fotonow na elektrony. Calosc odbywajaca sie na poziomie piksela jest oderwana od calej reszty obok oraz niezalezna od czasu.
Wyjdzmy jeszcze raz z definicji sygnalu i skorzystajmy z analogii...
Mamy magnetofon cyfrowy z analogowym wejsciem. Cale urzadzenie rejestruje elektryczne analogowe sygnaly zmienne w czasie (jedna z podstaw sygnalu) w postaci cyfrowej. Jest sygnal w czasie, konwerter majacy wyrazna czestotliwosc probkowania (mierzy cos w czasie) i filtr ograniczajacy czestotliwosc (w czasie) sygnalu do naszego kownertera. Dalej zapis, ale to juz sygnal cyfrowy...
Czy nasz konwerter bedacy pikselem z waga zamieniajacy w dwoch krokach ilosc swiatla dajac nam jego cyfrowy odpowiednik w postaci liczby dziala podobnie? Nie ma zadnej zaleznosci od czasu. Mierzymy przeciez calkowita ilosc swiatla z piksela bez zadnego "na sekunde". Tak samo przestrzen. Mamy piksel lapiacy okreslona ilosc swiatla. Czy ma znaczenie gdzie on to lapie dla wyniku?
Uderzmy w temat inaczej...
Definicja:
Obraz cyfrowy to reprezentacja dwu wymiarowego obrazu jako zbioru skonczonych cyfrowych wartosci nazywanych elementami obrazu lub pikselami.Cytat:
A digital image is a representation of a two-dimensional image as a finite set of digital values, called picture elements or pixels.
Traktujac calosc nieco dowolnie tak naprawde nie ma znaczenia czy wartosci beda w postaci ilosci swiatla, ilosci elektronow czy liczby reprezentujacej jedno albo drugie. Liczy sie tylko i wylacznie fakt ze jest to skonczony zbior punktow w dwuwymiarowej przestrzeni. Tak naprawde mozemy na murze pedzlem malowac obraz skladajacy sie z pikseli piszac poszczegolne wartosci rgb punktow skladowych czy malujac kolory i to tez bedzie obraz cyfrowy.
Wlasnie... Proste definicje...
Wrocmy do analogii magnetofonu. Magnetofon zamienia nasz sygnal elektryczny w czasie (zarowno audio jak i video) na postac cyfrowa. A co robi cyfrak?
Czyz nie jest tak ze obrabiajac nasze piksele mamy juz doczynienia z obrazem cyfrowym? Czy ma znaczenie czy zawartosc pikseli bedzie w ilosci swiatla, elektronach, liczbach czy ogorkach w sloikach dla calosci obrazu?
Cala zamiana obrazu na cyfrowa postac sprytnie i niezauwazenie nastepuje jeszcze zanim swiatlo zostanie zamienione na elektrony i grubo przed zamiana tego swiatla jako liczby w pliku RAW. To tu jest tak naprawde nasze swiatlo gdzies w przestrzeni. Tu plynne swiatlo jest zamieniane na cyfrowa matematyczna postac w okreslonej przestrzeni dwuwymiarowej podzielonej na cyfrowe ziarna bedace pikselami na matrycy.
Skoro tu mamy nasz sygnal (w przestrzeni) to gdzie nasza czestotliwosc probkowania? Jako ze operujemy w przestrzeni a nasza jednostka cyfrowa sa piksele to bedzie to rozdzielczosc sensora i gestosc upakowania pikseli na matrycy w przestrzeni. Zwykle piksele na milimetr. Patrzcie jak na wierzchu i jakie proste... Skoro wiemy juz gdzie mamy sygnaly "analogowe" i gdzie lezy nasze ograniczenie przejdzmy do filtrowania sygnalu (obrobka sygnalow).
Jurek napisal o swietle jako fali swiatla widzialnego i bliskowidzialnego. Rzeczywiscie tak jest. Mamy czerwony, zielony, niebieski, podczerwien, ultrafiolet i co tam jeszcze sobie kazdy wynajdzie (w encyklopedii)...
Obrabiajmy... Jako ze sensory sa praktycznie tak samo czule na swiatlo widzialne jak i podczerwien nalezy obrobic sygnal ograniczajac czestotliwosc. W tym wypadku co prawda nie jest to filtrowanie do mozliwosci czestotliwosciowych naszego konwertera a do niepozadanych wartosci ktore powoduja nieprawidlowe oddanie barw.
Wycinamy cala podczerwien. Robi sie to na dwa sposoby. Albo poprzez szybke zwana "dichroic mirror" odbijajaca cala podczerwien a przepuszczajaca wszystko inne albo poprzez szklo pochlaniajace podczerwien (infrared absorption glass). Canon stosuje tutaj kanapke skladajaca sie z obu tych elementow (najpierw odbija a reszte pochlania). Podobne elementy sa na bezfiltrowych sensorach kodaka i wszystkich innych nieastronomicznych zastosowaniach sensorow krzemowych. Podczerwien generalnie jest niepozadana w normalnym fotografowaniu.
Ultrafiolet z drugiej strony nas nie interesuje, sensory sa w zasadzie nieczule na niego, swiatlo widzialne oczywiscie chcemy najchetniej w postaci nienaruszonej...
Dochodzimy do punktu w ktorym warto przypomniec po co to wszystko tu pisze.
Ano po to:
Problemem zwiazanym z probkowaniem sygnalu i jego zamiana na postac cyfrowa jest aliasing.
Jak to powstaje i co to jest? Probkujac z pewna czestotliwoscia sygnal wysokiej czestotliwosci uzyskujemy zbior cyfrowych danych odpowiadajacy sygnalowi nizszej czestotliwosci. Zupelnie jak na wykresie powyzej. Mimo ze probkowalismy czerwona sinusoide tak naprawde majac tylko cyfrowe dane w postaci tych punktow nie jestesmy w stanie powiedziec czy probkowane bylo to niebieskie czy to czerwone gdyz nie mamy zadnych danych o sygnale pomiedzy probkami przed konwersja.
Aliasing (podobnie jak sygnal) moze byc zarowno w czasie jak i w przestrzeni. Ten drugi odnosi sie bezposrednio do naszego przypadku i obrazu. Jak wyglada? Znana wszystkim popularna mora. To ta "duza fala" (urojona) powstajaca z malej probkowanej z nieodpowiednia czestotliwoscia.
Ale zaraz... Skoro czestotliwosci to nasze podczerwienie i ultrafiolety... No wlasnie. Proste definicje. Wylazla fizyka ze szkoly.
Jak zapewne wiekszosc tutaj technicznych wie, swiatlo ma nature korpuskularno-falowa. To nie tylko podczerwienie i ultrafiolety (fale) ale tez strumien czasteczek zwanych fotonami.
Zamieniajac naszym konwerterem (sensorem) swiatlo na piksele nie zamieniamy go bazujac na pasmach i kolorach (czyli fali w czasie) a bazujac na jego ilosci w przestrzeni (fotonach). Naszym sygnalem nie jest podczerwien, ultrafiolet, niebieski czy zielony ale ilosc swiatla w danym punkcie matrycy. Ilosc w przestrzeni. Nasza czestotliwosc to dajace sie rozroznic linie na milimetr pochodzace z obiektywu. Jak widac podstawa nadal scisle pasuje do definicji sygnalu i encyklopedycznych definicji aliasingu.
Znamy tez juz ograniczenie konwertera (czestotliwosc probkowania) w postaci pikseli w przestrzeni (jednostki sie zgadzaja) wiec mozemy tu stosowac nasze teorie obrobki sygnalu i filtrowanie...
Tak. Tu. Nie na sensorze podczas zamiany fotonow na elektrony i pozniej podczas zamiany ladunku na liczby w rawie. Obie te rzeczy przeprowadza sie dla pojedynczych pikseli w oderwaniu od calej reszty i to tak naprawde kosmetyka. Rownierz robiac z rawem kombinacje bayera czy jakiekolwiek inne operacje na pikselach obrabiamy sygnal cyfrowy. To operujac na swietle jako takim stosuje sie wszelkie nyquisty, czestotliwosci, filtry i cala reszte matematyki czestotliwosciowej.
Czemu nie dalej? A gdzie i jak niby mialo by sie to odbywac skoro sygnal jest juz cyfrowy? Jak juz napisalem nasza konwersja do postaci cyfrowej nastepuje w momencie dzielenia obrazu z obiektywu na piksele. Cala reszta operacji po podzieleniu na piksele odbywa sie w oderwaniu zarowno od przestrzeni jak i od czasu bazujac na pojedynczych pikselach jako suchej reprezentacji cyfrowej. Teraz juz po frytkach. Aliasing wystepujacy przy probkowaniu obrazu do postaci cyfrowej jesli mogl to wystapil.
Mamy juz cyfrowy obraz z pikseli. Skad wiadomo ze to mora a nie cien na budynku? Skad wiadomo ze fotografujemy ubranie jednolitego koloru a nie w paski/prazki/cokolwiek? No wlasnie. Nie wiemy. Mory (aliasingu) nie da sie wyeliminowac po tym jak wystapi. Nawet traktujac wszystkie piksele jako zbior nic na aliasing nie poradzimy bo to juz jest sygnal cyfrowy. Stracilismy bezpowrotnie plynnosc analogowego sygnalu z obiektywu uzyskujac w zamian cyfrowa ziarnistosc. Zgadza sie?
Kryterium Nyquista mowi, ze aliasing wystapi jesli czestotliwosc sygnalu probkowanego jest wyzsza jak polowa czestotliwosci probkowania. To mozna bardzo latwo policzyc. Rozdzielczosc sensora jest scisle okreslona, zdolnosci obiektywow tez... Porownujac jedno i drugie mozna wyliczyc czy i kiedy wylozy sie nasz zestaw.
Jako ze caly czas o filtrowaniu...
W przypadku sygnalow bazujacych w oparciu o czas zastosowanie filtra dolnoprzepustowego jest w zasadzie bardzo proste. Majac przebieg elektryczny w czasie (np. audio) mamy szereg najrozniejszych elektrycznych filtrow o ostrej charakterystyce odciecia pozwalajacych wyeliminowac zaklucajacy calosc sygnal wprowadzajacy artefakty zwiazane z aliasingiem. Bylo na elektronice :)
W zasadzie nawet majacy obalic teorie przyklad z IR swietnie pokazuje ze bardzo latwo pracowac na sygnalach wzgledem czasu nawet jesli jest to swiatlo (fala rzedu set terahercow). Wyciecie podczerwieni czy swiatla widzialnego bazujac na czestotliwosci w czasie jest banalne. Prawie wszyscy maja filtry IR na matrycy i sporo ludzi wie o istnieniu R72 pozwalajacego na fotografie w podczerwieni czy UV'kach eliminujacych ultrafiolet. Filtr czerwony, zielony czy niebieski tez bazuje na czestotliwosci swiatla w czasie.
W optyce i obrobce sygnalu bazujacej na przestrzeni niestety tego typu filtry nie istnieja.
Eliminacja wysokich czestotliwosci (drobnych detali w obrazie) odbywa sie poprzez zmiekczenie calego obrazu. Tracimy drobne detale, ale niestety calym procesem dotykamy tez wszystko inne. Tak. Nasz filtr dolnoprzepustowy to szkielko zmiekczajace caly obraz przed matryca. Inaczej sie nie da.
Tu sa dwie metody. Albo jak Canon bez mory, albo nieco ostrzej jak Nikon i Kodak. Mozna tez kompaktowo. Upychajac duza liczbe sensorow (duza czestotliwosc probkowania) przewyzszymy rozdzielczosc sygnalu pochodzacego z obiektywu. Niestety w tym wypadku tracimy na czulosci sensora i w plecy jestesmy na szumach. Nie ma nic za darmo.
Pamieta ktos lekarstwo na more w Kodaku? Wiemy ze dyfrakcja ogranicza rozdzielczosc obiektywu. Stad numer z przymykaniem obiektywu do np. f/16 pozwalajacy pozbyc sie mory. Jeden z przykladow filtrowania.
Mam nadzieje ze nie musze dalej udowadniac ze w naszym bidnym Kodaku (i nie tylko nim) nie ma filtra, nie musi nigdzie byc oraz skad sie wziely takie a nie inne okreslenia na poszczegolne elementy i co tak naprawde jest cyfrowe a co analogowe. Jak widac wszystko mozna sprowadzic do prostych definicji i wyjasnic bez zadnego "musi byc" oraz pomimo ze jest kupe analogii niestety nie wszystko bezposrednio przenosi sie z jednego na drugie.
O calym tym temacie sa tony materialow w sieci, to powyzej to tylko prostacko nienaukowo opisany zarys zagadnienia. Niech mi ktory wyjedzie tutaj z czasem naswietlania jako dowodem na zaleznosc od czasu czy tym ze ten opis jest zly bo bayer i to pasuje tylko do foveona (tez jest mora, wlasnie taka mono o jakiej pisze) lub sensora jednokolorowego (takie tez sa) to utluke :mrgreen:
Wyjdz z definicji obrazu cyfrowego i uswiadom sobie co robia soczewki? No wlasnie. One nie zmiekczaja obrazu zachowujac jego analogowa plynna postac. One dziela obraz rozrywajac go na punkty odpowiadajace pikselom. Jedyne ich zadanie to zwiekszenie efektywnosci piksela w lapaniu swiatla w obrebie tego piksela. Ich praca odnosi sie tylko i wylacznie do pikseli.Cytat:
Zamieszczone przez eMILz
Filtr to rozmywanie naszej fali swietlnej tak, ze najdrobniejsze detale beda powyzej naszego podwojnego nyquista, czyli dwa piksele. Filtr pracuje na poziomie wyzszym od piksela obejmujac ich grupy dbajac o to aby stosunek naszego sygnalu do naszej czestotliwosci probkowania byl odpowiedni.
Zle napisalem .. ze moga byc filtrem AACytat:
Zamieszczone przez KuchateK
ale zgodzisz sie ze ze ich wielkosc moze miec wplyw na zmniejszenie zjawiska aliasingu ...
Niemoze miec wplywu, aliasing powstaje juz za nimi a nawet za detektorami na ktore naprowadzaja one swiatlo...
http://img325.imageshack.us/img325/3...titled12al.jpg
teraz troszke domalowalem moze latwiej bedzie mi przedstawic o co mi chodzi ...
w drugim przypadku sensorem jest maly punkcik w srodku kwadraciku...
w pierwszym nad sensorkiem umieszczamy soczewke ktora ma dawac mu wiecej swiatla ...
efekty sa po prawej ...
czy drugi przypadek bedzie mial sklonnosci do wiekszego schodkowania ??
Niestety chyba sie nie dogadamy :)
Pewnie ze sie nie dogadacie... nikt z nikim :) bo dyskusja zeszla na standardowe "czy crop wplywa na GO", gdzie kazdy juz dawno zapomnial o co biegalo na poczatku :) Proponuje prosty test: niech kazdy napisze w jednym zdaniu (max. 20 slow) co chce przekazac tymi dlugimi wywodami :mrgreen:
To nie jest cyfrowa grafika komputerowa gdzie jak Ci przechodzi przez kwadratu srodek kwadratu to jest, a jak nie to nie ma. Poczytaj wyklad goscinny Marka Lewandowskiego z pl.rec.foto.cyfrowa i zobacz jak zachowuje sie ladunek w cemosie ktory nie pada bezposrednio na obszar fotoczuly. No wlasnie. Caly numer polega na tym ze rowniez i obszar poza aktualnym sensorem w obrebie piksela bierze udzial w wychwytywaniu ladunku nawet jak tam nie ma soczewek. To nie jest mikroskopijna kropka na srodku i cala reszta poza nia nie idzie na straty.Cytat:
Zamieszczone przez eMILz
Witam
Szukam materiałów na temat filtru AA. Mam bardzo powierzchowną wiedzę na jego temat, więc chciałbym ją pogłębić :) Zacznę może od banalnych wydawałoby się pytań:
1. W jakiem celu się go stosuje?
2. Co by było gdyby go nie było?
3. Czy we wszystkich typach matryc jest on stosowany (jeśli nie we wszystkich to dlaczego)?
4. Dlaczego przy jednych matrycach jest on silniejszy, przy innych słabszy?
5. Czy istnieje alternatywa dla filtru AA?
6. Zasada działania i budowa (w miarę szczegółowy opis w miarę możliwości).
7. Wady i zalety filtru AA.
Bardzo byłbym wdzięczny za wszelkie informacje na ten temat.
EDYCJA:
Znalazłem "polemikę" na temat filtru AA:
http://groups.google.pl/group/pl.rec...&lnk=nl&hl=pl&
ale nie bardzo rozumiem :)
Z góry dziękuję.
Zdaje sie ze watek o tym byl i u nas ;)
http://canon-board.info/showthread.php?t=6545
To ten post...
http://canon-board.info/showthread.p...7799#post97799
Jak przeczytasz go powinien Ci nieco rozjasnic w kilku punktach powyzej. A jak nie to pisz :D
Aha... Nie recze ze to co tam napisalem (jak zwykle sporo) nie jest jedna wielka bzdura :D
OT: Muflon, nie wiedzialem ze masz minolcie ;)
Trochę jest na ten temat (także i odnośniki do innych stron) w Wikipedii. Spróbuj też poszukać pod hasłem "kryształ dwójłomny" ew. dwójłomność! Tutaj masz link. Same rysunki już sporo wyjaśniają.
Dziękuję - zatapiam się w lekturze :)
OK - poczytałem, poczytałem również wykłady gościnne Marka Lewandowskiego i...
1. Sygnał analogowy (fotony) mamy przetworzony na elektryczny już w zasadzie samej matrycy - w CCD zbieramy do "kubła" wybite elektrony, w CMOS za pomocą fotodiody + 3 tranzystory otrzymujemy odpowiednik napięcia w zależności od światła (fotonów) w celi matrycy. Na tym etapie nie ma mowy o próbkowaniu - ot, liniowa zależność (w układzie półprzewodnikowym wykorzystujemy jego liniową charakterystykę do tego celu). Wiadomo, że światło ma naturę korpuskularno-falową i w zasadzie z celi zliczamy tylko fotony. Aby odnieść się do koloru, matryca pokryta jest malutkimi filtrami R, G, B (gdzie zielonego jest dwa razy więcej) - nie będę się tu rozpisywał, wiadomo o co chodzi. Teraz pytanie. Na jakim etapie dalszym stosowane jest próbkowanie? Po co jest stosowane, skoro mamy już zapis cyfrowy, który odzwierciedla ilość fotonów?
2. Skoro matryca "pokryta" jest malutkimi filtrami R, G, B po co stosowane są dodatkowe filtry wcześniej typu IR itp?
3. Marek Lewandowski chyba twierdzi (tak chyba zrozumiałem czytając polemikę z grupy dyskusyjnej), że istnieje fizycznie filtr AA w postaci płytki optycznej przed matrycą. Czy istnieje naprawdę? Z tego co rozumuje, jest to filtr softowy (tu na tym etapie nie rozumiem jego stosowanie, gdyż w moim pytaniu nr 1 mam niejasność co do próbkowania).
4. Skoro jest nad matrycą jakiś filtr (czy to "AA", IR czy inny zmiękczający) ile tracimy na rozdzielczości zdjęcia? Przykłądowo mamy super obiektyw typu L Canona - ile tracimy linii/mm? Czy jest ktoś w stanie powiedzieć na podstawie matrycy w 350D?
5. W jaki sposób jest możliwe zrobienie zdjęć w podczerwieni w Canonie 350D, skoro występuje nad matrycą filtr IR, który obcina promieniowanie podczerwone?
6. I czy istotnie matryca jest mało czuła na promieniowanie UV? Jaki jest zatem sens stosowanie filtrów UV?
Bo sygnał z matrycy mamy analogowy. I próbuje się go w momencie zejścia z matrycy. Matryca nie zlicza przecież fotonów. Zmienia się jedynie napięcie w pixelu, zależnie od tego ile tych fotonów wpadło. I ile elektronów uciekło/wpłynęło bokiem :) (szum)Cytat:
Zamieszczone przez Tomasz Urbanowicz
Pewnie dlatego, że ten filtr kolorowy przepuściłby i IR.Cytat:
2. Skoro matryca "pokryta" jest malutkimi filtrami R, G, B po co stosowane są dodatkowe filtry wcześniej typu IR itp?
3. Marek Lewandowski chyba twierdzi (tak chyba zrozumiałem czytając polemikę z grupy dyskusyjnej), że istnieje fizycznie filtr AA w postaci płytki optycznej przed matrycą. Czy istnieje naprawdę?[/QUOTE]
Istnieje. Fizycznie. Szybka taka. I w niektórych aparatach można go sobie nawet wyjąć.
Ale chodzi Ci o próbkowanie w jakiej dziedzinie? Przetwarzanie A/D jest w dziedzinie jasności, przetrzennie matryca działa już dyskretnie. Filtr AA wpływa właśnie na tę drugą dyskretyzację.Cytat:
Z tego co rozumuje, jest to filtr softowy (tu na tym etapie nie rozumiem jego stosowanie, gdyż w moim pytaniu nr 1 mam niejasność co do próbkowania).
Trochę tracimy. Nikon ma słabsze zmiękczanie, banknoty w makro wychodzą ostrzej, ale na niektórych ujęciach wychodzi mora. Coś za coś. Moim zdaniem prościej rozmiękczone zdjęcie wyostrzyć USM niż walczyć z morą.Cytat:
4. Skoro jest nad matrycą jakiś filtr (czy to "AA", IR czy inny zmiękczający) ile tracimy na rozdzielczości zdjęcia? Przykłądowo mamy super obiektyw typu L Canona - ile tracimy linii/mm? Czy jest ktoś w stanie powiedzieć na podstawie matrycy w 350D?
Niektórzy go demontują. A nawet bez niego jest to możliwe bo ten filtr trochę IR przepuszcza. Zakładasz na obiektyw taki, co widzialnego nie przepuszcza, robisz ekspozycję 30s w jasny dzień i masz fotkę w IR ;)Cytat:
5. W jaki sposób jest możliwe zrobienie zdjęć w podczerwieni w Canonie 350D, skoro występuje nad matrycą filtr IR, który obcina promieniowanie podczerwone?
Istotnie. Głębokość wnikania UV w krzem jest na tyle mała, że wygenerowane nośniki w małym stopniu docierają do obszaru aktywnego fotodetektorów. Trochę może to wpływa, nie byłem w Himalajach ani nie robiłem zdjęć w solarium. Na pomiar światła może to mieć wpływ, słyszałem, tam jest dużo prostszy czujnik, jego obszar aktywny może być bliżej powierzchni, ale to gdybania.Cytat:
6. I czy istotnie matryca jest mało czuła na promieniowanie UV? Jaki jest zatem sens stosowanie filtrów UV?
Możesz się do tego odnieść?Cytat:
Zamieszczone przez piast9
W sieci można znaleźć dwie opinie:
1. Filtr AA jest to filtr elektroniczny. (optyczny jest rzekomo filtr dolnoprzepustowy)
2. Filtr AA jest elementem optycznym - czyli tak dobrany, aby ograniczyć "rozdzielczość optyczną" (zależnie od częstotliwości próbkowania).
OT: Jaki zakres F-stop posiada matryca w 350D, ilu jest bitowa? Jaką rozdzielczość maksymalną może zarejestrować ograniczona filtrem AA?
Filtr AA można zrealizować zarówno w postaci optycznej, jak i w post procesingu. W postaci elektronicznej byłoby delikatnie mówiąc trudno w kierunku prostopadłym do kierunku odczytu pikseli z matrycy.Cytat:
Zamieszczone przez Tomasz Urbanowicz
Canon i Nikon stosują optyczne. Kaodak stosował postprocesing z miernym rezultatem.
Tu masz wyniki dla paru aparatów: http://www.dpreview.com/reviews/canoneos5d/page22.aspCytat:
Zamieszczone przez Tomasz Urbanowicz
350D nie ma, ale można wyciągnąć wnioski.
12Cytat:
Zamieszczone przez Tomasz Urbanowicz
Rozdzielczość bezwzględna jest taka sama jak bez AA, ale przy częstościach przestrzenych blisko rozdzielczości fizycznej mocno spada kontrast. O ile? Trzeba by zmierzyć na przerobionym aparacie, bo nie sądzę żeby Canon publikował takie dane.Cytat:
Zamieszczone przez Tomasz Urbanowicz