Andee, jakbyś mógł mi wytłumaczyć co mikrosoczewki na matrycy mają do bloomingu, to byłbym wdzięczny.
Andee, jakbyś mógł mi wytłumaczyć co mikrosoczewki na matrycy mają do bloomingu, to byłbym wdzięczny.
wiec taka soczewka jesli ma dawac elementom swiatloczulym wiecej swiatla
to musi byc
- wieksza od takiego elementu
- odbierac swiatlo z wiekszego kata ...
jesli spelnia ktorychs z tych warunkow to dziala jako filtr AA
bo zadaniem filtra AA jes usrednianie wartosci z wiekszej przestrzeni.
gdyby ich nie bylo sensor bardzo punktowo rejestrowalby swiatlo i wtedy dopiero bylyby poszarpane linie ...
Nie wiem jak jest w Nikonie, nie wiem też jak to jest realizowane w Canonie. Miałem na myśli tylko tyle, że aliasing (antyaliasing) to terminy z dziedziny przetwarzania sygnałów, a nie optyki! W tańszych i prostszych cyfrakach, gdzie siłą rzeczy używa się mało skomplikowanej obróbki sygnału wykorzystując nieprzesadnie mocne procesory, użycie zmiękczającego filtru optycznego jest być może koniecznością. Natomiast już w dobrych dSLR moim zdaniem powinna przeważać filtracja w trakcie obróbki sygnału - software'owa, czy hardware'owa, lub jedna i druga, ale nie na drodze optycznej!Zamieszczone przez Kubaman
eMILz, fajnie ze kombinujesz ale nie masz racji, soczewki nie sa filtrem AA i absolutnie nie sluza do usredniania wartosci swiatla przez nie przechodzacego dla uzyskania efektu AA. Wady korygowane przez filtr AA powstaja juz po przetworzeniu fotonow przez matryce CMOS.
Do SAM'a:
Soczewki maja to do bloomingu ze sa jego glownym sprawca, wlasnie przez kumulacje fotonow, efekt bloomingu wystepuje przy przepelnieniu komorki sensora.
Wiele osob dziwi sie dlaczego obiektyw poprawnie wspolpracujacy z analogiem po zapieciu do lustrzanki Canona z matryca CMOS zaczyna siac aberracja, to wlasnie z trego powodu...
Tutaj cytat, swietnie opisujacy ta wade, po co bede pisal drugi raz to samo skoro ktos to dobrze juz opisal:
"Sprawa bierze się z budowy matrycy. Płaski element światłoczuły posiada w pewnej wysokości nad sobą mikrosoczewkę. Tworzy ona coś w roczaju "domku" nad sensorem o prostopadłych do jego powierzchni ściankach i wypukłym "daszku". Jeśli promień światła z obiektywu nie jest odpowiednio równoległy do osi obiektywu (prostopadły do sensora) dla niektórych promieni mogą one padać nie bezpośrednio na sensor, ale na jedną z bocznych ścianek owego "domku". Może powodować to dwa przykre efekty:
1) Pierwszy objawia się wewnętrznymi odbiciami, jako że promień trafia do sensora dopiero po odbiciu od tej bocznej ścianki, co czasami wywołuje efekt "wewnętrznego blika".
2) Drugi polega na tym, że główny promień się nie mieści i pada dopiero dobity od ścianki "domku" ale z powodu aberracji chromatycznych obiektywu bezpośrednio na sensor pada wiązka rozproszona, część składowa fatalnej obwódki CA. W takim przypadku relacja pomiędzy promieniem głównym, a obwódką CA ulega zmianie na gorsze ( bo promień główny pada jako odbity od ścianki a promień obwódki CA bezpośrednio na sensor). "
Ostatnio edytowane przez Andee ; 08-11-2005 o 14:40
Czarna puszka i gruszka... www.andee.nwz.pl
Prawda.Zamieszczone przez Jurek Plieth
Ale wszystko sie wzielo z tego, ze problem, metodologia postepowania zarowno przy obrobce sygnalu jak i obrazu jest praktycznie ta sama. To ze sygnal obrabiasz filtrami, konwerterami i softem a swiatlo szkielkiem nie do konca jest powodem zeby nie mozna bylo filtra optycznego nazwac tak samo jak filtra elektrycznego. Stad ta sama nazwa filtrow zarowno przy obrobce sygnalow jak i swiatla w aparatach.
Tak naprawde cale to szkielko wlasciwie nazywane jest filtrem dolnoprzepustowym (low pass filter). Zreszta tak samo jak filtry dolnoprzepustowe (antyaliasingowe) przed konwerterami sygnalu przy jego obrobce. Chodzi o przyciecie rozdzielczosci sygnalu i wyeliminowanie detali powyzej rozdzielczosci sensora czy konwertera ktore powoduja more w obrazie czy buczenie przy audio.
Niezaglebiajac sie zbytnio w teorie sygnalow w cyfrakach chodzi o lekkie rozmycie najdrobniejszych detali, najlepiej bez naruszenia wszystkiego ponizej. Latwiej powiedziec, trudniej zrobic. Stad rozmycie calego obrazu.
Nie do konca... Tak naprawde koniecznosc uzycia filtra jest dyktowana przedewszystkim stosunkiem rozdzielczosci obiektywu i matrycy. Jako ze matryce kompaktow sa upakowane do granic mozliwosci wielokrotnie przewyzszajac rozdzielczosc matryc dslr'ow i obiektywow (zwlaszcza tanich kompaktowych hiperzoomow) praktycznie nie ma tam montowanych filtrow AA bo nie sa konieczne.Zamieszczone przez Jurek Plieth
Dla signalistow pomyslcie o tym jak o sygnale. Majac sygnal okreslonej niskiej czestotliwosci (swiatlo z obiektywu) i konwerter pozwalajacy na digitalizacje duzo wyzszych czestotliwosci (matryca) nie ma sensu filtrowac sygnalu (filtr na matrycy) ktory i tak nigdy nie zblizy sie do granicy przy ktorej zadziala filter.
Dlatego tez Kodak w swoim sensorze olal filter, gdyz uznal ze rozdzielczosc jest na tyle duza ze poradzi sobie w wiekszosci sytuacji bez filtra.
Nie. Tak sie nie da. Nie wyeliminujesz aliasingu oprogramowaniem czy sprzetem za sensorem czy konwerterem bo to "juz dawno po imprezie".Zamieszczone przez Jurek Plieth
Zeby wyeliminowac problem aliasingu trzeba sygnal odfiltrowac sygnal przepuszczajac go przez filter dolnoprzepustowy jeszcze PRZED jego konwersja do postaci cyfrowej.
To ze sensor teoretycznie jest analogowy to tylko zmyla. Jego struktura jest scisle cyfrowa. To wlasnie ta matryca pixeli rowno ulozonych zamienia analogowy obraz na cyfrowe pixele. To jest nasz sygnalowy odpowiednik konwertera. To przed tym trzeba odfiltrowac sygnal ograniczajac czestotliwosc zanim zostanie zdigitalizowany i zanim bedzie problem z aliasingiem. Dokladnie tak samo jak w sygnalach.
Zamieszczone przez Wikipedia
Ostatnio edytowane przez KuchateK ; 08-11-2005 o 19:08
...
no własnie nie wiem, skąd ty masz taką pewnośćZamieszczone przez Andee
. Zauważ, że w linku który podałem jest wyraźnie napisane, że optyczne filtry AA mogą być połączone w całość z IR. I nie chodzi mi tu o potoczne nazewnictwo, bo już wyżej pokazałem do czego to prowadzi.
jeeez, proszę poczytaj linka jeśli łaska. Nie obchodzą mnie za bardzo Twoje odczucia tylko fakty. Jeśli są filtry optyczne AA, to są i nie próbuj stosować metodologii tłumaczenia rodem z fanatycznych pogaduszek forumowych. Przecież napisałem jak to działa. Ja się nie wymądrzam (bo nie mam wielkiej wiedzy), tylko na podane opisy techniczne z sieci, których znalazłem wiele, Wy piszecie że to nieprawda i nic nie podajecie konkretniej.Prawdziwy filtr AA to rozwiazanie czysto softwareowe, to ze jakis producent wymysla sobie optyczne filtry zmiekczajace i nazywa je AA to sprawa tego producenta,
Ostatnio edytowane przez Kubaman ; 08-11-2005 o 19:21
kurczę Andee, chociaż w jednym mnie nie zanegowałeś (jam to nie chwaląc się napisałZamieszczone przez Andee
)
Wszystkim ktorym sie nie podoba nazewnictwo proponuje pisac petycje do marketingowcow i inzynierow Sony czy Canona w dalekiej Japonii ze nie powinni tego tak nazywac bo to nie to.
Tyle ze najpierw radze sie wczytac zarowno w obrobke sygnalow jak i obrobke obrazu w cyfrakach i dostrzec pewne analogie dzialania filtrow zarowno optycznych jak i stosowanych przy konwersji sygnalow. Skoro cos dziala tak samo to czemu nie nazwac tego tak samo? Jakos nie widze wielkiego halo ze robota kuchennego nazywa sie mikserem i nie wolno bo mikser to gdzies tam przy audio i video czy instalacjach gazowych w samochodzie...
...
KuchateK, dzięki serdeczne za wsparcie fachowcaZamieszczone przez KuchateK
Podobnie napisałem wyżej, tylko bez tego całego teoretycznego wyjaśnienia. Dzięki za informacje.
Moim zdaniem zdecydowanie nie! Uważam, że ta sama nazwa bierze się stąd, że o sprawie piszą ludzie nie mający o niej zielonego pojęcia, nawet na tak mądrych portalach jak dpreview itp. W smutnym efekcie natykamy się na takie rafy jak określenie, że jakiś aparat nie ma filtru antyaliasingowego. Po pierwsze więc pytam jakiego filtru nie ma? Tego szklanego (optycznego), czy też tego związanego z obróbką sygnału (co byłoby oczywistą bzdurą, bo tam musi być jakiś filtr). Po drugie zaś co to znaczy, że nie ma filtru? Dobrze to, czy może źle? A na dodatek nie ma jednoznacznej na to odpowiedzi. W ten sposób ludziom, którzy mają prawo z racji braku specjalistycznego wykształcenia nie mieć o tym pojęcia, robi się dodatkowo wodę z mózguZamieszczone przez KuchateK
![]()
W ten oto sposób sam się na tą rzeczoną rafę nadziałeś. Co nie miałoby miejsca, gdybyś się zastanowił jak wygląda widmo częstotliwościowe światła widzialnego i bliskowidzialnego. "Jadąc" więc z częstotliwością od dołu mamy najpierw podczerwień (IR), następnie światło o kolorze czerwonym, potem zielonym, wreszcie niebieskim i na najwyższych częstotliwosciach (najkrótsza długość fali) ultrafiolet (UV). Na drodze optycznej przez którą przechodzi całe to widmo (np. obiektyw, czy dalej już przed matrycą) wstawiasz "dolnoprzepustowy filtr optyczny" - cytuję Twoją wypowiedź. Jaki to jest więc filtr? Na logikę, aby być w zgodzie z Twoim cytatem jest to filtr, który tłumi światło o częstotliwości większej niż jakaś (wszakże jest dolnoprzepustowy). Jak więc jest to częstotliwość pytam? Na granicy IR i światła czerwonego? Bez sensu, bo taki filtr nie przepuści światła widzialnego. Gdzie jest więc ta częstotliwość odcięcia? Odpowiedź prawidłowa brzmi, że nie w zakresie widma optycznegoZamieszczone przez KuchateK
Dolnoprzepustowy filtr antyaliasingowy jest bowiem drogi Kuchatku filtrem związanym z obróbką sygnału, a jego częstotliwość odcięcia ma li tylko związek z częstotliwością próbkowania przetwornika A/C, a nie ma żadnego związku z widmem optycznym!
Itd., itd. Nie miejsce to na robienie wykładów na temat przetwarzania sygnałów, ani też ja nie jestem ku temu odpowiednią osobą, bo specjalizuję się w zupełnie innych zagadnieniach. Warto jednakże czasem sięgnąć do zupełnie podstawowych definicji.