Na jakiej podstawie wnioskujesz, że wpływ światła na prąd spolaryzowanego złącza metal - półprzewodnik jest znikomy?Zamieszczone przez MarekC
Na jakiej podstawie wnioskujesz, że wpływ światła na prąd spolaryzowanego złącza metal - półprzewodnik jest znikomy?Zamieszczone przez MarekC
Postprocessing: AfterShot Pro + pluginy
tak, ale my próbujemy dyskutować o conajmniej 2 poziomy abstrakcji niżej, zagłębiając się w budowę struktur pólprzewodnikowych pojedynczego sensoraZamieszczone przez dentharg
Pozdrawiam
Marek
Hmm.. No tak. Skopiowałem link z zasobów, który oglądałem dawno temu. Sorki za zaśmiecanie.
Postprocessing: AfterShot Pro + pluginy
Tu jest fajny link wyjaśniający sporo:
http://www.stud.uni-karlsruhe.de/~uy...cy/123xx6x.pdf
650D, T 12-24 4.0, S 30 1.4, S 18-35 1.8, C 70-210 3.5-4.5, C 50 2.5 macro, M42: Praktica LLC, Jupiter 9, Pentacon 135 2.8, Orestegor 300 4.0
Język kwiecisty, ale ma być zrozumiały dla każdego :-)Zamieszczone przez piast9
Super wyjaśniają materiały na stronie www.fillfactory.com (link w podanym pdf).
W kazdym razie konkluzja jest taka, że CCD w zasadzie kończy się na 6..10 Mpx, co wynika z jego konstrukcji i zasady działania. Tak duża i większe matryce wykonane w tej technologii pobierają dużą moc oraz są baaardzo narażone na wpływ ładunków bładzących po całej matrycy, co w efekcie zniekształca sygnały odbierane z pikseli. Poza tym CCD to tylko matryca sensorów, której całe sterowanie i jakakolwiek obróbka sygnałów - muszą być realizowane przez układy zewnętrze. To jak zwykle powoduje straty w sygnale i zniekształcenia.
Zaletą CCD jest możliwość wykonania sensora, który potrafi pracować BEZ zewnętrznej migawki - co jest podtswą działania kompaktów czy kamer. Dlatego na tym polu będzie ona chyba długo jeszcze królowała
CMOS z kolei ciężko wykonać małą matrycę, ze względu na ilość elementów składowych pixela..fotodioda i 3 tranzystory razy np. 8 Mpx .. 24 mln tranzystorów i 8 mln diod.. oprócz tego ścieżki do sterowania odczytem sygnałów z piksela.. toż to struktura a'la procesor Pentium III, a moze i Pentium IV. Do tego ograniczenie minimalnej powierzchni fotoczułej diody... to nie może być maleńkie :-)
Oprócz tego wymaga zewnętrznej migawki, czyli nadaje się tylko do dSLR.
CCD ze względu na swą konstrukcję i sposób transporu ładunku piksela od fotoceli do wyjścia z matrycy jest największą bolączką tego typu sensora, bo raz powoduje większe straty ładunku, a więc trzeb je jakoś kompensować - co dodaje szumy i zniekształcenia, dwa defekt jednego sensora w linii powoduje awarię całej linii. W CMOS tylko tego jednego sensora, co można jakoś zamapować...
Zawsze wyobrażałem sobie, że sygnał z sensora CMOS ma kształt zniekształconej sinusoidy wysyłanej do DSP przez czas otworzenia migawki, gdzie jest on zamieniany na postać cyfrową i dalej za pomocą skomplikowanych algorytmów rozkladany na sygnały składowe RGB..dalej to sumowanie takich składowych i w efekcie dane wyjściowe RGB. Idąc tym tropem zastanawiałem sią skąd te przekłamania kolorów, czy mniej naturalny wygląd zdjęć z dSLR niż z analogów.
Jak się jednak (dla mnie) okazuje odtwarzanie kolorów polega na interpretowaniu każdego piksela tak, jakby był czuły tylko na jeden kolor. jaki to zależy od tego jakiej maski RGB użyjemy. Odtwarzanie kolorów z maski polega na obserwacji, że kolor piksela zalezy od koloru piksela sąsiada, czyli np. piksel R jest wspólny dla 2-ch, czy więcej sąsiadujących z nim pikseli. Okazuje się, że mimo wysokiego zaawansowania matematycznego twórców takich masek, zdarza się że jakiś piksel nie ma składowej R, G, czy B. I wtedy mamy przekłamanie kolorów. Stosuje się tu tabele korekcji (zapisy typu +R), podobnie jak te do korygowania czułaości każdego elementu fotoczułego, ale mimo wszystko nie mamy pewności czy wartość brakującej składowej wyliczona przez algorytmy interpolacji zaszyte w DSP obliczyły dobrą wartość brakującej pikselowi składowej. często tak też nie jest i mamy przekłamania. Jest to ograniczenie technologiczne, które być może zostanie kiedyś pokonane..np. poprzez stworzenie elementu fotoczułego o kształcie i wielkości podobnych do składników fotoczułych w emulsji na kliszy..
Acha - zastosowanie masek wreszcie chyba wytłumaczyło mi czemu matryca ma większą fizyczną ilość pikseli, niż ilość efektywna. Musi być jakas nadmiarowość, by z maski odtworzyć kolory
Pozdrawiam
Marek