Drobne sprostowanie: dwa razy się pomyliłem pisząc z pamięci o lokalizacji obrazka: zamiast parawy dolny lub górny powinno być lewy (!!!), co z resztą widać po nazwie wyświetlanego pliku ponad nim.
Wersja do druku
Drobne sprostowanie: dwa razy się pomyliłem pisząc z pamięci o lokalizacji obrazka: zamiast parawy dolny lub górny powinno być lewy (!!!), co z resztą widać po nazwie wyświetlanego pliku ponad nim.
To nie jest do końca tak, jak napisałeś. Panowie od profesjonalnych testów, np. na dpreview.com wyrażają się niezbyt precyzyjnie, a już na pewno nie łopatologicznie. Interpretacja sygnału wejściowego zależy mocno od oprogramowania i rozdzielczość obrazu nie jest wyłącznie liczbą zielonych pixeli matrycy podzieloną przez 2. Np. Canon EOS 40D (10 MPix) osiąga rozdzielczość na tablicy testowej rzędu 2100 LPH na 1800 LPH, co daje 3,78 MPix, "w porywach" do 2300 LPH na 2300 LPH, czyli 5,29 MPix, kiedy jakiejkolwiek rozróżnialności linii już nie ma, a więc odchyłki w obie strony od "modelowej" rozdzielczości. Gdyby matryca "czytała" równomiernie w obu kierunkach, to przy proporcji boków 2:3 powinna mieć przy 1800 LPH pionowo 2700 LPH poziomo, czyli 4,86 MPix z marszu, ale już nawet 3,78 MPix to jest prawie 30% więcej informacji w pliku w stosunku do skanu 1400x2100, czyli 2,94 MPix.
Założenie, że "marketingowa" rozdzielczość jest dwukrotnie przesadzona prowadziłoby do wniosku, że można bezstratnie zmniejszyć wielkość pliku o połowę i ponownie go dwukrotnie powiększyć otrzymując w efekcie to samo, ale tak nie będzie. 50% pixeli tworzy przestrzeń na wizualizację wyników interpolacji spomiędzy tych decydujących o rozdzielczości zielonych pixeli, czyli przesądza o tym, czy te wyniki należy ze sobą łączyć, czy je separować, i dzięki temu niebo na zdjęciu nie jest ani w paski, ani w kropki, a np. włosy są rozróżnialne. Skaner skanujący negatyw nawet w trybie Pixel per Pixel potrafi uczynić jakąś "pixelozę" na- wydawało by się- jednolitym kolorystycznie i tonalnie obszarze obrazu, bo wykrywa ziarno emulsji i je sobie też po swojemu interpretuje i uśrednia, a wynik skanowania przez to też wymaga obróbki (usunięcia szumu i wyostrzenia) tak samo, jak fotografia wykonana aparatem cyfrowym, więc straty rozdzielczości występują w obu metodach otrzymywania obrazu cyfrowego.
Trochę przesadzasz z głebią swoich rozważań teoretycznych. Jasne, że zależy to od oprogramowania, ale zwykle użyteczna rozdzielczość jest na tyle blisko 50%, że praktycznie nie do odróżnienia (popatrz na testy puszek Sigmy i porównaj z pozostałymi). Fuji wymyśliło jeszcze lepszy patent obracając matrycę o 45 stopni i ci z tego wynikło? Nic, chociaż rozdzielczość pionowych i poziomych linii teoretycznie wzrosła 1,4 raza, to w praktyce różnicy w zdjęciach nie było, pewnie dlatego, że rozdzielczość lini przebiegających pod kątem 45 stopni zmalała 1,4 raza w stosunku do normalnego układu matrycy :)
Generalnie masz rację, że faktyczna rozdzielczość matrycy oscyluje wokół 50% deklarowanej, ale nie wyłącznie o to mi chodziło, ale o to, że praktycznie zrównałeś pojemność informacyjną 8 MPix z Canona 20D ze skanem 3 MPix. Jak sam pisałem wcześniej, wielkiej- a nawet żadnej- różnicy na wydruku w formacie 20x30 cm nie będzie, jednakże te 3 MPix ze skanu to też jest jakaś zawyżona przez interpolację wartość.
Poza tym ja się raczej rozpisuję o rozdzielczości obiektywów, a nie matryc.
Gdyby założyć, że faktycznie wykorzystujemy tylko 4 z 8-u megapixeli matrycy, to jej liniowa rozdzielczość spadłaby z 67 linii/mm do 47 linii/mm, a to jest różnica pomiędzy obiektywem bardzo dobrym a dość kiepskim, i jest to graniczna (wymagalna ok. 50 linii/mm) rozdzielczość optyki dla otrzymania ostrego wydruku w formacie 20x30 przy pełnej klatce 24x36mm z negatywu, a my chcemy mieć ostre zdjęcie z "ogryzka" APS-C! Tak więc te czerwone i niebieskie pixele nie są całkowicie bezproduktywne w odniesieniu do rozdzielczości zarówno matrycy, jak i użytej optyki, bowiem to one właśnie zczytują te fragmenty obrazu, których zielone nie widzą!
OK, matyce w lustrzankach APS-C w ogóle nie nadają się do testowania bezwzględnej rozdzielczości optyki, ale nie da się pominąć faktu, że im lepsza jest ta optyka, tym mniej problemów interpretacyjnych ma komputer w body, i tym lepszy otrzymujemy obraz:smile:
A to akurat jest niewykluczone, że ten korpus jest "niepełnosprawny". Prawie wszystkie zdjęcia na AF są do kitu, a ostrzyłem na czujnik centralny, na bardzo kontrastowy motyw. O ile ja jeszcze mogę pojąć, że z Cosiną czy Sigmą coś jest nie tak, bo obiektyw źle współpracuje z body, to jest akurat odwrotnie: najgorsze ostrzenie wyszło na Canon EF 1,8/50 Mk I (metalowy), a przecież rządzi czujnik w korpusie, a nie obiektyw, potwierdzenie nastawy ostrości jest! Natomiast czujniki pozostałe w świetle żarówek działają znacznie gorzej od przestawialnej czujki w A610 nawet z tak jasną optyką, jak 1,8.
Okazjonalnie nawet ekspozycja szwankowała. Np. zdjęcia naświetlone 8 s przy F=16 i 15 s przy F=22 są co najmniej 1 EV niedoświetlone w stosunku do ekspozycji 4 s na F=11 przy pracy w manualu (EXIF podaje to, co było zamierzone, a zdjęcie wygląda, jak wygląda)!
AF z Sigmą 4-5,6/70-300 nie raczył działać w ogóle.
Jeśli dobrze pamiętam, to skanuje się każdy pixel w rgb, więc nie masz interpolacji, podobnie jak w Sigmie. Czerwone i niebieskie pixele mogą nie być bezproduktywne przy fotografowaniu czarno-białych tablic testowych. W realnym kolorowym świecie są niestety bezproduktywne. Poszukaj starych testów. Matryca 3 Mpix Foveona, czy jakoś tak, w każdym razie ta z Sigmy, daje obraz podobnej jakości jak 6 Mpix w wersji klasycznej. Moim zdaniem to kończy dowód, bo nie chodzi przecież o teorię, tylko o praktykę.
To jest jednak trochę bardziej pogmatwane. Po pierwsze: fakty. Ośmio-megapixelowa matryca, w której tylko połowa pixeli ma decydować o rozdzielczości daje jednak nie 4 MPix, ale 8-megapixelowe pliki. I co to niby jest? Sztuczne pompowanie balona? A po co? Dla marketingu? Nie, dla prawidłowego podania wartości pixela jest potrzebny odczyt w 3 kanałach RGB, i taką funcję spełniają pixele ze sobą sąsiadujące, a te zielone są w KAŻDYM wierszu i w KAŻDEJ kolumnie matrycy, a nie w co drugim! Odczyty są współzależne, tzn. czerwony i niebieski decydują o wartości odczytu w pixelu zielonym, a zielony o odczytach w tych innego koloru, i w ten sposób następuje wzajemna interpolacja odczytów dla każdego pixela matrycy, a nie dla połowy z nich! Nie wnikam w kuchnię, czy dla wyliczenia wartości pixela jest brany pod uwagę odczyt z 3 czy z 9 pixeli, czy z 3 uśredniony z odczytem z 9, czy jeszcze inaczej, w każdym bądź razie to uśrednienie następuje dla każdego pixela matrycy BO ON ISTNIEJE i fizycznie odbiera informację z innego fragmentu obrazu, a nie 3 czy więcej pixeli czytają jeden i ten sam pixel obrazu rzeczywistego! Gdyby aparat wbudowywał nieistniejące pixele, to by była kicha, ale ten numer jest stosowany tylko przy zoomie cyfrowym.
Natomiast co do testów rozdzielczości matryc stosowanych np. na dpreview.com, to wyrażę swoje zdziwienie, bo np. dla stwierdzenia rozdzielczości na wzorcu z 17 linii (9 czarnych i 8 białych rozdzielających) w obszarze, w którym ten wzorek zajmuje nie 17 a np. 27 pixeli, we wstępnie narzuconej ekspozycji, nie bierze się pod uwagę zmiany rozdzielczości przy innej ekspozycji, ani przy innym obiektywie. W teście takim o rozróżnialności linii decyduje kontrast, a ten zmienia się wraz z ekspozycją- biel szarzeje, czerń bleknie i wszystko sie zlewa. Kiedyś badałem rozdzielczość optyki na negatywie: obiektyw "fachowo wyceniony" na 55 l/mm przy badaniu w powiększeniu 12-o ktotnym pod mikroskopem 60x spokojnie dociągał do 100 l/mm, tylko nie dawało się tego zreprodukować na odbitce wykonywanej metodą tradycyjną.
Przyjmując umownie, że przez rozdzielczość rozumiemy zdolność do rozróżniania układu linii grzęźniemy w miejscu, w którym ten układ się ze sobą zlewa w jedna grubą krechę, ale ten fakt nie przesądza o zdolności matrycy do wychwycenia i zreprodukowania obrazu o grubości jednej linii czy nawet jeszcze cieńszego, ani pojedynczego punktu wielkości 1 pix w kontrastującym otoczeniu, a dopiero to jest definitywnie rzeczywistą rozdzielczością OBRAZU i matryce tę robotę wykonują.
Pięciu włosów w pasemku możemy nie rozróżnić jeden od drugiego "po grubości", ale jeśli jeden będzie dłuższy lub krótszy, lub będzie biegł skosem, to matryca ma to wychwycić, i to robi.
Chyba trochę się pogubiłeś. Uśrednianie następuje z powierzchni kilku pixeli. Wartość rgb z powierzchni jednego pixela jest uzyskiwana przez interpolację, czyli z założenia nie jest tak dokładna, jak wartość bez interpolacji. I napiszę jeszcze raz: porównaj testy sigmy i pozostałych puszek. Nie ma co za wiele kombinować jeśli realne wyniki potwierdzają to, co piszę.