To nie jest do końca tak, jak napisałeś. Panowie od profesjonalnych testów, np. na dpreview.com wyrażają się niezbyt precyzyjnie, a już na pewno nie łopatologicznie. Interpretacja sygnału wejściowego zależy mocno od oprogramowania i rozdzielczość obrazu nie jest wyłącznie liczbą zielonych pixeli matrycy podzieloną przez 2. Np. Canon EOS 40D (10 MPix) osiąga rozdzielczość na tablicy testowej rzędu 2100 LPH na 1800 LPH, co daje 3,78 MPix, "w porywach" do 2300 LPH na 2300 LPH, czyli 5,29 MPix, kiedy jakiejkolwiek rozróżnialności linii już nie ma, a więc odchyłki w obie strony od "modelowej" rozdzielczości. Gdyby matryca "czytała" równomiernie w obu kierunkach, to przy proporcji boków 2:3 powinna mieć przy 1800 LPH pionowo 2700 LPH poziomo, czyli 4,86 MPix z marszu, ale już nawet 3,78 MPix to jest prawie 30% więcej informacji w pliku w stosunku do skanu 1400x2100, czyli 2,94 MPix.
Założenie, że "marketingowa" rozdzielczość jest dwukrotnie przesadzona prowadziłoby do wniosku, że można bezstratnie zmniejszyć wielkość pliku o połowę i ponownie go dwukrotnie powiększyć otrzymując w efekcie to samo, ale tak nie będzie. 50% pixeli tworzy przestrzeń na wizualizację wyników interpolacji spomiędzy tych decydujących o rozdzielczości zielonych pixeli, czyli przesądza o tym, czy te wyniki należy ze sobą łączyć, czy je separować, i dzięki temu niebo na zdjęciu nie jest ani w paski, ani w kropki, a np. włosy są rozróżnialne. Skaner skanujący negatyw nawet w trybie Pixel per Pixel potrafi uczynić jakąś "pixelozę" na- wydawało by się- jednolitym kolorystycznie i tonalnie obszarze obrazu, bo wykrywa ziarno emulsji i je sobie też po swojemu interpretuje i uśrednia, a wynik skanowania przez to też wymaga obróbki (usunięcia szumu i wyostrzenia) tak samo, jak fotografia wykonana aparatem cyfrowym, więc straty rozdzielczości występują w obu metodach otrzymywania obrazu cyfrowego.
Trochę przesadzasz z głebią swoich rozważań teoretycznych. Jasne, że zależy to od oprogramowania, ale zwykle użyteczna rozdzielczość jest na tyle blisko 50%, że praktycznie nie do odróżnienia (popatrz na testy puszek Sigmy i porównaj z pozostałymi). Fuji wymyśliło jeszcze lepszy patent obracając matrycę o 45 stopni i ci z tego wynikło? Nic, chociaż rozdzielczość pionowych i poziomych linii teoretycznie wzrosła 1,4 raza, to w praktyce różnicy w zdjęciach nie było, pewnie dlatego, że rozdzielczość lini przebiegających pod kątem 45 stopni zmalała 1,4 raza w stosunku do normalnego układu matrycy![]()
Generalnie masz rację, że faktyczna rozdzielczość matrycy oscyluje wokół 50% deklarowanej, ale nie wyłącznie o to mi chodziło, ale o to, że praktycznie zrównałeś pojemność informacyjną 8 MPix z Canona 20D ze skanem 3 MPix. Jak sam pisałem wcześniej, wielkiej- a nawet żadnej- różnicy na wydruku w formacie 20x30 cm nie będzie, jednakże te 3 MPix ze skanu to też jest jakaś zawyżona przez interpolację wartość.
Poza tym ja się raczej rozpisuję o rozdzielczości obiektywów, a nie matryc.
Gdyby założyć, że faktycznie wykorzystujemy tylko 4 z 8-u megapixeli matrycy, to jej liniowa rozdzielczość spadłaby z 67 linii/mm do 47 linii/mm, a to jest różnica pomiędzy obiektywem bardzo dobrym a dość kiepskim, i jest to graniczna (wymagalna ok. 50 linii/mm) rozdzielczość optyki dla otrzymania ostrego wydruku w formacie 20x30 przy pełnej klatce 24x36mm z negatywu, a my chcemy mieć ostre zdjęcie z "ogryzka" APS-C! Tak więc te czerwone i niebieskie pixele nie są całkowicie bezproduktywne w odniesieniu do rozdzielczości zarówno matrycy, jak i użytej optyki, bowiem to one właśnie zczytują te fragmenty obrazu, których zielone nie widzą!
OK, matyce w lustrzankach APS-C w ogóle nie nadają się do testowania bezwzględnej rozdzielczości optyki, ale nie da się pominąć faktu, że im lepsza jest ta optyka, tym mniej problemów interpretacyjnych ma komputer w body, i tym lepszy otrzymujemy obraz:smile: