Chyba nie do konca...
Cytat Zamieszczone przez Tomasz Golinski
Jesli dobrze zrozumiałem problem, to sytuacja wygląda tak:

dyfrakcja powoduje powstawanie prążków mocniej widocznych im otwór przesłony większy.
Na odwrot: dyfrakcja rosnie wraz ze wzrostem wartosci przyslony (f5.6->f32), a wiec ze spadkiem srednicy otworu. Zasada jest prosta: im mniejsza dziura, tym wieksze ugiecie promieni (az do zwiekszenia wplywu efektow kwantowych, ale to inna bajka...)
Cytat Zamieszczone przez Tomasz Golinski
Prążki są położone w stałych odległościach zależnych m.in. od długości fali światła. Przy jaśniejszych prążkach jednak jest ich więcej widocznych. Przypuszczam, że stwierdzenie, że f14 jest ok dla 300d oznacza, że wszystkie istotnie widoczne prążki przypadają na jeden pixel.
Powiedzmy inaczej: jezeli zalozymy ze efekt ten ma w przyblizeniu rozklad Gussa (lub podobny) to znaczaca czesc energii (maksimum wraz z prazkami - ekstremami lokalnymi rozkladu) przypadnie na jeden piksel.
Cytat Zamieszczone przez Tomasz Golinski
Gdy maleje rozmiar pixela okazuje się, że prążków widocznych musi być mniej, więc i f większe. Jest to bariera nie do przeskoczenia, zbyt drobnych szczegółów nie da się wtedy przedstawić.
Gdy rozmiar piksela maleje, ktores prazki rozkladu moga sie znalezc w obszarze sasiedniego piksela. Ale sensor nie jest urzadzeniem cyfrowym (0-1), lecz analogowym. Swiatlo prazka istotnie moze zaklocic informacje odbierane przez ten sasiedni piksel (zsumuje sie najprawdopodobniej z orginalna informacja) - jednak nie bedzie to suma dwoch wartosci maksymalnych ale suma maksimum pozadanej informacji i interferencji z sasiednich pikseli (o znacznie mniejszych ekstremach)... Tak wiec zadnej powaznej bariery tu nie widze...
Cytat Zamieszczone przez Tomasz Golinski
Jedyny sposób to zwiększenie matrycy.

Podsumowując, dyfrakcja nie zależy od sensora (chyba, że pojawia się dodatkowy efekt związany z jego budową, w co wątpię).
Dokladniej: zrodlo efektu dyfrakcji lezy w obiektywie (przyslona), natomiast zwiekszenie rozdzielczosci sensora jedynie go na nia uwrazliwia
Cytat Zamieszczone przez Tomasz Golinski
Można myśleć np. o wielkości plamki, która odpowiada punktowi. Jeśli plamka wykracza poza pixel, to mamy strate jakości. W tym sensie zwiększenie gęstości upakowania pixeli zmniejsza i głębie ostrości.
GO? Mi sie wydawalo, ze to raczej efekt aberracji sferycznej... Efekt i owszem, pogorszy jakosc fotki - ale tylko rozpatrywanej 1:1 w rozdzielczosci monitora. W przelozeniu na odbitke tego samego formatu zyskamy na ogolnym wzroscie rozdzielczosci.
Cytat Zamieszczone przez Tomasz Golinski
To, co napisał Meteor, że na filmie robienie zdjęć f1.8 jest niemożliwe, jest prawdą, przy tych założeniach.Wątpie czy każdy z 200Mpx niesie osobną i ostrą informację.
Chodzilo mi o to, ze jezeli rzucimy obraz 2Mpix na monitor (1600x1200 - rozdzielczosc monitora 19" = ok. 350mm x 270mm), a nastepnie ekstrapolujemy to do rozdzielczosci filmu (200Mpix) co da nam wymiary 3,5m x 2,7m
Konia z rzedem dla tego, kto nie zauwazy wtedy dyfrakcji na pojedynczych (sasiednich) pikselach.
Rzecz w tym, ze Xaphid kloci sie (z reszta niezbyt kulturalnie) o pryncypia dzialania fotografii bez zastanowienia sie nad tym do czego sie to uzywa. Ja ciagle twierdze, ze wraz ze wzrostem rozdzielczosci sensora (jezeli tylko wyeliminujemy wzrost szumow, co zdaje sie Canon uzyskal), uzyskamy wzrost jakosci obrazu widocznego na obitce.
Nie zapomniajmy, ze pierwsze fotografie uzyskiwano bez uzycia soczewki, bazujac jedynie na efekcie dyfrakcji...