fret, napisałeś pierwszego posta bez insynuacji o braku wiedzy, mózgu, nadrabianiu ilością postów itd. Rozwijasz się i mnie to cieszy.

teza, którą głosisz wraz z innymi brzmi tak: crop zmienia ogniskową i zmienia GO. Żeby to rzetelnie porównać trzeba mieć stały układ pomiarowy, czyli jeden obiektyw. Podpinając go pod różne matryce można ocenić czy coś się zmienia czy nie. I widać, ze nic się nie zmienia.

Piszesz o fotonach i innych podobnych pierdołach, ale na moją krytykę "portretu" wycinanego z rybiego oka raczyłeś zauważyć, że to ekstremalny przykład i trzeba go odrzucić. Proszę bardzo: zastosuj 24mm i wytnij. Jeśli wiesz coś o obrazowaniu i robisz portrety będziesz dalej widział ogromną różnicę w geometrii obrazu. To są podstawy i nie mieszaj do tego fotonów.



Całe zamieszanie wynika z tego, że dzisiaj dla ogromnej rzeszy fotografujących cyfrą monitor to cały obszar prezentacji zdjęcia. Ludzie nie rozumieją, jak np. driver, że obraz na monitorze to powiększenie, nawet oglądanie w 100% jest powiększeniem, bo piksel na matrycy ma 5,5x5,5 mikrometra, a piksel mojego monitora ma mniej więcej 0,26 milimetra. Gdyby monitor miał rozdzielczość tylu pikseli co matryca, to dysputy by nie było. Obraz z matrycy FF o pikselach wielkości np. 5,5x5,5 mikrometra zajmował by cały ekran (oczywiście to dalej by było powiększenie) a obraz z cropa o tej samej wielkości piksela byłby o 60% mniejszy.


Gdyby zrobić matrycę FF o 10MPx to matryca APS-C mająca tej samej wielkośći piksele będzie po prostu miała tych Mpx mniej o czynnik 60% w polu powierzchni. Chcąc wpakować tyle samo pikseli w FF i APS-C musimy zwiększyć gęstość pikseli (zmniejszyć fizyczny rozmiar piksela matrycy) w APS-C o tenże czynnik 60%, co powoduje, że na ekranie monitora będą one bardziej rozciągane - i porównanie na monitorze będzie fałszywe - stąd wynika właśnie problem drivera i innych.


To jest banalnie proste, tylko trzeba to zauważyć.