Ja kilkanaście lat temu przeszedłem na aparat cyfrowy, teraz mam matrycę złożoną z pikseli.
Jest ich (w pionie) 5760, i obraz (analogowy) z obiektywu padający na matrycę zapisany jest w tych 5760 (punktach) pikselach.
Od tego momentu nie można uzyskać większej szczegółowości o obrazie od tej zapisanej teraz w tych pikselach.
Jeśli zrobiłem 2 zdjęcia portretowe np. wieży kościoła dwoma obiektywami (a i b)takimi że miały na matrycy rozmiary kolejo przy :
a. 1200 pikseli
b. 4320 pikseli
i teraz wyświetlam go na monitorze który składa się z (1600 x) 1200 pikseli to :
1. w przypadku a
Wykadrowywujesz wieżę i każdy 1 piksel monitora zawiera informacje zapisaną w 1 pikselu matrycy. Nie da się dokładniej przenieść informacji z matrycy na monitor
2. w przypadku b
Każdy 1 piksel monitora zawiera "uśrednioną" informację "z 3,6" piksela matrycy. To uśrednianie powoduje gubienie szczegółowości.
Algorytmy uśredniania są lepsze/gorsze, gdyby "wiedziały" co uśredniają .....
Ale i tak patrząc na ekran widzisz wieżę kościoła która ma tylko 1200 pikseli wysokości.
jp