Chyba jednak nie.
Co innego jak oprogramowanie przekształca to co zapisane w pliku (RAW) na obraz aby go:
- wydrukować na drukarce xxx ppi o rozmiarze wydruku y cm na z cm
- wyświetlić na monitorze o rozdzielczości np. 1600 x 1200 lub 1200 x 960 lub (internet) 800 x 600
(musisz wtedy zejść z np. 5760 do 1600 lub 1200 lub 800 a to chyba robi różnicę)
a co innego jak my to (ten wydruk, ten monitor) obserwujemy i oceniam czy/co jest czy też nie jest ostre.
To są 2 odrębne procesy i tak należy je chyba traktować.
Który podpunkt podejmiesz się poprowadzić, uzgodnić w nim wspólny zapis konkluzji ?
Jeśli nadal uważasz że c i d należy połączyć to weź na siebie uzgodnienie merytoryczne, musimy dojść do wspólnej konkluzji.
To byłby Twój job
jp
PS
Mnie przeszkadza w połączeniu c i d to że co innego "robi" oprogramowanie przy np. zastąpieniu każdych 17 pikseli tylko 10 aby się wyświetlić na monitorze, ma to inny wypływ na ostrość (rozdzielczość, kontrast) a inny wpływ ma nasze widzenie i nasza ocena co jest a co nie jest ostre.