Wytłumaczył bym to bardziej obrazowo.
Jeżeli na matrycy FF są obok siebie w linii dwa piksele, to mogą one przyjąć tylko dwa stopnie szarości lub kolory, w związku z czym kontrast między nimi jest wyraźny i wpływa na ostrość, oraz wyrazistość obrazu.
Jeżeli zaś na matrycy APS-C, lub na gęściej upakowanej matrycy FF, na tym samym odcinku są 3 lub 4 piksele, to pomiędzy skrajnymi pikselami może pojawić się przejście tonalne zmniejszające kontrast, a tym samym ostrość, lub uśrednianie wartości piksela będzie wyglądało tak, że tam, gdzie poprzednio byłby 1 piksel czarny, i 1 biały, to tu będziemy mieli dwa czarne i jeden biały, lub odwrotnie. Powoduje to lokalny spadek kontrastu, który wymaga większego wyostrzania, a podczas niego giną oryginalne piksele, a pojawiają się niepożądane artefakty, więc obraz nie jest tak klarowny, jak przy większych pikselach.
To samo zjawisko występuje przy nieostrości ruchowej, albowiem algorytmy uśredniają wartości pikseli. Przesunięcie większego piksela o mniej, niż o jego połowę, zostaje zinterpretowane tak, jakby go nie było wcale, podczas gdy takie samo przesunięcie mniejszego piksela jest już większe, niż jego połowa, więc algorytmy uśredniają je do wartości całego piksela, a rozmycie staje się widoczne.