Gdyby tak było jak piszesz, obraz wyglądał by coraz gorzej - zamiast jednego pixela miał być pixel wielkości czterech, i był by to już widoczny kwadrat.
Przy zwiększaniu algorytmy interpolujące zrobią na tych czterech pixelach kolor zbliżony do tego powiększanego jak i paru sąsiednich, ale na każdym inny, zależnie od pikseli sąsiadujących, żeby nie było ostrych, kwadratowych krawędzi. Praktycznie cały obraz się zmienia, po zmniejszeniu z powrotem x2 - z pewnością będzie mniej ostry.