Niekoniecznie jest to chęć nakręcania rynku. Po prostu algorytmy są coraz bardziej złożone. Kiedyś cykl wydawniczy nowego oprogramowania był dużo dłuższy i przeprowadzano daleko posuniętą optymalizację. Soft musiał być jak najmniejszy (małe ilości RAMu, małe dyski) i jak najszybszy (wolne proce, wolne pamięci, wolne dyski itp). Teraz rozwój sprzętu zastępuje optymalizacje. I nikomu nie chce się w nią bawić, bo po pierwsze soft jest na tyle skomplikowany, że lepiej iść krótszą drogą, aby kod był bardziej przejrzysty, a po drugie jak będziemy optymalizować i dopieszczać, to konkurencja wypuści nieoptymalizowany soft i zdobędzie rynek.
Reasumując: odrzućmy teorie spiskowe ;-)