za pierwszy akcelerator uznaje sie ogolnie Voodoo, a to bylo jeszcze stare PCI i to zdaje sie nawet niewiele pozniej niz PCI zastapilo... VLB.
natomiast de facto Riva nastapila niewiele pozniej i to bylo w okolicach pojawienia sie AGP.
jesli dobrze pamietam uwczesne CPU (pierwsze Pentium, potem kartridzowe P2 i P3) dawaly spokojnie rade z robieniem filtrow w szopce. i zastanawia mnie hipotetyczny scenariusz: wyslac fote do karty graficznej, zrobic na niej transformacje (na pamieci karty - durna Riva miala juz 16MB co na ekranowej wielkosci pliki graficzne spokojnie wystarczalo.
mowie o akceleracji takich chocby funkcji jak odszumianie, wyostrzanie, korekty barw (to akurat mozna na kawalkach obrazu nawet robic, wiec nawet nie musi byc w calosci ladowany do pamieci karty).
naprawde trzeba az PCI-E 145x i DirectX 175, zeby takie obliczenia przeniesc na grafe? chciaz OK, argument o kiepskiej wydajnosci double'i jest tu przekonujacy
moge sie mylic, ale Quadro to zawsze byl zwykly Geforce z odblokowanymi funkcjami w sterownikach. o czym sie tylko glosno nie mowilo...
no to poniekad tez nie jest okolicznosc lagodzaca, bo PCI-E bynajmniej nie pojawilo sie w zeszlym tygodniu
na pewno w 100% zgadzamy sie co do jednego: predzej Amerykanie przestana niesc "bratnia pomoc" krajom w Zatoce Perskiej, a polscy politycy brac lapowek, niz ktos sie w koncu wysili i sensownie odciazy CPU na rzecz GPU
ja po prostu nie kupuje bajki o wielkim problemie z wrzuceniem karcie graficznej 8 RAW-ow na raz i niech sobie je mieli. rownolegle. na jakiego diabla teraz robi to CPU i to w dodatku sekwencyjnie...? zeby Intelowi wiecej baksziszu wpadlo na puszczaniu bajek o bog wie jakim przyroscie mocy z wyrzucenia kilku tysiecy PLN na i7? czy co tam po nim nastapi...
to jest po prostu zbrodnia na ludzkosci, zeby obciazac obliczeniami CPU kiedy obok lezy poteznej mocy, nieuzywany, GPU. to sie zwyczajnie prosi, zeby wreszcie wyjac rece z pupy i to wykorzystac...