Ba, a maszyna Turinga potrafi policzyć to samo co dowolny procesorNawet dowód kiedyś umiałem (kazali) :-D
No można i jest to dość proste: procesor z peceta byłby (przy tych samych algorytmach i zakładając coś trochę mniej archaicznego od Pentium Pro) szybszy (od "trochę" do "sporo"), piekielnie się grzał i żarł baterie jak smok. Tylko co daje takie porównanie z praktycznego punktu widzeniaZamieszczone przez Jester
Poczekaj... nikt nie pisze że skalowanie w aparacie jest lepsze, bo nie jest! Ja tylko podałem konkretny kawałek całego procesu, w którym potencjalnie może być zysk ze skalowania w aparacie.Zamieszczone przez Jester
A tak w ogóle, to w tym wszystkim chyba zgubiło się oryginalne pytanieTak, na moje oko (G5,10D,20D,1DN), skalowanie "w aparacie" to nie jest proste wycinanie co N-tego piksela, ale takie trochę lepsze, uwzględniające całą informację. I "per pixel JPEGa" dostaje się rzeczywiście mniejsze szumy. Czy jest to równoznaczne z "lepszą jakością zdjęcia"... a to już zależy co kto przez nią rozumie
bo praktycznie to samo można uzyskać w programowej obróbce. I nie chodzi tak naprawdę o to, że można zrobić to lepiej ale o to, że można ten proces kontrolować. Kto walczył ze schodami na ukośnych krawędziach ten wie o czym mówię....
Kurcze... No tak jak napisałem, DIGIC (i każdy inny procesor w wypasionej cyfrówce), to jest specyficzny przypadek, zaprojektowany od tranzystorków po obudowę z myślą o jednym: przetwarzanie fotek, do tego w jeden, konkretny sposób, przy jak najmniejszym poborze energii - i zoptymalizowany do bólu wyłącznie pod tym kątem.
Naprawdę nie trafia do Ciebie analogia traktor vs Porsche? ;-)