AMD Phenom II X4 955 3,2GHz
4GB RAM (2x 2GB 1600)
ASUS GTS250 512 MB
Win 7 64bit
PS CS 4 64 bit
6,0 sek
Wersja do druku
AMD Phenom II X4 955 3,2GHz
4GB RAM (2x 2GB 1600)
ASUS GTS250 512 MB
Win 7 64bit
PS CS 4 64 bit
6,0 sek
Mała poprawka, bo zaszły pewne zmiany u mnie w kompie.
Win 7 64bit
C2D 7500 @ 3,7GHz
6GB Patriot LLK DDR2 950MHz 4-4-4-12
Asus P5Q Pro
4 x Seagate 500GB
PS CS4
5s
Może już czas zmienić test, bo czasy zaczynają różnić się o mniej niż sekundę co jest bliskie błędu pomiarowego wykonywanego stoperem.
Tutaj jest ciekawy test. Lecz mało popularny ponieważ każdy ma ochotę podawać ułamki sekund a nie sprawdzić realnie komputer.
Może ktoś z nowym komputerem i dobrym wynikiem odważyłby się wykonać ten test i podać wynik :)
to moje stare wyniki
P5K WI AP; E6750@ 2.66; 4GB 800 (bez pliku wymiany); Radeon X700 PRO 3xHDD XP pro CS3 - 12s Tanto 300dpi: 20s Tanto 600dpi:2m 20s
Najbardziej życiowy test jaki może być to przygotować powiedzmy 100 RAW, w których każdy jest intensywnie obrabiany (wykorzystywana jest duża liczba różnych funkcji najnowszego ACR lub Lightroom, korekcja lokalna, wyostrzanie). Powiedzmy 100 RAW z matrycy 5D mkII.
Następnie przeprowadzamy dwa podtesty, obróbka wsadowa wszystkich 100 RAW oraz obróbka wsadowa 2x50 RAW uruchomionych jednocześnie. Mierzony czas daje realne, życiowe wyniki, które powinny zainteresować wszystkich fotografów.
Nie chodzi przecież o teoretyczne obciążenie systemu wszystkimi możliwymi filtrami, tylko o przykład z życia. Nie teoria, tylko praktyka.
Taki test obciąża wszystko, nie tylko procesor, ale i RAM i dyski twarde.
Oczywistym minusem takiego testu jest wielkość pliku przygotowanego do testów. Nie wiem ile dokładnie zajmuje RAW z 5D mkII, ale razy 100 sztuk daje to jakieś 3 do 5 GB.
Nie każdy może sobie pozwolić na ściągnięcie takiego zestawu tylko do jednorazowego testu.
Jednak tylko taki test oddaje stan faktyczny, inne są tylko przybliżeniem.
Gdyby jakiś posiadacz aparatu z dużą matrycą chciał przygotować taki test, chętnie ściągnę taką paczkę i wezmę udział w porównaniu.
Podobny, oddzielny test można by przygotować na test PS na obróbkę kilku TIFFów z wykorzystaniem wielu warstw etc.
PS.
Na zmniejszenie wielkości paczki testowej przyszedł mi taki pomysł. Wystarczy jak tych RAW-ów było by 10 różnych, a następnie można by je skopiować 10 razy nadając im inne nazwy. np. raw1...raw10; rawA1...rawA10; rawB1...rawB10;...
Wtedy kopie tych samych rawów byłyby traktowane jak inne pliki i próbka testowa w łatwy sposób znacznie zwiększyła by swoją objętość.
Tak naprawdę to wystarczyłby jeden plik skopiowany n-razy.
To zależy na jaką dokładność testu się decydujemy. Przeważanie n razy tego samego pliku to nie do końca to samo co przetwarzanie różnych plików z różnymi operacjami na każdym z nich. Różnice powinny być marginalne, ale bez eksperymentu 100*ten sam RAW i 100 różnych RAWów nie da się stwierdzić czy i na ile jest to to samo. Zależy od sftweru i tego jak został napisany.
Tak samo 10x10 RAW to nie 100 RAW. Po prostu pytanie na jaki kompromis się decydujemy i jakie faktycznie zmiany to niesie. Trzeba by wykonać próbę.
Po prawdzie, jeśli zwielokrotnianie tych samych RAW-ów nie różniło by się specjalnie od tej samej ilości różnych RAWów, warto byłoby zwiększyć próbkę do większej objętości, powiedzmy 10 - 15 GB. Wim większa próbka tym bardziej miarodajne wyniki, większe różnice czasowe i skuteczniejsze przetestowanie transferu HDD-->RAM-->procesor
Niewątpliwą rewolucją byłoby zaprzęgniecie GPU do takich obliczeń. I mam tu na myśli obciążenie GPU na 100% przy niemal każdej operacji, a nie tak jak ma to miejsce obecnie.
W takim wypadku prawdopodobnie komputer za kilka tysięcy złotych wykorzystujący CPU i GPU dorównywałby lub przeganiał takiego za kilkadziesiąt tysięcy wykorzystującego jedynie CPU. Nie mówiąc o mocy zestawów 2 x procek 6 rdzeniowy z HT + 4 x najnowszy i najmocniejszy GPU.
Dla mnie ten test nadal jest ciekawy bo daje pojęcie o tym jak rośnie moc domowych komputerów.
swnw
Nie domowych komputerów, a tylko i wyłącznie procesorów domowych komputerów.