Zobacz pełną wersję : karta graficzna do Ligthrooma ... warto wogóle w coś inwestowac ?
Ostatnio kupiliśmy drugi komputer do domu.
Ponieważ zależało mi na miejscu i nie jestem graczem, kupiłem okazyjnie HP 8000 Elite w Obudowie Small Form Factor.
Jest tam zintegrowana karta graficzna Intel Q45
Zastanawiam się nad wstawieniem tam karty zewnętrznej ale do tego typu obudowy wejdzie tylko karta niskoprofilowa. Dodatkowo złącze w płycie głównej ma ograniczenie do 25W, więc w grę wchodzą więc tylko low-end oparte na tanim Radeonie 4350 (za około 160zł).
Czy warto w nie w ogóle inwestować ?
Zauwazylicie zmianę jakości obrazu po prejściu z DSUB na DVI ?
Czy może pozostać przy zintegrowanej karcie ? Lightroom i może kiedyś pełen PS wykorzystują w ogóle możliwości współczesnych kart graficznych ? Czy też liczy się tylko CPU, dużo ram + szybki dysk ? a te 160zł lepiej w RAM zainwestować :)
Komputer to E8600(c2d 3,33 Ghz)+4 GB RAM.
Na fotografii znam się słabo, a na sprzęcie komputerowym to już wogóle :)
dziobolek
15-03-2011, 12:00
Oj, jest tego troszkę na Alledrogo - http://allegro.pl/listing.php/search?string=niskoprofilowa&category=4313&description=1
Nie tylko ATI (za którą ja osobiście nie przepadam, i nikomu nie doradzę), ale jest również Nvidia.
Ta wygląda dość ciekawie - http://allegro.pl/lowprofile-zotac-gt430-1gb-ddr3-blu-ray-3d-ready-i1493673281.html
ma 1GB RAM oraz CUDA,D-SUB, DVI, HDMI...
Pozdrówka!
Zauwazylicie zmianę jakości obrazu po prejściu z DSUB na DVI ?
W moim przypadku (Eizo S2231W) różnica pomiędzy obrazem przez DSUB i DVI jest GIGANTYCZNA.
karta graficzna nie ma wpływu na obróbkę. Jest CUDA która to zmienia ale na razie nie jest wspierana przez LR czy PSa... Może w przyszłości... Ja planuję niedługo nowego kompa i wolę zamiast i5 + zew. grafikę klasy średniej zainwestować w i7 z wbudowaną grafą - cena podobna ale procek o półkę wyżej ;)
dziobolek
15-03-2011, 12:25
karta graficzna nie ma wpływu na obróbkę. Jest CUDA która to zmienia ale na razie nie jest wspierana przez LR czy PSa...
Hmmm... :roll:
"Adobe® Photoshop® CS4 wykorzystuje procesor graficzny NVIDIA Quadro lub GeForce do tworzenia interaktywnego, cyfrowego płótna. Procesory graficzne umożliwiają obrót, skalowanie i przesuwanie obrazu w czasie rzeczywistym, zaś zmiany następują natychmiast i są absolutnie płynne. Adobe Photoshop CS4 używa także GPU do obróbki 2D i 3D oraz antyaliasingu wysokiej jakości. Także zmiana rozmiaru pędzli i podgląd ich wyglądu, ruch 3D, mapowanie tonalne o szerokiej rozpiętości tonalnej i konwersja kolorów przyspieszane są przez GPU.
Adobe After Effects® CS4 zawiera różne efekty wizualne akcelerowane przez procesory graficzne NVIDIA Quadro, ułatwiające dodawanie grafiki i efektów do filmów wideo, przyspieszające proces twórczy i szybkie przejście od pomysłu do finalnego produktu. Do efektów akcelerowanych przez układy NVIDIA należą m.in. głębia ostrości, dwustronne efekty rozmyć, szum turbulentny taki jak w płynącej wodzie lub powiewającej fladze oraz efekty komiksowe.
Adobe Premiere Pro® CS4 może wykorzystać procesory graficzne NVIDIA Quadro do przyspieszania efektów filmowych o wysokiej jakości takich jak odkształcenia ruchu, koloru i obrazu. Rozwiązania graficzne wykorzystujące układy Quadro pozwalają na szybszą edycję wielu strumieni wideo i nakładek graficznych o wysokiej jakości oraz zapewniają wiele możliwości podglądu, między innymi za pośrednictwem wyjścia display port, komponentowego lub nieskompresowanego SDI 10 lub 12 bit."
Pozdrówka!
A Źródło?? Na wszelkich forach narzekają na brak pełnego wsparcia Adobe dla CUDA(w CS4 i CS5 zarówno PS i Premiere). Są zewnętrzne pluginy które korzystają z CUDA i działają rewelacyjnie. Może wyrażenie "pełne wsparcie" jest tutaj kluczowe?
Poza tym pytanie główne było o LR. A tam na pewno nie ma wsparcia...
piotrek72t
15-03-2011, 15:08
A Źródło?? Na wszelkich forach narzekają na brak pełnego wsparcia Adobe dla CUDA(w CS4 i CS5 zarówno PS i Premiere). Są zewnętrzne pluginy które korzystają z CUDA i działają rewelacyjnie. Może wyrażenie "pełne wsparcie" jest tutaj kluczowe?
Poza tym pytanie główne było o LR. A tam na pewno nie ma wsparcia...
http://www.adobe.com/pl/support/photoshop/ts/kb404898.html
!!! Łączenie podwójnego wpisu !!!
i jeszcze fragment z forum adobe :
http://forums.adobe.com/thread/346509
ja bym się raczej zastanowił, czy to powiększanie i antyaliasing są rzeczywiście takie kluczowe dla obróbki zdjęć - na szybkość ładowania się i zapisywania chyba nie wpływają
Zastanawiam się nad wstawieniem tam karty zewnętrznej ale do tego typu obudowy wejdzie tylko karta niskoprofilowa. Dodatkowo złącze w płycie głównej ma ograniczenie do 25W, więc w grę wchodzą więc tylko low-end oparte na tanim Radeonie 4350 (za około 160zł).
nie tylko - polecam coś z seri nvidia quadro fx - 380LP -> link (http://www.nvidia.pl/object/product_quadro_fx_380lp_pl.html)
Czy warto w nie w ogóle inwestować ?
Zauwazylicie zmianę jakości obrazu po prejściu z DSUB na DVI ?
zamienic wbudowanego intela ? - naprawdę warto ! inna liga (CUDA, DisplayPort, 30-bitowa precyzja odwzorowania kolorów (10 bitów na kolor) ... )
dreamstorm
16-03-2011, 11:02
Moim zdaniem nie warto inwestować w kartę graficzną do Lightrooma, bo wąskim gardłem jest tutaj twardy dysk, szybki procesor i minimum 4GB RAM. Zależy też na jaką skalę korzysta się z Lightrooma, ale importując 1500 zdjęć i masowa ich obróbka daje kompowi w kość.
Mam zamiar w przyszłym miesiącu zakupić dysk SSD na system. Przydałby się jeszcze drugi SSD dla lepszego komfortu pracy, ale ciągle jednak są te dyski dość drogie.
!!! Łączenie podwójnego wpisu !!!
...zapomniałem dodać, że nie warto inwestować pod warunkiem, że ma się kartę graficzną z niższej półki na DVI.
dziobolek
16-03-2011, 11:22
...wąskim gardłem jest tutaj twardy dysk, szybki procesor i minimum 4GB RAM. Zależy też na jaką skalę korzysta się z Lightrooma, ale importując 1500 zdjęć i masowa ich obróbka daje kompowi w kość...
Procesor (4 rdzenie), min. 4GB RAM, system 64-bit, soft do obróbki 64-bit,
a na samym końcu tej kolejki można dysk wymienić jako dodatek.
Z dyskiem SSD odczujesz poprawę w uruchamianiu systemu i aplikacji,
oraz podczas otwierania/zapisu pliku. Podczas samej obróbki IMHO niespecjalnie.
Ale grafika, to wbrew pozorom również ważna część kompa, szczególnie dedykowane dla grafiki Quadro.
No a karty Nvidii z CUDA, to nie tylko wyświetlanie obrazu - http://www.nvidia.pl/object/what_is_cuda_new_pl.html
Pozdrówka!
dreamstorm
16-03-2011, 12:38
No i właśnie wszystko zależy od tego jak kto obrabia zdjęcia w lightroomie. W moim komputerze dysk to pierwsza rzecz do zmiany. Komputer jeszcze zipie, choć w grudniu będzie miał 5 lat (dorzuciłem tylko trochę RAMu i zmieniłem grafikę w międzyczasie): C2D 1.8@2.8 , 4GB RAM, dyski zwykłe na 7200RPM
Karte graficzna dokupilem do lightrooma jedynie zeby miec wieksza rozdzielczosc na monitorze i nie byl to zaden wynalazek od taka co obsluguje 1440x900
Roznice odczulem od momentu zaistalowania wiecej niz 2 GB RAM (aktualnie 6 GB) a jeszcze bardziej w momencie przejscia na win 7 64 bit
jednak w momencie zainstalowania dysku SSD (Seagate Momentus XT 500GB SSD) to naprawde lata
wydaje mi sie ze taka kolejnosc jest jaknabardziej adekwatna
jak by nie patrzec zewnetrzna grafika odciaza procesor
wewnetrzna badz zintegrowana chyba
dreamstorm
17-03-2011, 10:32
Karte graficzna dokupilem do lightrooma jedynie zeby miec wieksza rozdzielczosc na monitorze i nie byl to zaden wynalazek od taka co obsluguje 1440x900
Roznice odczulem od momentu zaistalowania wiecej niz 2 GB RAM (aktualnie 6 GB) a jeszcze bardziej w momencie przejscia na win 7 64 bit
jednak w momencie zainstalowania dysku SSD (Seagate Momentus XT 500GB SSD) to naprawde lata
wydaje mi sie ze taka kolejnosc jest jaknabardziej adekwatna
Hmm, wolę nie pytać co miałeś, że nie obsługiwało 1440x900. Z tą rozdzielczością radziła sobie nawet Riva TnT M64.
Niezły dysk masz ;)
Ja myślę o SSDku na PCI-Express ale muszę poczytać czy nie będzie problemów z postawieniem na tym systemu.
Riva TnT M64.
A wiesz ze taka karte jeszcze gdzies mam
No nie u siebie a bo teraz ciezgo o plyte z AGP ale mam
Na temat
To moim zdaniem nie ma potrzeby inwestowac extra pieniedzy w karte graficzna. nawet riva pociagnie. warto za te pieniadze dokupic 2 GB ram
Chyba wszytsko bylo tu juz napisane wiec ja osobiscie mysle ze tamat jest do zamkniecia
janeczeknt
17-03-2011, 15:11
Dla osób które zamierzają dokupywać karty do desktopów.
W wielu z tych komputerów np HP SFF jest słaby zasilacz. Do tych komputerów bardzo trudno dostać zasilacz i często ceny są kosmiczne!
Zauwazylicie zmianę jakości obrazu po prejściu z DSUB na DVI ?
Zmiana jakości obrazu jest olbrzymia!
No a karty Nvidii z CUDA, to nie tylko wyświetlanie obrazu - http://www.nvidia.pl/object/what_is_cuda_new_pl.html
Pozdrówka!
CUDA CUDA CUDA... cuda :P Marketingowy bełkot to chyba każdy wie co to jest... Pytanie czy w praktyce ktoś to testował? Ta sama architektura, te same ustawienia jedyna różnica jest grafa z CUDA i bez tego gadżetu. Jaka jest realna różnica w czasie wykonywania danych operacji?
savage67
17-03-2011, 16:24
Jaka jest realna różnica w czasie wykonywania danych operacji?
Zapewne taka, że do końca swoich dni zdążymy walnąć jednego kielicha więcej. O piwie zapomnij.
ferdekkiepski
17-03-2011, 22:50
A co z kartami graficznymi ATI? Czy jakieś oprogramowanie dla fotografa wykorzystuje Stream(odpowiednik CUDA)?
Dla osób które zamierzają dokupywać karty do desktopów.
W wielu z tych komputerów np HP SFF jest słaby zasilacz. Do tych komputerów bardzo trudno dostać zasilacz i często ceny są kosmiczne!
Wiem.
Dlatego ja napisałem na początku, że ograniczeniem jest 25W na karcie PCIe
ALe inna sprawa: zasilacz ma chyba 275W, Procesor ma 65W (core2Quad ma 95) dysk to około 30W... Moim zdaniem - nie demonizujmy, ze zasilacz musi mieć 500W (chyba, ze ktoś ma 3 dyski3,5" , Podkręconego Athlona ,DVD-RW, BR) no i pytanie - ile Watt potrzebuje grafika a z tego co widziałem to potrafi zeżreć dużo :rolleyes:
W małych obudowach SFF fajne jest to, że są małe :) i ciche !
dreamstorm
18-03-2011, 12:26
Dokładny pobór mocy i testy grafik można znaleźć na benchmark.pl na przykład.
Też uważam, że z 500W nie ma co szaleć, ale różnica między kilkurdzeniowym prockiem podkręconym + dobrą grafą a kompem do biura jest kolosalna.
Generalnie nie wazne ile W ma zasilacz, ważne żeby był firmowy (nie mylić z Codegen :D)
Zmiana jakości obrazu jest olbrzymia!
(...)
CUDA CUDA CUDA... cuda :P Marketingowy bełkot to chyba każdy wie co to jest... Pytanie czy w praktyce ktoś to testował? Ta sama architektura, te same ustawienia jedyna różnica jest grafa z CUDA i bez tego gadżetu. Jaka jest realna różnica w czasie wykonywania danych operacji?
Nie wiem jak czytacie te specyfikacje, gdzie te CUDA widzicie w opisach Photoshopa? Przecież Adobe pisze wyraźnie, że karta korzysta tylko z OpenGL. Zrobili tak zapewne, by można było korzystać również z kart ATI/AMD. Żadna wersja Photoshopa czy Lightrooma nie korzysta w najmniejszym stopniu z technologii NVIDIA CUDA. I jak na razie to Adobe nawet nie wspomina, że zamierza ją wykorzystać w przyszłości. Z resztą, koncentrowanie się na CUDA przez Adobe było by w tej chwili co najmniej niemądre. Po co uzależniać się od technologii jednej firmy, skoro dostępny jest standard (OpenGL) obsługiwany przez praktycznie każdą współczesną kartę graficzną, niezależnie od producenta. Nawet Intelowskie grafiki wbudowane spełniają wymagania Adobe.
ferdekkiepski
19-03-2011, 07:40
Znalazłem plugin do photoshopa na stronie nvidii
http://developer.nvidia.com/object/photoshop_dds_plugins.html
!!! Łączenie podwójnego wpisu !!!
Wiecej o photoshop na stronie nvidii
http://www.nvidia.com/object/adobe_photoshop.html
!!! Łączenie podwójnego wpisu !!!
A tu coś o ATI / AMD
http://sites.amd.com/us/business/partners/adobe/Pages/adobe-pro-gfx.aspx
dr_bonzo
19-03-2011, 08:44
Z resztą, koncentrowanie się na CUDA przez Adobe było by w tej chwili co najmniej niemądre. Po co uzależniać się od technologii jednej firmy, skoro dostępny jest standard (OpenGL) obsługiwany przez praktycznie każdą współczesną kartę graficzną, niezależnie od producenta.
Zazwyczaj, od strony programistycznej, da sie zaprojektowac aplikacje tak aby sterownik przetwarzajacy (tutaj: obrazy/grafike) byl wymienialny - czyli taki PS uzywa CUDY jak moze, a jak nie moze to OpenGL. Dla nich to jakies 2x wiecej pracy, ale nie jest to niemozliwe.
IMHO nie warto, jeśli tylko argumentujesz potrzebą do Lightrooma. Każdy GeForce z chipem nVidii daje radę :)
Zazwyczaj, od strony programistycznej, da sie zaprojektowac aplikacje tak aby sterownik przetwarzajacy (tutaj: obrazy/grafike) byl wymienialny - czyli taki PS uzywa CUDY jak moze, a jak nie moze to OpenGL. Dla nich to jakies 2x wiecej pracy, ale nie jest to niemozliwe.
Oczywiście, że się da i Adobe, gdyby tylko chcieli, mógł by takie rozwiązanie zaimplementować. Ale na razie im się jednak nie chciało i Photoshop nie korzysta z CUDA. Wybierając kartę pod Photoshopa można sobie spokojnie te wszystkie CUDA olać, bo i tak to nie ma żadnego wpływu na działanie Photoshop'a/Lightroom'a. I nie zanosi się, by się to w przewidywalnym czasie zmieniło.
Dla wszystkich, ktorzy potrzebuja zewnetrznego GPU polecam to:
http://www.villageinstruments.com/tiki-index.php?page=ViDock
fantastyczna sprawa dla laptopow z zintegrowana padaczka
dziobolek
20-03-2011, 02:26
Nie wiem jak czytacie te specyfikacje, gdzie te CUDA widzicie w opisach Photoshopa?... ...I jak na razie to Adobe nawet nie wspomina, że zamierza ją wykorzystać w przyszłości. Z resztą, koncentrowanie się na CUDA przez Adobe było by w tej chwili co najmniej niemądre...
No faktycznie... to niezbyt mądrze już od dawna korzystają w Adobe Premiere...
A dzisiaj coraz większe zainteresowanie sprzętem z funkcją filmowania, więc...
http://www.nvidia.pl/object/builtforadobepros_pl.html
http://www.adobe.com/products/premiere/search_result.html?manuSearchVar=1&modelSearchVar=0&supportSearchVar=0&brand=NVIDIA&dataFormat=&version=CS5&device=graphic&format=
Pozdrówka!
ŻADNA karta graficzna (jej procesor) nie bierze istotnego udziału w WYŚWIETLANIU zdjęć. Zdjęcie zostało stworzone przez matrycę, jest statyczne. Procesor komputera rozkompresowuje obraz z jpega, a procesor graficzny karty służy do stworzenia "czegoś z niczego", czyli dorabia kolejną klatkę animacji komputerowej i oblicza np. położenie w 3D w kolejnej klatce przesuwającej się ręki, pędzącego samochodu, tekstury postaci czyli WYLICZA i tworzy obraz, którego NIE BYŁO. Dotyczy to zarówno zdjęć, jak i filmów. Klatki filmu zostały wytworzone już przez matrycę, trzeba je tylko w odpowienim (dla komputera bardzo wolnym) tempie wyświetlić. Tecnologia CUDA polega na udostępnieniu wysokiej (i często marnującej się) mocy obliczeniowej procesora graficznego dla systemu i programów takiej mocy wymagających - ale chyba nie zalicza się do nich PS. Jedyne istotnie pracochłonne dla karty obliczenia to rendering - efekty przejścia - których kamera nie stworzyła, a musi je wytworzyć komputer. Pracuję w firmie komputerowej - mam dostęp do większości kart graficznych - testowłem z PSE wiele z nich i nie stwierdziłem, aby obróbka zdjęć na zintegrowanym intelu cokolwiek przyspieszyła po zastosowaniu nawet bardzo wydajnych kart nVidii lub Ati.
No faktycznie... to niezbyt mądrze już od dawna korzystają w Adobe Premiere...
A dzisiaj coraz większe zainteresowanie sprzętem z funkcją filmowania, więc...
http://www.nvidia.pl/object/builtforadobepros_pl.html
http://www.adobe.com/products/premiere/search_result.html?manuSearchVar=1&modelSearchVar=0&supportSearchVar=0&brand=NVIDIA&dataFormat=&version=CS5&device=graphic&format=
Pozdrówka!
A co to ma wspólnego z Photoshopem/Lightroomem? Zauważ, że nawet na stronie NVIDII, którą przytoczyłeś, tylko przy Adobe Premiere jest mowa o CUDA. Ani notka o Photoshopie ani o After Effects nie wspomina o tej technologii. Wydaje mi się, że na siłę chcesz mnie przekonać, że Adobe "wkrótce" wprowadzi CUDA do Photoshopa. Wcale bym się nie pogniewał, wszak też mam kartę Nvidii w komputerze. Ale mam ją już parę ładnych lat, a Adobe nic sobie z tego nie robi. Nie ma co się łudzić i pakować kasę w sprzęt, z którego Photoshop nie potrafi skorzystać. Ja się nie łudzę, szczególnie, że pamiętam, jak na fali entuzjazmu przy wprowadzaniu pierwszych funkcji korzystających z akceleracji GPU jakiś przedstawiciel Adobe udowadniał, że nie da się przyśpieszyć wszystkich wymagających mocy procesora funkcji Photoshopa kartą graficzną. Wierzę, że się da, tylko Adobe nie chce na razie w to inwestować. Nie mają żadnej realnej konkurencji, więc aktualnie mają to w d...
dziobolek
26-03-2011, 18:06
No faktycznie... to niezbyt mądrze już od dawna korzystają w Adobe Premiere...
A dzisiaj coraz większe zainteresowanie sprzętem z funkcją filmowania, więc...
http://www.nvidia.pl/object/builtforadobepros_pl.html
http://www.adobe.com/products/premiere/search_result.html?manuSearchVar=1&modelSearchVar=0&supportSearchVar=0&brand=NVIDIA&dataFormat=&version=CS5&device=graphic&format=A co to ma wspólnego z Photoshopem/Lightroomem? Zauważ, że nawet na stronie NVIDII, którą przytoczyłeś, tylko przy Adobe Premiere jest mowa o CUDA.
A o czym ja niby pisałem w przytoczonym przez Ciebie cytacie???
Ani notka o Photoshopie ani o After Effects nie wspomina o tej technologii. Wydaje mi się, że na siłę chcesz mnie przekonać, że Adobe "wkrótce" wprowadzi CUDA do Photoshopa...
Nie wspomina i nie pisałem, że jest inaczej...
Przekonywać Cie...???
https://canon-board.info/imgimported/2009/09/roflmaozu0-1.gif
źródło (http://img444.imageshack.us/i/roflmaozu0.gif/)
https://canon-board.info/imgimported/2009/09/roflmaozu0-1.gif
źródło (http://img444.imageshack.us/i/roflmaozu0.gif/)
https://canon-board.info/imgimported/2009/09/roflmaozu0-1.gif
źródło (http://img444.imageshack.us/i/roflmaozu0.gif/)
Czyż nie Ty napisałeś...???
Z resztą, koncentrowanie się na CUDA przez Adobe było by w tej chwili co najmniej niemądre.
...ja jedynie przypomniałem, że Adobe już od dawna korzysta z CUDA.
No i uważam jedynie, że w dobie zainteresowania filmowaniem, warto CUDA mieć "na pokładzie".
Pozdrówka!
Odkopuję temat.
Ostatnio zacząłem się zastanawiać czy w tej kwestii coś się zmieniło ponieważ posiadam zintegrowaną grafikę 4250HD przez głowę mi przechodzi myśl zakupu karty na pci-e ale czy to ma jakieś znaczenie dla lightrooma 5??
Nie ma. Procesor, RAM, rodzaj dysku twardego (to ma).
Coś co przyspieszy prace to może być dysk SSD, na system, LR, i pliki nad którymi aktualnie pracujesz :)
nie znam się na komputerach - mam laptopa z grafiką Radeon 5650 i chce kupić monitor z rozdzielczościa 1920 x 1200 pikseli (16:10) czy karta (ustawione mam teraz na maxa 1600x900) obsłuży mi ten monitor czy to bedzie kleska , dodam że w laptopie mam wyjscie DisplayPort które chciałbym użyc do podłączenia tego monitora z laptopem .
Spokojnie obsłuży taką rozdzielczość - poza grami w Full HD
Porządna karta graficzna to przede wszystkim lepsze kolory i lepsza wydajność. Nowoczesne produkty ze stajni nVidia, to również lepszy procesor graficzny i dodatkowa pamięć. Nie ma żadnego porównania z integrą czy laptopem.
Twierdzenie, że karta nic nie wnosi do obróbki zdjęć jest mocno naciągane i mija się z prawdą.
Twierdzenie, że karta nic nie wnosi do obróbki zdjęć jest mocno naciągane i mija się z prawdą.
Potrafisz tą tezę obronić, czy tylko powtarzasz legendy ludowe o "lepszych kolorach" (cokolwiek to znaczy).
Chodzi pewnie o CUDA, które do obróbki zdjęć nic nie wniesie na dobrą sprawę... Lepsze kolory... :D To mnie ciekawi jak się rozwinie.
Nie ma żadnego porównania do integry i laptopa? Mhm... Jeszcze weselej. :)
Potrafisz tą tezę obronić, czy tylko powtarzasz legendy ludowe o "lepszych kolorach" (cokolwiek to znaczy).
Przeciez wyjasnil ze nowoczesniejsze karty sa chociazby szybsze, to malo?
Ale w czym szybsze? :-D co ma grafika do obróbki?
Chyba właśnie Cuda ma wpływ, ale na video..
Ale w czym szybsze? :-D co ma grafika do obróbki?
Tyle co procesor do przetwarzania danych :)
Cos sie tak uwzial na CUDA, nie mowimy tutaj wylacznie o grafice N-vidii.
Swoja droga, lepszym/tanszym rozwiazaniem byloby na poczatek dolozyc/wymienic pamieci ram i wymienic dysk na szybszy :) (ta proponowana karta raczej nie jest w stanie poprawic efektywnosci Twojego zestawu).
Tyle co procesor do przetwarzania danych :)
Cos sie tak uwzial na CUDA, nie mowimy tutaj wylacznie o grafice N-vidii
Te karty owszem, są szybsze. W kolejnej wersji Battlefielda czy CoD. Ale wpływ na działanie Lr i Photoshopa jeśli nawet mają, to praktycznie niemierzalny.
Przecież pod względem 2D karty graficzne nie rozwiały się od lat...
Merde - tak czy siak, nie zwrocilem uwagi na jaka karte chce wymienic. Ten radeon nie jest raczej w stanie niczego poprawic :)
eclipsis
20-05-2014, 03:46
Byle by monitor podłączony był cyfrowo, reszta praktycznie nie ma znaczenia... przynajmniej w lightroomie.
jan pawlak
20-05-2014, 07:16
Akceleracja GPU w praktyce – OpenCL :: PCLab.pl (http://pclab.pl/art51377.html)
Mam NVIDIA GeForce GTX 660..., 16GB RAM i wszystko dzieje się płynnie i szybko.
Płynność szybkość TAK dla karty graficznej
Zarządzanie kolorami jest wyłączone w karcie tak aby mogło to robić Adobe w przestrzeni sRGB (w porywach Adobe RGB)
Kolory to standardy, NIE dla karty graficznej
jp
Akceleracja GPU w praktyce – OpenCL :: PCLab.pl (http://pclab.pl/art51377.html)
Mam NVIDIA GeForce GTX 660..., 16GB RAM i wszystko dzieje się płynnie i szybko.
Płynność szybkość TAK dla karty graficznej
Zarządzanie kolorami jest wyłączone w karcie tak aby mogło to robić Adobe w przestrzeni sRGB (w porywach Adobe RGB)
Kolory to standardy, NIE dla karty graficznej
jp
Mam identyczną kartę w użyciu i jestem z niej bardzo zadowolony. W połączeniu z procesorem Intel core I5 3570 spisuje się rewelacyjnie. Nie rozumiem jednak ostatniego zdania Twojej wypowiedzi - możesz jaśniej ?
jan pawlak
20-05-2014, 08:22
Mam identyczną kartę w użyciu i jestem z niej bardzo zadowolony. W połączeniu z procesorem Intel core I5 3570 spisuje się rewelacyjnie. Nie rozumiem jednak ostatniego zdania Twojej wypowiedzi - możesz jaśniej ?
Przy obróbce zdjęć, zarządzaniu kolorami (wyświetlanie, drukowanie, profile, korekcja itd, ) są standardy.
Karta nie ma nic do ... Lepsze kolory (co by to nie miało oznaczać)
jp
filemoon
20-05-2014, 08:41
W przypadku LR karta ma marginalne znaczenie. Pamiec, dysk (ego predkosc) i procesor maja znaczenie. Karta w LR nie jest uzywana do przetwazania obrazu a jedynie do wyswietlania.
"Lepsze" kolory sa zawsze mile widziane - ale od wielu lat kazda karta wyswietla 32bit koloru.
eclipsis
20-05-2014, 08:56
Lightroom absolutnie nie korzysta z OpenCL, CUDA, STEAM. Będzie chodził tak samo na podstawowej, jak i na bardzo wydajnej karcie. Taki Capture One na przykład już potrafi wykorzystać akcelerację GPU. Janie Pawlaku, nie da się zrozumieć Twojego wywodu, bo piszesz bez ładu i składu.
jan pawlak
20-05-2014, 11:50
Lightroom absolutnie nie korzysta z OpenCL, CUDA, STEAM. Będzie chodził tak samo na podstawowej, jak i na bardzo wydajnej karcie. Taki Capture One na przykład już potrafi wykorzystać akcelerację GPU. Janie Pawlaku, nie da się zrozumieć Twojego wywodu, bo piszesz bez ładu i składu.
Najprościej, przejście z karty X na kartę Y nie przyniesie żadnych zmian w wyświetlaniu, profilach, zarządzaniu czy obróbce kolorów.
jp
Lightroom 4 and 5 Hardware Performance Test: Single vs Dual CPUs, Hard Drive Configurations, Previews and More! (http://www.slrlounge.com/lightroom-lr5-lr4-hardware-performance-test-review)
Tutaj jest ciekawy test. Lightroom rzadko wykorzystuje 100% możliwości procesora a co dopiero karty graficznej;] A i jest też kilka słów o konfiguracji dysków, można sie natknąć czasami na rady żeby system, lightrooma, cache i zdjęcia trzymać na oddzielnych dyskach ;)
Porządna karta graficzna to przede wszystkim lepsze kolory i lepsza wydajność. Nowoczesne produkty ze stajni nVidia, to również lepszy procesor graficzny i dodatkowa pamięć. Nie ma żadnego porównania z integrą czy laptopem.
Twierdzenie, że karta nic nie wnosi do obróbki zdjęć jest mocno naciągane i mija się z prawdą.
Prehistoryczne bzdury, które powinno się karać za szkodzenie.
"Lepsze kolory" to historia sprzed ~kilkunastu lat, kiedy to wszystkie karty graficzne były podłączane kablem analogowym; kiedy niektóre miały lepsze (Matrox), a niektóre miały gorsze przetworniki cyfra-analog; kiedy Radeony statystycznie były lepszej jakości od tanich kart opartych na chipach nVidii. Sprawa tak stara, a dalej powtarzana w internecie.
Obecnie nie ma różnicy, poza jednym przypadkiem - możemy chcieć wyświetlać na odpowiednim monitorze 10bit/kanał. Wtedy potrzebujemy pro wersji kart AMD/nV - dalej kolory nie będą "lepsze" - będzie co najwyżej więcej ich odcieni (pamiętajmy jeszcze o czynniku monitora).
jan pawlak
20-05-2014, 13:08
Prehistoryczne bzdury, które powinno się karać za szkodzenie.
"Lepsze kolory" to historia sprzed ~kilkunastu lat, kiedy to wszystkie karty graficzne były podłączane kablem analogowym; kiedy niektóre miały lepsze (Matrox), a niektóre miały gorsze przetworniki cyfra-analog; kiedy Radeony statystycznie były lepszej jakości od tanich kart opartych na chipach nVidii. Sprawa tak stara, a dalej powtarzana w internecie.
Obecnie nie ma różnicy, poza jednym przypadkiem - możemy chcieć wyświetlać na odpowiednim monitorze 10bit/kanał. Wtedy potrzebujemy pro wersji kart AMD/nV - dalej kolory nie będą "lepsze" - będzie co najwyżej więcej ich odcieni (pamiętajmy jeszcze o czynniku monitora).
Takich prawd z okresu analogu które mają bardzo ograniczony sens w erze cyfrowej a powtarzanych (i w mających swych zagorzałych wyznawców) jest więcej.
Dotyczy np. zastosowania telekonwerterów, wielkość matrycy a GO itd.
jp
Takich prawd z okresu analogu które mają bardzo ograniczony sens w erze cyfrowej a powtarzanych (i w mających swych zagorzałych wyznawców) jest więcej.
Szybkosc procesora i pamiec karty graficznej ma wplyw na stabilnosc i wydajnosc, mozesz to zauwazyc przy laptopach ze zintegrowana karta z mozliwoscia przelaczenia na dedykowana (i nie mowie tutaj o grach 3D, a chociazby sam komfort poruszania sie po systemie). Nie wiem z czego na co trzeba sie przesiasc, zeby tej roznicy nie zauwazyc.
jan pawlak
20-05-2014, 15:55
Szybkosc procesora i pamiec karty graficznej ma wplyw na stabilnosc i wydajnosc, mozesz to zauwazyc przy laptopach ze zintegrowana karta z mozliwoscia przelaczenia na dedykowana (i nie mowie tutaj o grach 3D, a chociazby sam komfort poruszania sie po systemie). Nie wiem z czego na co trzeba sie przesiasc, zeby tej roznicy nie zauwazyc.
ok, zgoda, ale uwaga dotyczyła "lepszych kolorów"
jp
eclipsis
20-05-2014, 16:19
No właśnie nie zgoda. Co to za tekst z tą stabilnością i wydajnością. Integry też wspomagają wyświetlanie stron i filmów. Mam taki laptop i nie widzę absolutnie żadnej różnicy, poza zużyciem prądu. Skąd wy takie rzeczy bierzecie. W jakiej to aplikacji widzisz różnicę Hudy85. Oczywiście nie mówimy o aplikacjach 3D i korzystających z Cuda itp. System Ci szybciej działa na dodatkowej karcie? Serio? Bez jaj.
Wysłane z mojego Venue 7 3730 przy użyciu Tapatalka
a chociazby sam komfort poruszania sie po systemie). Nie wiem z czego na co trzeba sie przesiasc, zeby tej roznicy nie zauwazyc.
Może jak się ktoś przesiada z S3 Virge na PCI to faktycznie zauważy różnicę. Ale nie przy współczesnych układach wbudowanych w i5 czy i7...
W domu mam "prawdziwą" kartę graficzną (fakt, że już trochę leciwą), a w pracy układ wbudowany w i3. Nie widzę absolutnie ŻADNEJ różnicy w działaniu Lr i Photoshopa.
W domu mam "prawdziwą" kartę graficzną (fakt, że już trochę leciwą), a w pracy układ wbudowany w i3. Nie widzę absolutnie ŻADNEJ różnicy w działaniu Lr i Photoshopa.
Porownywac z tym co masz w domu mozesz tylko i wylacznie wtedy, gdy ten sam sprzet masz w pracy, a rozni sie wylacznie karta graficzna.
Swoja droga - dlaczego wspominasz, ze dzisiejsze zintegrowane uklady sa juz tak dobre... - skoro niby parametr nie ma znaczenia?
Porownywac z tym co masz w domu mozesz tylko i wylacznie wtedy, gdy ten sam sprzet masz w pracy, a rozni sie wylacznie karta graficzna.
No jasne, mam sobie złożyć identycznego peceta tylko po to, żeby przekonać się (tj. właściwie ciebie, bo ja to widzę na co dzień), że różnic dalej brak ;-)
Procesory są zbliżonej wydajności, ramu jest tyle samo.
Swoja droga - dlaczego wspominasz, ze dzisiejsze zintegrowane uklady sa juz tak dobre... - skoro niby parametr nie ma znaczenia?
Dzisiejsze zintegrowane układy = układy zintegrowane z procesorami i3/i5/i7. Faktycznie, 10 lat temu układy graficzne wbudowane w płytę główną nie grzeszyły wydajnością.
Od kilku lat jednak postępu w 2D praktycznie brak - cała para idzie w 3D i ew. wspomaganie odtwarzania filmów.
Powielanie takich bajek jest szkodliwe, bo jeszcze ktoś może je wziąć na serio i niepotrzebnie wydać kilkaset do tysiąca złotych sądząc że będzie szybciej.
Koniec duskusji:) Ty wiesz swoje, ja wiem swoje, a kolega zrobi co uzna za sluszne ;)
Wiem ze moze nie w temacie, jednak z doswiadczenia napisze ze dla mnie prace komputera usprawnily dyski SSD co naprawde widac golym okiem, nie wplynelo to jednak na polepszenie kolorow. ;)
Szybkosc procesora i pamiec karty graficznej ma wplyw na stabilnosc i wydajnosc, mozesz to zauwazyc przy laptopach ze zintegrowana karta z mozliwoscia przelaczenia na dedykowana (i nie mowie tutaj o grach 3D, a chociazby sam komfort poruszania sie po systemie). Nie wiem z czego na co trzeba sie przesiasc, zeby tej roznicy nie zauwazyc.
Nie wiem na co musiałbym się przesiąść żeby różnicę zauważyć... Mam jakiegoś 5-letniego Radeona i nie zauważam żadnych opóźnień w działaniu Windowsa (i na pewno nie jest to zasługa karty graf.). Prawda jest taka że jeśli ktoś chce mieć kartę graficzna za 2000zł mimo że jej nie wykorzysta to znajdzie sobie inny powód żeby ją mieć... to tak jak niektórzy z eLkami ;]
Słuszna uwaga - nie kupuje się karty za 2kPLN do kompa sprzed kilku lat, ale do nowego warto :)
Układy zintegrowane w procesorach i3, i5 .......... to tylko taka namiastka grafiki mająca niewiele wspólnego z obecnymi kartami nVidii czy Radeonem :)
Układy zintegrowane w procesorach i3, i5 .......... to tylko taka namiastka grafiki mająca niewiele wspólnego z obecnymi kartami nVidii czy Radeonem :)
Oczywiście to prawda. Ale nie wiem czy zauważyłeś, że mówimy o pracy w Lr i Photoshopie, nie o graniu :-)
witam
Tak w temacie inwestowania i przyspieszania LR
Jak myślicie przyspieszy mi Lr jeśli zmienię procesor Celeron DualCore , 2600 MHz (13 x 200) 1MB pam podręcznej
na
Intel CORE 2 DUO E8400 socket 775 3,GHZ X 2 6MB CACHE L2 1333MHZ FSB
Warto wydać stówkę , czy zbierać kasę i wymienić całą płytę z procesorem.
Może jak się ktoś przesiada z S3 Virge na PCI to faktycznie zauważy różnicę. Ale nie przy współczesnych układach wbudowanych w i5 czy i7...
W domu mam "prawdziwą" kartę graficzną (fakt, że już trochę leciwą), a w pracy układ wbudowany w i3. Nie widzę absolutnie ŻADNEJ różnicy w działaniu Lr i Photoshopa.
Lightroom nie bedzie dzialal szybciej Photoshop juz tak.
https://canon-board.info/imgimported/2014/05/123_zpsa1d14202-1.jpg
źródło (http://s1176.photobucket.com/user/stebal/media/123_zpsa1d14202.jpg.html)
Na boku dodam, ze szalu nie ma ;)
Lepiej kupic i7 lub wiecej RAM'u i SSD.
Powered by vBulletin® Version 4.2.5 Copyright © 2025 vBulletin Solutions, Inc. All rights reserved.