Skocz do zawartości

V-Ray RT 2, CPU vs GPU


Rekomendowane odpowiedzi

Coraz bliżej do premiery Vray'a RT wykorzystującego do obliczeń moc GPU.

Na poniższej stronie pokazane zostało porównanie wersji CPU oraz GPU.

http://www.spot3d.com/vray/images/stuff/rt_gpu/?SRC=VRI

Jako CPU wykorzystany został:

- Intel Intel 920 (Core i7, 4 rdzenie, 8 wątków) 2.67 GHz z 9 GB of RAM

 

GPU:

- nVidia GeForce GTX 480 (Fermi) z 1.5 GB VRAM, rendering z wykorzystaniem środowiska OpenCL

 

Średnia różnica wydajności pomiędzy tymi konkretnymi CPU i GPU to około 20 razy.

  • Like 1
Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 33
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

Niech oni lepiej przestaną sobie jaja robić i to w końcu wypuszczą. Octane render działa przecież już od jakiegoś czasu i zmiata szybkością i jakością większość rendererów na rynku. A o Vray RT słyszę już od dawna. No ale - dajmy chłopakom szansę :) Na pewno warto jeszcze trochę poczekać.

Odnośnik do komentarza
Udostępnij na innych stronach

dobrze słyszec, ze nie tylko na polu obliczeń ale także grafiki 3d (tak wiem tez obliczenia, ale wiele innych rzeczy wchodzi w grę) utrzymuje się stała 20-25x wzrostu predkości. Włąsnie ludzkosc przyspieszyła o kilkanaście lat w technologii ;)

Odnośnik do komentarza
Udostępnij na innych stronach

Razem z premierą Vray RT GPU ma sie pojawić również Vray GPU, co chyba jest najciekawszą informacją z tego wszystkiego.

 

Czym jest Vray GPU (fragment dyskusji z forum Chaos Gropu):

 

user:

- what is Vray GPU?, is different from Vray RT GPU?

 

vlado (twórca Vray'a):

- It is the regular V-Ray RT, with a render server that uses GPU(s) instead of the CPU.

 

Wynika z tego że od tej pory Vray RT to nie będzie już tylko podgląd sceny a pełny rendering z produkcyjną jakością.

Ograniczeniem w przypadku wersji GPU będzie ilość pamięci na karcie graficznej. Niestety w przypadku rozbudowanych scen może się okazać ze nawet 2 GB VRAM to mało.

Odnośnik do komentarza
Udostępnij na innych stronach

Octanem przerenderowalem kilka rzeczy i powiem z reka na sercu, ze jak wyjda GPU z 4 GB VRAM, to nadal bedzie krotko z wiekszymi scenami i duzymi texturami. Zanim taka karta wyjdzie, to strzela nam nowy standard HD - 2160p i pozamiatane. :) A tak powaznie to ja nadal czekam na vraya pod xsi. hah

Odnośnik do komentarza
Udostępnij na innych stronach

marograf: Średnia różnica wydajności pomiędzy CPU,a GPU na tej testowej scenie wyniosła około 20 razy. a skad to wiesz? testowalem v-ray rt i to co renderuje rt i ten glowny rozni sie dosc sporo. dla mnie rt nie ma poki co wiekszego sensu.

Odnośnik do komentarza
Udostępnij na innych stronach

piotr kura - Nie ma sensu? A realtime podgląd dofa, materiałów, blików, cieni, gi, no właściwie 3/4 rzeczy które zajmują strasznie dużo czasu przy renderach testowych?

Ja po tygodniu pracy z RT tak przywykłem, ze nie mogę znieść jego braku na cudzych kompach. Bardzo się uciesze jeżeli będzie działał jeszcze sprawniej.

Odnośnik do komentarza
Udostępnij na innych stronach

Freedom Fighter, wiem tylko ze dla mnie podglady te są tak samo pomocne jak cieniowanie w viewporcie.

 

edit: deshu no ok skoro Tobie sie przydaje to wporzadku wlasnie bylem ciekaw czy komus to pomaga. swoja droga podglad dofa tez jest w viewporcie.

Edytowane przez piotr kura
Odnośnik do komentarza
Udostępnij na innych stronach

@marograf

 

Zaraz zaraz... Przecież GPU może korzystać z zwykłego ramu. Oczywiście uderza to po wydajności, jednak może. Oglądałem prezentacje wygląda to świetnie jednak moim zdaniem mamy śmieszność w świecie.

 

Karty z zdolnej półki mają 1-2GB ramu (chłyt marketignowy). Tymczasem mocne karty, ale już zwykłe też mają 1-2GB, bo do gier tyle potrzebują... Nikt nie wpierdziela już tu ile wlezie, a nam by się przydało.

Odnośnik do komentarza
Udostępnij na innych stronach

Karty graficzne mają mało pamięci bo jest droga i na razie więcej nie potrzebują. Jak się upowszechnią renderery GPU to producenci wypuszczą karty specjalizowane z odpowiednią ilością pamięci np 8 lub 16 GB i odpowiednią ceną zapewne większą niż Quadro. Za darmo nic nie ma... to znaczy nic oprócz pingwina i Blendera.

Odnośnik do komentarza
Udostępnij na innych stronach

yo,

 

1) gpu nie ma dostępu do pamięci cpu, który pozwalałby na sensowną

interaktywną pracę (tzn tak aby podczas wykonywania shadera gpu mogło

sięgnąć do pamięci cpu a nie własnej) bez stukrotnego spowolnienia.

 

2) trójkanałowy i7 z ddr3-1600 to około 20 GB/s przepustowości pamięci

radeon hd5870 to 160 GB/s, GTX480 to 173GB/s... mały zgrzyt

 

3) w kartach graficznych gddr5 jest 32 bitowy, kości 1 giga_bit_ są drogie

kości 2 giga_bity_ są bardzo drogie. Kość 1 gigabit = 128 mega, radeony

maja 128 do 256 bitową architekturę kontrolera pamięci = 4-8 kostek =

max 1 lub 2 GB. Fermii ma od 256 do 384 bitowy kontroler pamięci czyli

8-12 kostek, max 2GB - 3GB. Zwiększenie szyny danych to bardzo duży

problem technologiczny (komplikacja układu, komplikacja płytki PCB, ciepło...).

Jest jeszcze tryb clamshell czyli parowanie dwóch kości pamięci na jednym

kontrolerze ale to też niesie pewne ograniczenia, trzeba czekać na kolejną

generację kart :)

 

edit: clamshell

Edytowane przez dokturpotfor
  • Like 1
Odnośnik do komentarza
Udostępnij na innych stronach

chodzi ci o multipass? Problem jest w tym ile potrzebujesz mieć geometrii

w scenie, jak jesteś w stanie podzielić scenkę na mniejsze w których nie

ma (albo da się oszukać) zależności między obiektami pomiędzy passami

(np obiekty z jednego nie odbijają się w drugim) to na pewno to pomoże.

Ciekaw jestem jaki jest narzut pamięciowy przy przeniesieniu scenki z cpu

na gpu przy Vray'u RT.

Odnośnik do komentarza
Udostępnij na innych stronach

marograf - z tego wcale nie wynika ze to bedzie vray gpu renderujacy z produkcyjna jakoscią

 

deshu - rzeczywiście, Vray gpu renderujący z produkcyjną jakością to moja (nad)interpretacja. Jednak sądzę że taka nazwa do czegoś zobowiązuje. Zresztą nie widzę żadnych "przeciw".

Vray RT w wersji 1.5 to pierwsze podejście do tematu, w uproszczonej formie. Jednak idea tego jest taka żeby ten podgląd był w 100% zgodny z finalnym renderingiem bo w przeciwnym razie częściowo traci to sens. Tak długi okres czasu pomiedzy poprzednią wersją RT a obecnymi (cpu i gpu) został zapewne poświęcony na pełną obsługę wszystkich efektów i szaderów. Zresztą Chaos Group dość niechętne zwiększający numeracje swoich produktów nadał temu wydaniu wersje 2.0, co sugeruje dość spore zmiany.

 

Co do tematu kart graficznych to tutaj mamy wyraźną segmentacje:

- karty do gier* (np GeForce) - do 2 GB Vram

- karty do aplikacji graficznych* (np Quadro) - do 4 GB Vram

- karty do obliczeń* (np Tesla) - do 6 GB Vram

 

Tu nic nie jest przypadkowe i niestety za potrzebę posiadania dużej ilości pamięci Vram przyjdzie zapłacić słoną cenę - Tesla C2070 z 6 GB Vram to koszt $3999

 

* - optymalne zastosowanie wg producenta

Odnośnik do komentarza
Udostępnij na innych stronach

A czy na radkach też to będzie działać? Zmieniam piecyka i teraz chyba jedynym sensownym wyborem są radeony.

 

edit:

Sorry nie było pytania.

Środowisko openCL - wszystko jasne... Zbyt zmęczony jestem dzisiaj.

Odnośnik do komentarza
Udostępnij na innych stronach

Zastanawiam się jak RT poradzi sobie z 2x SLi GTX 480 ?
niestety będzie się wieszał.

 

Chcialem napisac tylko, ze zostałem przeczesany przez ten filmik - to działa szybciej niż photoshop w 2d :)

Edytowane przez olaf
Odnośnik do komentarza
Udostępnij na innych stronach

niestety będzie się wieszał.

 

Chcialem napisac tylko, ze zostałem przeczesany przez ten filmik - to działa szybciej niż photoshop w 2d :)

 

Będzie się wieszał ? to mnie zmartwiłeś a na ile ta informacja jest potwierdzona można gdzieś o tym poczytać bo jak na razie łączenie dwóch lub trzech kart (GTX480) w zależności od płytki byłoby najsensowniejsze i cenowo też ok...

Dokturpotfor czy możesz coś też na ten temat dodać ...?

 

Odnośnik do komentarza
Udostępnij na innych stronach

Czy ktoś wyjaśni mi jak się korzysta z GPU w vrayu 2.0 ? Czy w trybie rt jest standardowo używane GPU, czy dopiero po ustawieniu engine na openCL ? Jak ustawie open cl to liczy wolno, dodatkowo nie ma GI ani hdrek. Pytam bo jestem na etapie wyboru karty graficznej i testuję różne modele i nie widzę różnicy np między gf 9800 GT a gtx 460, przy quadro 2000 też niewielka różnica w trybie rt. Może coś trzeba włączyć, ustawić ?

Odnośnik do komentarza
Udostępnij na innych stronach

gtx 460 to nie taka wolna chyba, quadro 2000 też w miarę współczesna.

tryb rt działa, ale najlepiej na engine cpu, wtedy nie widzę różnicy między grafą gf 9800 gt a gtx 460, pod engine opencl toś tam działa ale wyłącza się wtedy gi i hdrki a prędkość jest żałosna, tu też nie widzę różnic w prędkości między tymi 3 kartami.

Odnośnik do komentarza
Udostępnij na innych stronach

Gość michalandrzej

hej, trochę słabo się jeszcze orientuję w realnych różnicach między GPU a CPU, więc proszę o radę. Zmieniam sprzęt i bardzo łakome jest dla mnie stwierdzenie, że moge przyspieszyć 20-krotnie czas renderingu z dobra kartą graficzną. Pytanie brzmi czy znaczy to również, że nie potrzebuję do tego również potężnego procesora?? Bo kasy na sprzęt mam ok 6 tys. więc w tej cenie nie zmieszczę jednocześnie dobrego quadro i dobrego i7. Tak naprawdę rendering rzeczywisty w viewportach nie jest mi niezbędny, natomiast zależy mi na szybkości i jakości renderingu końcowego. Może więc, przy takim budżecie pozostać przy tradycyjnym CPU i poczekać aż technologia renderingu w GPU się rozwinie i stanieje?

 

Z góry dzięki za fachowe rady

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności