Skocz do zawartości

CUDA GPU rendering iray / vray 3dsmax - prośba o scenkę do testów sprzętu GTX


gregorym

Rekomendowane odpowiedzi

Witajcie

ponieważ bardzo sympatycznie pracuje mi się z iray na GPU, chciałbym zrobić po kilku latach upgrade sprzętu i spróbować również zabawy z Vray

iray w mojej obecnej konfiguracji 3xGTX560ti 2GB w miarę daje radę przy niezbyt skomplikowanych scenach, na pracę z oknem activeshade w rozdzielczości około hd i finalnym renderingiem również

Przekopałem sieć i z ręką na sercu: nie mam pojęcia który parametr karty graficznej najbardziej przekłada się na wydajność mierzoną czy to w "zł/sprzęt" czy "czas/wydane zł na prąd".... Kupując parę lat temu patrzyłem na Gflops i nie zawiodłem się.

Więc co?

Gflops? (1/prec?, 2/prec?)

CUDA cores?

wpływ RAM?

...????

 

Chciałbym zrobić mini test na którym w 2, max 3 scenkach przeliczyłbym wydajność kart.

Mam w tej chwili przy sobie:

GTX 560ti x3 (w pracującym PC)

czeka w kartonach:

GTX 690 (przydałby się jeszcze GTX680... - może ktoś wypożyczy....? :))

GTX TITAN

GTX 780ti

 

Mój scenariusz jest taki:

 

dla iray i vray w najmożliwiej ostatniej wersji

scenka (odbicia, refrakcja, SSS....) z zadaną liczbą iteracji i pomiar czasu dla :

560ti x3

560ti x2

560ti x1

560ti x0 (tylko CPU)

690 (przydałby się 680)

790ti

TITAN

 

TUTAJ MOJA PROŚBA:

ponieważ zupełnie nie ogarniam Vray a efekty widzę piękne - potrzebna mi scenka do testów

w miarę skomplikowana, żeby przez godzinkę-dwie dała wycisk każdej konfiguracji, aby wyniki były w miarę obiektywne i jak najbardziej zależne od GPU

Jeśli macie wersję scenki na iRay - również poproszę, wybierzemy najodpowiedniejszą

 

Gdybyście mieli jakiekolwiek sugestie, propozycje i uwagi - poproszę :)

Jeśli możecie podpowiedzieć jaki sprzęt warto byłoby przetestować w tym wątku - poproszę.

Również jeśli wiecie skąd wypożyczyć na kilka dni np 680 czy TITAN Z lub X - poproszę :))

 

pozdrawiam

gregorym

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 28
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

nie widzę przeszkód

kłopot w tym, że nie znam, nie pracowałem na tym, nie posiadam

w grę wchodzi ew demo, ale nie wiem czy podołam robić jeszcze testowy setup sceny pod to

dlatego poprosiłem o gotowe " *.max " abym odpalić mógł kilka testów

więc jeśli masz coś - zapodaj proszę.

samo ściągnięcie sprzętu kosztowało mnie sporo czasu, o gotówce nie wspominając....

Odnośnik do komentarza
Udostępnij na innych stronach

właśnie dlatego chcę to przetestować przed przesiadką z posiadanych 560ti

szkoda gadania "co by było gdyby...." - jeśli masz dobrą scenkę do testów - zapodaj proszę

 

ja osobiście nie używam octane. ale moge powiedzieć że octane najlepiej poza iray. wykorzystuje nowinki techniczne w kolejnych generacjach kart.

 

z 690 bym zrezygnował na start jeżeli już przy zakupie prawdę mówiąc. brałbym albo 780. albo 980. ew titan. generalnie to co ma najwiecej ramu chyba że strzelasz małe sprawy studyjne packshoty etc. to wtedy 780 ti. Wstrzymałbym się też chyba osobiście do nowych kart nvidi bo może wkońcu będzie unifikacja pamięci. tak więc warto by poczekać.

Odnośnik do komentarza
Udostępnij na innych stronach

Dzięki.

Zastosowanie - głównie wizualizacje.

Fajnie że to forum żyje bo to pierwsze posty moje tutaj :)

Ale jak wcześniej pisałem - chciałbym przejść do rzeczy i konkretów żeby przeliczyć na żywym towarze - nie tylko na swoje potrzeby i nie tylko na topowych nowościach za >3Kzł - w co warto zainwestować jeśli chce się korzystać z CUDA na dowolnej platformie

Stąd moja prośba o scenki do testów.

Odnośnik do komentarza
Udostępnij na innych stronach

Wstrzymałbym się też chyba osobiście do nowych kart nvidi bo może wkońcu będzie unifikacja pamięci. tak więc warto by poczekać.
Świetna rada. Nie. Optymistycznie Pascal ma wyjść w marcu przyszłego roku a realistycznie w okolicach maja przez opóźnienia w produkcji pamięci HBM (AMD ma priorytet na nie). Pół roku czekania + minimum pół roku czekania aż Octane/iRay zaczną supportować tą architekturę.

 

Lepiej kupić jedną mega mocną karte niż 2 słabe. w sensie Więcej niż 2 karty. skalowanie jest naprawdę słabe...
Skąd ty bierzesz te bzdury? Pochrzaniło ci się kompletnie z SLI i renderingiem realtime w grach. Skalowanie GPGPU jest liniowe czyli doskonałe... wystarczy tylko odłączyć mostek SLI żeby mieć niezależne wątki. Dwie karty = 200% mocy, to proste.

Jedyne co przemawia za pojedynczą mocną kartą to ilość pamięci ale obecnie i tak nie ma dużego wyboru- 4 albo 6 giga, nic innego się już nie opłaca.

Odnośnik do komentarza
Udostępnij na innych stronach

skalowanie z SLI to jest już porażka całkowita. Zresztą SLI się nie używa przy renderingu. natomiast dwie karty nie dają 200%. nie wiem skąd wziołeś ta bzdure.. 180% to jest absolutne maximum, zazwyczaj jest to 160%

 

Co do czekania no dla mnie osobiście pół roku to nie jest aż tak dużo jeśli zamierzam wydać pare tyś

Odnośnik do komentarza
Udostępnij na innych stronach

Oczywiście że 2 karty dają 200% bo to przecież są niezależne jednostki obliczeniowe. Nie jak 2 wątki procesora tylko jak 2 osobne komputery, jak w renderfarmie, albo jak twój komp i komp sąsiada. Jak odpalasz render to twojemu sąsiadowi zaczyna lagować gra?

Jedyne co teoretycznie może być ograniczeniem wydajności w takim setupie to CPU. Tylko w takim wypadku mówimy o antycznych modelach nie produkowanych od lat więc nie ma co tematu poruszać nawet. Siejesz dezinformacje, mniej pisz a więcej czytaj. ;)

Odnośnik do komentarza
Udostępnij na innych stronach

eh monio monio. jak cię lubie i zazwyczaj masz racje. to tym razem gadasz mega głupoty i kazdy kto się interesuje renderingiem na GPU wie jak bardzo głupote piszesz. wystarczy popatrzeć na testy wielu użytkowników i tak np GTX Titan który jest de fakto teslą i został zaprojektowany z myślą o skalowaniu. to nawet on traci 10% na każdym następnym GPU. w najlepszym scenariuszu

Odnośnik do komentarza
Udostępnij na innych stronach

Chyba jak wyłączysz chłodzenie i owiniesz kompa kołdrą. ;)

To nawet nie jest skalowanie jak ilość rdzeni w CPU. To są osobne jednostki obliczeniowe które się ze sobą w ogóle nie synchronizują, mają osobną pamięć.

Najpewniej oglądałeś jakieś testów robionych przez ludzi którzy nie wiedzą na czym polega rendering GPGPU i mieli karty spięte mostkiem SLI. Benchmarki robione przez ogarniętych ludzi pokazują skalowanie liniowe.

 

https://render.otoy.com/octanebench/results.php

Średnie wyniki dla GTX 780:

x1 = 84.83

x2 = 167.91 = 2 * 83.96

x3 = 246.34 = 3 * 82.11

x4 = 354.58 = 4 * 88.64

Edytowane przez Monio
Odnośnik do komentarza
Udostępnij na innych stronach

Chyba jak wyłączysz chłodzenie i owiniesz kompa kołdrą. ;)

To nawet nie jest skalowanie jak ilość rdzeni w CPU. To są osobne jednostki obliczeniowe które się ze sobą w ogóle nie synchronizują, mają osobną pamięć.

Najpewniej oglądałeś jakieś testów robionych przez ludzi którzy nie wiedzą na czym polega rendering GPGPU i mieli karty spięte mostkiem SLI. Benchmarki robione przez ogarniętych ludzi pokazują skalowanie liniowe.

 

yhymn yhymn człowieku błagam nie brnij.. nie ma szans że po dołożeniu 2 karty. będziesz miał skalowanie 200%. Nawet tesla. która jest w ogóle kartą tylko do liczenia i nie musi nic wyświetlać czyli czeka aż jej coś dasz do liczenia i tyle. Nawet one. maja wydajnośc 90-95%. przy dobrze napisanym sofcie. co pokazują benchmarki NVIDI! ale ci monio wie lepiej.

 

Natomiast przy zwykłych kartach. nie ma szans na wydajność na tym poziomie, fizyki nie oszukasz. a jeszcze dochodzi fakt! że jedna karta jest używana jako wyświetlacz.

 

pierwszy lepszy przykład z brzegu.

GTX 580 34:91

x2 GTX 580 20:49

 

a tutaj już GTX titan / tesla. Starata jest 10-15% na każdej karcie.

 

 

Robiłem testy sam, wiele ludzi robiło jest zylion tematów na forach na ten temat. Wiec serio przestań. bo teraz zaczynam watpic we wszystkie twoje wypowiedzi patrząc że na tak banalny temat gadasz takie bzdury.

 

 

hahaha serio? porównujesz czas 2 innych komputerów. pozdrawiam.

Edytowane przez Maciek Jutrzenka
Odnośnik do komentarza
Udostępnij na innych stronach

Umując to najprościej jak się da.

 

Nawet gdyby obie karty skalowały się zajebiście tak że obie dają 200%. to i tak jedna karta pracuje jako wyświetlacz :D i jej wydajnośc jest mniejsza.

 

bardziej opłaca się kupić kartę która ma 3000 rdzeni. niż 2 karty które mają 1500 rdzeni. O ile w renderingu skalowanie jest w miare dobre ostatnimi czasy pokazuja to titany i 980. naprawde poprawili sprawę co widac po 580 np. to o tyle w Viewporcie. sprawa siada. totalnie bieda! pokazują to filmiki na YT że przyrost wydajności jest nikły. nawet na GTX titanach. Dlatego lepiej kupić 1 mocną niż 2 słabe.

Odnośnik do komentarza
Udostępnij na innych stronach

Ciekawe w jaki sposób wyparowało mu 2240 rdzeni jak połączył te Titany. ;)

 

Widzisz. Myślisz że mówisz o renderingu GPU a ty mówisz o niedopracowaniu Cyclesa. Nie wiem jak jesteś na bieżąco z developmentem ale coś ci uświadomię:

Cycles nie jest zoptymalizowany do renderingu multi GPU, nigdy nie były prowadzone nad tym prace bo Brecht zawsze skupiał się na CPU (to ma sens bo GPU to nadal duże limitacje). Da się renderować na kilku kartach dzięki prototypowej funkcji która nie zmieniła się od 2012 roku, tworzy kolosalny overhead na CPU, tym większy im więcej kart wsadzisz. Na dopracowanych renderereach GPU nie zobaczysz czegoś takiego. Cycles nie jest dostosowany nawet do architektury GTX 5xx a co dopiero nowszych. Cycles nie korzysta też z dzisiejszych funkcji biblioteki CUDA. Ten kod (architektura, nie funkcje) pamięta 2011 rok a zmiany które zadziały się w GPGPU od tamtego czasu są ogromne. Na trackerze poczytasz o bugach typu zapychanie RAMu drugiej karty śmieciami przy renderungu multi-gpu. Developerzy o tym wszystkim wiedzą i to w swoim czasie naprawią, dokładniej podczas prac nad Kernel-splitem. Obstawiam początek 2017 najwcześniej.

 

Krótko mówiąc opisujesz rendering GPGPU na podstawie jednego programu który jest niedokończony i niedostosowany do dzisiejszych technologii. Popatrz jak to wygląda w rendererach które są doszlifowane. Octane skaluje się liniowo, iRay skaluje się niemalże liniowo. Autor tego wątku nie pisał nic o Cyclesie więc go tu nie wpychaj.

 

O ramie już pisałem. Wiadomo że nie chodzi o wrzucenie pięciu GTX460 zamiast jednej dobrej karty.

Edytowane przez Monio
Odnośnik do komentarza
Udostępnij na innych stronach

Witajcie

wygospodarowałem nieco czasu i przetestowałem kilka kart pod 3DSMAX (iray) oraz Octane

wyniki poniżej na wklejonym obrazku plus link do pliku xls (nie jestem miszczem post'owania... ;)

Test wykonałem na najnowszych sterownikach, taka sama konfiguracja sprzętu za każdym razem. Z miernikiem zużycia energii.

Cel - sprawdzenie co jest odpowiedzialne za szybkość renderowania na GPU (#tranzystorów? wydajność zmiennoprz.? CUDA cores? ....)

Wniosek jest taki, że nie wiem jaki wniosek wyciągnąć. Kupy się to nie trzyma... :))))

Wyniki w Octane są zbieżne bardzo z tym co publikowane na stronie otoy

Natomiast 3DSMAX...... Moje stare poczciwe 3x560ti przegoniło mocno Titana i 690 idąc łeb w łeb z 780ti... :) - fakt, że przy przwie 2x większym poborze mocy... ;P

 

Mój osobisty wniosek - brać 780ti. Wydajność/cena przy uwzględnieniu kosztów prądu chyba bezkonkurencyjna.

pozdrawiam!

 

GTX_test20151115.JPG

 

https://dl.dropboxusercontent.com/u/40093599/GTX_2015.xlsx

Odnośnik do komentarza
Udostępnij na innych stronach

od kiedy niby 560 ti ma 6 giga ramu?

 

ja tam bym brał GTX titana albo GTX titana X bo na 3 giga ramu to se można szampon w studiu wyrenderować :P

 

moje mają 2GB -> 3x2GB=6 :)

Masz rację - powinno być w tabelce raczej 2GB

 

Do prostych wizualizacji 3GB wystarczy.

Odnośnik do komentarza
Udostępnij na innych stronach

Ta...2x kart daja powiedzmy prawie dokladnie 200%. Nie wiem jednak i jest dla mnie zawsze zagadka minimalne roznice w czasach renderingu rzedu 1-2s dla tych samych taskow. Przynajmniej w maxie ma to miejsce... Zawsze jest drobna roznica czasowa. Na CPU zazwyczaj dostanei sie identyczne czasy. Na GPU jest inaczej. Moze inne rzeczy wplywaja na to z jaka predkoscia pracuja karty graficzne.

 

http://stackoverflow.com/questions/18311846/time-dependent-variation-in-cuda-kernel-performance

Edytowane przez norden
Odnośnik do komentarza
Udostępnij na innych stronach

Nie wiem jednak i jest dla mnie zawsze zagadka minimalne roznice w czasach renderingu rzedu 1-2s dla tych samych taskow.

 

bo tam jest używana metoda Monte-Carlo, a przy dużej liczbie uruchamianych zależnych procesów, tak jest na GPU, różnice w rozkładzie są znacznie większe, co przekłada się na niewielkie często obserwowalne różnice w czasie renderingu.

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności