gregorym Napisano 6 Październik 2015 Share Napisano 6 Październik 2015 Witajcie ponieważ bardzo sympatycznie pracuje mi się z iray na GPU, chciałbym zrobić po kilku latach upgrade sprzętu i spróbować również zabawy z Vray iray w mojej obecnej konfiguracji 3xGTX560ti 2GB w miarę daje radę przy niezbyt skomplikowanych scenach, na pracę z oknem activeshade w rozdzielczości około hd i finalnym renderingiem również Przekopałem sieć i z ręką na sercu: nie mam pojęcia który parametr karty graficznej najbardziej przekłada się na wydajność mierzoną czy to w "zł/sprzęt" czy "czas/wydane zł na prąd".... Kupując parę lat temu patrzyłem na Gflops i nie zawiodłem się. Więc co? Gflops? (1/prec?, 2/prec?) CUDA cores? wpływ RAM? ...???? Chciałbym zrobić mini test na którym w 2, max 3 scenkach przeliczyłbym wydajność kart. Mam w tej chwili przy sobie: GTX 560ti x3 (w pracującym PC) czeka w kartonach: GTX 690 (przydałby się jeszcze GTX680... - może ktoś wypożyczy....? :)) GTX TITAN GTX 780ti Mój scenariusz jest taki: dla iray i vray w najmożliwiej ostatniej wersji scenka (odbicia, refrakcja, SSS....) z zadaną liczbą iteracji i pomiar czasu dla : 560ti x3 560ti x2 560ti x1 560ti x0 (tylko CPU) 690 (przydałby się 680) 790ti TITAN TUTAJ MOJA PROŚBA: ponieważ zupełnie nie ogarniam Vray a efekty widzę piękne - potrzebna mi scenka do testów w miarę skomplikowana, żeby przez godzinkę-dwie dała wycisk każdej konfiguracji, aby wyniki były w miarę obiektywne i jak najbardziej zależne od GPU Jeśli macie wersję scenki na iRay - również poproszę, wybierzemy najodpowiedniejszą Gdybyście mieli jakiekolwiek sugestie, propozycje i uwagi - poproszę :) Jeśli możecie podpowiedzieć jaki sprzęt warto byłoby przetestować w tym wątku - poproszę. Również jeśli wiecie skąd wypożyczyć na kilka dni np 680 czy TITAN Z lub X - poproszę :)) pozdrawiam gregorym Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Maciek Jutrzenka Napisano 6 Październik 2015 Share Napisano 6 Październik 2015 a nie lepiej Octane który jest jakby nie patrzeć chyba liderem renderingu na GPU? Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
gregorym Napisano 6 Październik 2015 Autor Share Napisano 6 Październik 2015 nie widzę przeszkód kłopot w tym, że nie znam, nie pracowałem na tym, nie posiadam w grę wchodzi ew demo, ale nie wiem czy podołam robić jeszcze testowy setup sceny pod to dlatego poprosiłem o gotowe " *.max " abym odpalić mógł kilka testów więc jeśli masz coś - zapodaj proszę. samo ściągnięcie sprzętu kosztowało mnie sporo czasu, o gotówce nie wspominając.... Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Maciek Jutrzenka Napisano 6 Październik 2015 Share Napisano 6 Październik 2015 powiem tak kupowanie 5xx czy 6xx teraz to mega bezsens zużywaja mega dużo prądu ale same instrukcje i biblioteki sa mega out of date. i wiele ficzerów może nie działać. nie czytałem całego posta przyznaje ale tak just sain. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
gregorym Napisano 6 Październik 2015 Autor Share Napisano 6 Październik 2015 właśnie dlatego chcę to przetestować przed przesiadką z posiadanych 560ti szkoda gadania "co by było gdyby...." - jeśli masz dobrą scenkę do testów - zapodaj proszę Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Maciek Jutrzenka Napisano 6 Październik 2015 Share Napisano 6 Październik 2015 właśnie dlatego chcę to przetestować przed przesiadką z posiadanych 560ti szkoda gadania "co by było gdyby...." - jeśli masz dobrą scenkę do testów - zapodaj proszę ja osobiście nie używam octane. ale moge powiedzieć że octane najlepiej poza iray. wykorzystuje nowinki techniczne w kolejnych generacjach kart. z 690 bym zrezygnował na start jeżeli już przy zakupie prawdę mówiąc. brałbym albo 780. albo 980. ew titan. generalnie to co ma najwiecej ramu chyba że strzelasz małe sprawy studyjne packshoty etc. to wtedy 780 ti. Wstrzymałbym się też chyba osobiście do nowych kart nvidi bo może wkońcu będzie unifikacja pamięci. tak więc warto by poczekać. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
gregorym Napisano 6 Październik 2015 Autor Share Napisano 6 Październik 2015 Dzięki. Zastosowanie - głównie wizualizacje. Fajnie że to forum żyje bo to pierwsze posty moje tutaj :) Ale jak wcześniej pisałem - chciałbym przejść do rzeczy i konkretów żeby przeliczyć na żywym towarze - nie tylko na swoje potrzeby i nie tylko na topowych nowościach za >3Kzł - w co warto zainwestować jeśli chce się korzystać z CUDA na dowolnej platformie Stąd moja prośba o scenki do testów. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Maciek Jutrzenka Napisano 6 Październik 2015 Share Napisano 6 Październik 2015 Polecam tą strone. nie mogłem znaleźć gdzie są z 980 ale są. mogę ci podesłać scene do Blendera na priv jeśli chcesz. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
gregorym Napisano 6 Październik 2015 Autor Share Napisano 6 Październik 2015 wygląda na to że zakup 560ti był inwestycją życia... ;) włożę resztę do sprawdzenia i pewnie wystawię na allegro namiar poszedł na priv, dzięki! Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Maciek Jutrzenka Napisano 6 Październik 2015 Share Napisano 6 Październik 2015 Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Maciek Jutrzenka Napisano 7 Październik 2015 Share Napisano 7 Październik 2015 a bym zapomniał. Lepiej kupić jedną mega mocną karte niż 2 słabe. w sensie Więcej niż 2 karty. skalowanie jest naprawdę słabe... Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Monio Napisano 7 Październik 2015 Share Napisano 7 Październik 2015 Wstrzymałbym się też chyba osobiście do nowych kart nvidi bo może wkońcu będzie unifikacja pamięci. tak więc warto by poczekać.Świetna rada. Nie. Optymistycznie Pascal ma wyjść w marcu przyszłego roku a realistycznie w okolicach maja przez opóźnienia w produkcji pamięci HBM (AMD ma priorytet na nie). Pół roku czekania + minimum pół roku czekania aż Octane/iRay zaczną supportować tą architekturę. Lepiej kupić jedną mega mocną karte niż 2 słabe. w sensie Więcej niż 2 karty. skalowanie jest naprawdę słabe...Skąd ty bierzesz te bzdury? Pochrzaniło ci się kompletnie z SLI i renderingiem realtime w grach. Skalowanie GPGPU jest liniowe czyli doskonałe... wystarczy tylko odłączyć mostek SLI żeby mieć niezależne wątki. Dwie karty = 200% mocy, to proste. Jedyne co przemawia za pojedynczą mocną kartą to ilość pamięci ale obecnie i tak nie ma dużego wyboru- 4 albo 6 giga, nic innego się już nie opłaca. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Maciek Jutrzenka Napisano 7 Październik 2015 Share Napisano 7 Październik 2015 skalowanie z SLI to jest już porażka całkowita. Zresztą SLI się nie używa przy renderingu. natomiast dwie karty nie dają 200%. nie wiem skąd wziołeś ta bzdure.. 180% to jest absolutne maximum, zazwyczaj jest to 160% Co do czekania no dla mnie osobiście pół roku to nie jest aż tak dużo jeśli zamierzam wydać pare tyś Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Monio Napisano 7 Październik 2015 Share Napisano 7 Październik 2015 Oczywiście że 2 karty dają 200% bo to przecież są niezależne jednostki obliczeniowe. Nie jak 2 wątki procesora tylko jak 2 osobne komputery, jak w renderfarmie, albo jak twój komp i komp sąsiada. Jak odpalasz render to twojemu sąsiadowi zaczyna lagować gra? Jedyne co teoretycznie może być ograniczeniem wydajności w takim setupie to CPU. Tylko w takim wypadku mówimy o antycznych modelach nie produkowanych od lat więc nie ma co tematu poruszać nawet. Siejesz dezinformacje, mniej pisz a więcej czytaj. ;) Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Maciek Jutrzenka Napisano 7 Październik 2015 Share Napisano 7 Październik 2015 eh monio monio. jak cię lubie i zazwyczaj masz racje. to tym razem gadasz mega głupoty i kazdy kto się interesuje renderingiem na GPU wie jak bardzo głupote piszesz. wystarczy popatrzeć na testy wielu użytkowników i tak np GTX Titan który jest de fakto teslą i został zaprojektowany z myślą o skalowaniu. to nawet on traci 10% na każdym następnym GPU. w najlepszym scenariuszu Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Monio Napisano 8 Październik 2015 Share Napisano 8 Październik 2015 (edytowane) Chyba jak wyłączysz chłodzenie i owiniesz kompa kołdrą. ;) To nawet nie jest skalowanie jak ilość rdzeni w CPU. To są osobne jednostki obliczeniowe które się ze sobą w ogóle nie synchronizują, mają osobną pamięć. Najpewniej oglądałeś jakieś testów robionych przez ludzi którzy nie wiedzą na czym polega rendering GPGPU i mieli karty spięte mostkiem SLI. Benchmarki robione przez ogarniętych ludzi pokazują skalowanie liniowe. https://render.otoy.com/octanebench/results.php Średnie wyniki dla GTX 780: x1 = 84.83 x2 = 167.91 = 2 * 83.96 x3 = 246.34 = 3 * 82.11 x4 = 354.58 = 4 * 88.64 Edytowane 8 Październik 2015 przez Monio Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Maciek Jutrzenka Napisano 8 Październik 2015 Share Napisano 8 Październik 2015 (edytowane) Chyba jak wyłączysz chłodzenie i owiniesz kompa kołdrą. ;) To nawet nie jest skalowanie jak ilość rdzeni w CPU. To są osobne jednostki obliczeniowe które się ze sobą w ogóle nie synchronizują, mają osobną pamięć. Najpewniej oglądałeś jakieś testów robionych przez ludzi którzy nie wiedzą na czym polega rendering GPGPU i mieli karty spięte mostkiem SLI. Benchmarki robione przez ogarniętych ludzi pokazują skalowanie liniowe. yhymn yhymn człowieku błagam nie brnij.. nie ma szans że po dołożeniu 2 karty. będziesz miał skalowanie 200%. Nawet tesla. która jest w ogóle kartą tylko do liczenia i nie musi nic wyświetlać czyli czeka aż jej coś dasz do liczenia i tyle. Nawet one. maja wydajnośc 90-95%. przy dobrze napisanym sofcie. co pokazują benchmarki NVIDI! ale ci monio wie lepiej. Natomiast przy zwykłych kartach. nie ma szans na wydajność na tym poziomie, fizyki nie oszukasz. a jeszcze dochodzi fakt! że jedna karta jest używana jako wyświetlacz. pierwszy lepszy przykład z brzegu. GTX 580 34:91 x2 GTX 580 20:49 a tutaj już GTX titan / tesla. Starata jest 10-15% na każdej karcie. Robiłem testy sam, wiele ludzi robiło jest zylion tematów na forach na ten temat. Wiec serio przestań. bo teraz zaczynam watpic we wszystkie twoje wypowiedzi patrząc że na tak banalny temat gadasz takie bzdury. hahaha serio? porównujesz czas 2 innych komputerów. pozdrawiam. Edytowane 8 Październik 2015 przez Maciek Jutrzenka Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Maciek Jutrzenka Napisano 8 Październik 2015 Share Napisano 8 Październik 2015 Umując to najprościej jak się da. Nawet gdyby obie karty skalowały się zajebiście tak że obie dają 200%. to i tak jedna karta pracuje jako wyświetlacz :D i jej wydajnośc jest mniejsza. bardziej opłaca się kupić kartę która ma 3000 rdzeni. niż 2 karty które mają 1500 rdzeni. O ile w renderingu skalowanie jest w miare dobre ostatnimi czasy pokazuja to titany i 980. naprawde poprawili sprawę co widac po 580 np. to o tyle w Viewporcie. sprawa siada. totalnie bieda! pokazują to filmiki na YT że przyrost wydajności jest nikły. nawet na GTX titanach. Dlatego lepiej kupić 1 mocną niż 2 słabe. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Maciek Jutrzenka Napisano 8 Październik 2015 Share Napisano 8 Październik 2015 pomijając że tanie karty mają mało ramu.. a topowe mają dużo Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Monio Napisano 8 Październik 2015 Share Napisano 8 Październik 2015 (edytowane) Ciekawe w jaki sposób wyparowało mu 2240 rdzeni jak połączył te Titany. ;) Widzisz. Myślisz że mówisz o renderingu GPU a ty mówisz o niedopracowaniu Cyclesa. Nie wiem jak jesteś na bieżąco z developmentem ale coś ci uświadomię: Cycles nie jest zoptymalizowany do renderingu multi GPU, nigdy nie były prowadzone nad tym prace bo Brecht zawsze skupiał się na CPU (to ma sens bo GPU to nadal duże limitacje). Da się renderować na kilku kartach dzięki prototypowej funkcji która nie zmieniła się od 2012 roku, tworzy kolosalny overhead na CPU, tym większy im więcej kart wsadzisz. Na dopracowanych renderereach GPU nie zobaczysz czegoś takiego. Cycles nie jest dostosowany nawet do architektury GTX 5xx a co dopiero nowszych. Cycles nie korzysta też z dzisiejszych funkcji biblioteki CUDA. Ten kod (architektura, nie funkcje) pamięta 2011 rok a zmiany które zadziały się w GPGPU od tamtego czasu są ogromne. Na trackerze poczytasz o bugach typu zapychanie RAMu drugiej karty śmieciami przy renderungu multi-gpu. Developerzy o tym wszystkim wiedzą i to w swoim czasie naprawią, dokładniej podczas prac nad Kernel-splitem. Obstawiam początek 2017 najwcześniej. Krótko mówiąc opisujesz rendering GPGPU na podstawie jednego programu który jest niedokończony i niedostosowany do dzisiejszych technologii. Popatrz jak to wygląda w rendererach które są doszlifowane. Octane skaluje się liniowo, iRay skaluje się niemalże liniowo. Autor tego wątku nie pisał nic o Cyclesie więc go tu nie wpychaj. O ramie już pisałem. Wiadomo że nie chodzi o wrzucenie pięciu GTX460 zamiast jednej dobrej karty. Edytowane 8 Październik 2015 przez Monio Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Maciek Jutrzenka Napisano 9 Październik 2015 Share Napisano 9 Październik 2015 no ja sie tutaj z tobą zgadzam ale chodzi mi że one się nie skalują idealnie 200% tylko no te 5-10% w najlepszych scenariuszach zawsze ucieka. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
1pudel Napisano 10 Październik 2015 Share Napisano 10 Październik 2015 gregorym porobiłeś jakieś testy?? Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
gregorym Napisano 16 Listopad 2015 Autor Share Napisano 16 Listopad 2015 Witajcie wygospodarowałem nieco czasu i przetestowałem kilka kart pod 3DSMAX (iray) oraz Octane wyniki poniżej na wklejonym obrazku plus link do pliku xls (nie jestem miszczem post'owania... ;) Test wykonałem na najnowszych sterownikach, taka sama konfiguracja sprzętu za każdym razem. Z miernikiem zużycia energii. Cel - sprawdzenie co jest odpowiedzialne za szybkość renderowania na GPU (#tranzystorów? wydajność zmiennoprz.? CUDA cores? ....) Wniosek jest taki, że nie wiem jaki wniosek wyciągnąć. Kupy się to nie trzyma... :)))) Wyniki w Octane są zbieżne bardzo z tym co publikowane na stronie otoy Natomiast 3DSMAX...... Moje stare poczciwe 3x560ti przegoniło mocno Titana i 690 idąc łeb w łeb z 780ti... :) - fakt, że przy przwie 2x większym poborze mocy... ;P Mój osobisty wniosek - brać 780ti. Wydajność/cena przy uwzględnieniu kosztów prądu chyba bezkonkurencyjna. pozdrawiam! https://dl.dropboxusercontent.com/u/40093599/GTX_2015.xlsx Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Maciek Jutrzenka Napisano 16 Listopad 2015 Share Napisano 16 Listopad 2015 od kiedy niby 560 ti ma 6 giga ramu? ja tam bym brał GTX titana albo GTX titana X bo na 3 giga ramu to se można szampon w studiu wyrenderować :P Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
gregorym Napisano 16 Listopad 2015 Autor Share Napisano 16 Listopad 2015 od kiedy niby 560 ti ma 6 giga ramu? ja tam bym brał GTX titana albo GTX titana X bo na 3 giga ramu to se można szampon w studiu wyrenderować :P moje mają 2GB -> 3x2GB=6 :) Masz rację - powinno być w tabelce raczej 2GB Do prostych wizualizacji 3GB wystarczy. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Maciek Jutrzenka Napisano 16 Listopad 2015 Share Napisano 16 Listopad 2015 ale.. wiesz że ta pamieć się nie dodaje :P Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
norden Napisano 16 Listopad 2015 Share Napisano 16 Listopad 2015 (edytowane) Ta...2x kart daja powiedzmy prawie dokladnie 200%. Nie wiem jednak i jest dla mnie zawsze zagadka minimalne roznice w czasach renderingu rzedu 1-2s dla tych samych taskow. Przynajmniej w maxie ma to miejsce... Zawsze jest drobna roznica czasowa. Na CPU zazwyczaj dostanei sie identyczne czasy. Na GPU jest inaczej. Moze inne rzeczy wplywaja na to z jaka predkoscia pracuja karty graficzne. http://stackoverflow.com/questions/18311846/time-dependent-variation-in-cuda-kernel-performance Edytowane 16 Listopad 2015 przez norden Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
gregorym Napisano 16 Listopad 2015 Autor Share Napisano 16 Listopad 2015 ale.. wiesz że ta pamieć się nie dodaje :P wieeeem... skopiowana formuła w excelu dla 3x 560ti :) Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
materalia Napisano 17 Listopad 2015 Share Napisano 17 Listopad 2015 Nie wiem jednak i jest dla mnie zawsze zagadka minimalne roznice w czasach renderingu rzedu 1-2s dla tych samych taskow. bo tam jest używana metoda Monte-Carlo, a przy dużej liczbie uruchamianych zależnych procesów, tak jest na GPU, różnice w rozkładzie są znacznie większe, co przekłada się na niewielkie często obserwowalne różnice w czasie renderingu. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Rekomendowane odpowiedzi
Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto
Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.
Zarejestruj nowe konto
Załóż nowe konto. To bardzo proste!
Zarejestruj sięZaloguj się
Posiadasz już konto? Zaloguj się poniżej.
Zaloguj się