Marcin Napisano 4 Październik 2009 Napisano 4 Październik 2009 (edytowane) Witam. Przymierzam się do kupna karty graficznej i po wątku Wierzby zastanawiam się też powoli nad kupnem Nvidia Quatro. Prośba do was: Czy moglibyście otworzyć niżej załączoną scenę i wraz z opisem wartości FPS podać specyfikacje waszych skrzynek? http://www.augustow.mm.pl/~marviz/FPStest.zip Otwórzcie to w maxie i zanotujcie: 1. Ilość FPS wewnątrz w trybie Smooth+Hightlights 2. Zaznaczcie tą ścianę, wejdźcie do modyfikatora Editpoly, zaznaczcie subtool "Polygon". Powinny wam się zaznaczyć na czerwono 69120 polygony. Zanotujcie ilość FPS w takim trybie. 3. To samo co w punkcie pierwszym tylko włączcie "Edged faces" U mnie na: Tryb: D3D Quad Q6600 Nvidia Geforce 7950GT Windows XP 64Bit 1. 57 FPS 2. 1,6 FPS 3. 46 FPS Nie używam w scenie żadnych shaderów DirectX, moim zdaniem najważniejsze wyniki są właśnie dla takiego trybu, dużo polygonów w jednym obiekcie i działania na shaded polygonach. Ps. Jeszcze napiszcie czy macie maxa odpalonego na OpenGL czy D3D Pozdrawiam, Marcin. Edytowane 5 Październik 2009 przez Marcin
arev Napisano 4 Październik 2009 Napisano 4 Październik 2009 C2Q 6600 Nvidia Quadro FX 5600 Vista x64 Performance Driver 1. 130 FPS 2. 1,6 FPS 3. 70 FPS Drugi test obciąża procesor, a nie kartę graficzną.
RA Napisano 4 Październik 2009 Napisano 4 Październik 2009 C2Q6600 Radeon HD4850 (fabrycznie wyższe numerki: 700 zegar i 1100 pamięci x2) Win7 x64 (już mocno wyeksploatowany ;)) D3D 1. 125 FPS 2. 1,25 FPS 3. 60 FPS Więc mam prawie quadro, jupi. ;)
Araiel Napisano 4 Październik 2009 Napisano 4 Październik 2009 i7 920 GeForce GTX260 Vista x64 D3D 1. tutaj nie wiem co podać, bo wartości zmeniają się niesamowicie - przez większość czasu lata po 410-530 FPS a czasem spadnie na 140-150 FPS (domyślam się, że prawidłowy jest ten drugi pomiar :) ) 2. 1,8 - 1,9 FPS 3. 75 - 93 FPS
mrkrzysiek Napisano 4 Październik 2009 Napisano 4 Październik 2009 (edytowane) C2Q 6600 podkręcony na 3.0 Geforce 8800 gts 512 Win7 x64 8GB ramu D3D max 2009 1. 344 2. 1,54 3. 312-315 max 2010 1. 520- 543 2. 1,39 3. 470-497 Edytowane 4 Październik 2009 przez mrkrzysiek
KLICEK Napisano 4 Październik 2009 Napisano 4 Październik 2009 Hejka q9300 2,5 ghz Geforce 8800 gts 512 Winxp x64 8GB ramu D3D 1.380 2. 5 3. 310
arev Napisano 4 Październik 2009 Napisano 4 Październik 2009 Klicek, mrkrzysiek, chyba z piekła te GeForce'y macie :>
KLICEK Napisano 4 Październik 2009 Napisano 4 Październik 2009 tak wracajac do tematu to Marcin, pracowalem na quadro w pracy i powiem tyle "ale gowno", przerost formy nad trescia ;) quadro jest dobre tylko do niektorych prac, no i w quadro nie trzeba tyle czekac na wrzucenie obiektow do ramu, ma wiekszy fill i nie ma efektu szarpania przed obracaniem obiektu ;) a tak to ta karta jest maxymalnie slaba i nie nadaje sie do niczego ;) zwykly gf 8800 ma lepsze osiagi, wiec nie warto wydawac kasy, no chyba ze zalezy Ci na supporcie ;)
NV Napisano 4 Październik 2009 Napisano 4 Październik 2009 Q9300@3,2 HD 4850 512 @ 700/2050 4GB DDR 800 1. 140 (min:120 max.246 avg:140) 2. 1,8 3. 80 (min:70 max:240 avg:80) D3D Win 7 x64 3dsmax 2009 SP1
Marcin Napisano 4 Październik 2009 Autor Napisano 4 Październik 2009 Arev - faktycznie, teraz to zauważyłem :/ Klicior - no właśnie widze, cach`owanie obiektów faktycznie na quatro trwa znacznie krócej i nie czuć tego szarpnięcia. To chyba nie powód do wydania takiej sumy na grafe :/ Ma ktoś sprzęt na 2 xenonach do przetestowania trybu z opcji 2?
MaxymilianMax Napisano 5 Październik 2009 Napisano 5 Październik 2009 Intel Pentium Dual Core 2x3Ghz GF9600GT DIrectX 9 Vista x64 Max 2009 1. 280-320 2. 1.5 3. 39 Pytanie od uzytkowników Quadro.. czy używacie sterowników od Nvidi Maxtreme (specjalnie pod Maxa stworzone)? ;) http://www.nvidia.com/object/maxtreme_workstation.html
KLICEK Napisano 5 Październik 2009 Napisano 5 Październik 2009 Ma ktoś sprzęt na 2 xenonach do przetestowania trybu z opcji 2? nie ma prawie zadnej roznicy ;)
Marcin Napisano 5 Październik 2009 Autor Napisano 5 Październik 2009 (edytowane) Dobra, teraz bez jaj Klicior, powiedz jak wycisnąłeś te 5 fps :D update w moim poście, coś musiałem mieć zrąbane z serownikami, teraz jest prawie 2x więcej oprócz trybu 2. Edytowane 5 Październik 2009 przez Marcin
chudy Napisano 5 Październik 2009 Napisano 5 Październik 2009 C2D 2.66Ghz 4GB DDR2 800MHz GeForce Quadro FX570 1. 28,8 FPS 2. 2,8 FPS 3. 30,8 Powiem tyle. Ta karta to szajs jakich mało. Kosztuje prawie 700zł i się nie nadaje do niczego :P. No ale szef się uparł. Nie miałem nic do gadania :)
tweety Napisano 5 Październik 2009 Napisano 5 Październik 2009 Quad Q9400 2.66GHz 8GB RAM Nvidia GeForce 9800 GT D3D winXP prof x64 1. 415 2. 1,7 3. 353 z tymi zaznaczonymi polygonami to jest odwieczny problem maxa :]
kozioo Napisano 5 Październik 2009 Napisano 5 Październik 2009 1. 330-380 2. ~1 ;-) 3. 70-230 - strasznie duża rozbieżność wskazań tryb D3D (9.0) q6600 nv gf9600gso 8GB DDR2 viśta home premium x64 Będę śledził wątek bardzo uważnie :)
claude Napisano 5 Październik 2009 Napisano 5 Październik 2009 i7 920 @ 3GHz 6 GB RAM Nvidia GeForce 9600GT Win7 x64 1. 418 2. 1.7 3. 10
Bilay Napisano 5 Październik 2009 Napisano 5 Październik 2009 1. 327 2. 1,5 3. 89 D3D 9.0 2x Xeon E5430 gtx280 winxp x64
NV Napisano 5 Październik 2009 Napisano 5 Październik 2009 Imo wniosek taki, że poczekaj na GT300 i wtedy dokonaj zakupu ;) Quadro jak widać mają słąby stosunek ceny do możliwości.
grizleyd Napisano 5 Październik 2009 Napisano 5 Październik 2009 jedna mała rzecz wam panowie umkneła 3ds Max 2009 x64 *w opcji view Show Material in Viewport Hardware and Maps 9800 gt q6600 /3mhz I) 1 . 10.5 fps 2 . 0.5 fps 3 . -0 fps :) ------------------ 3ds Max 2009 x64 *w opcji view Show Material in Viewport Standart and Maps II) 1. 500 fps 2 1.5 fps 3 41 fps znaczy sie ze 2 wypadku liczy cpu ?
dokturpotfor Napisano 6 Październik 2009 Napisano 6 Październik 2009 Czolem, Sorki ze sie wetne ale bez sensu ten test. 3ds max jest aplikacja ograniczona przez cpu a nie gpu i taka scena za ch...iny nie pokaze skalowania gpu. Moja karta (4870 1gb, 8 x 2ghz opteron) miala jakies 130 fpsow w pierwszym tescie na rozdzielczosci: 1920x1200 ... i 1280 x 1024 i 800 x 600... slabo... zrobilem drugi test 1.5 fps ... tez slabo... odpalilem PIX'a (debbuger direct x) i co widze? uzycie karty graficznej na poziomie troche ponizej 2% :) Przepialem kompa do renderowania (zintegrowana na plycie karta radeon 3300 i procek 3.2 ghz) i wyniki: 100 w pierwszym tescie 2.5 fps w drugim tescie. Ale PIX pokazuje 100% uzycia karty graficznej, dopiero przy takiej slabej karcie przy 1900 x 1200 karta byla elementem ograniczajacym wydajnosc wyswietlania w viewporcie. Jaki z tego wniosek ? Max jest aplikacja ograniczona przez cpu (co w sumie jest wiadome od wielu lat), pare slow komentarza: Directx9 vs Directx10 vs opengl Directx jest api duzo lepiej ustandaryzowanym (niestety) i wygodniejszym w obsludze niz opengl (opengl... przynajmniej w wersjach do 2.0 to eklektyczny zbitek standardow, rozszerzen itd wprowadzanych przez rozne firmy - co moim zdaniem odstrasza ceniacych swoj czas programistow m.in. mnie :) ). Oba te interfejsy programistyczne mieszcza sie miedzy aplikacja a sterownikiem karty graficznej. Karta graficzna to takie urzadzenie ktore ma stan. Modyfikacje stanu pozwalaja kontrolowac w jaki sposob wyswietlany jest obraz... przyklad stanu: macierz przeksztalcenia swiata, macierz perspektywy, ustawienia mgly, tekstura w kanale 0, tekstura w kanale n, podpiety bufor wierzcholkow, podpiety bufor indeksow, aktualnie ustawiony pixel shader, aktualnie ustawiony vertex shader, aktualnie ustawiona dziesiata zmienna aktualnie ustawionego pixel shadera.. itd itp... nie sklamie jesli powiem ze na karcie zgodnej z dx9c jest z 500 parametrow kontrolujacych jak wyswietlany ma byc trojkat (choc najczesciej korzysta sie moze z 50 najwazniejszych). Wada dx9 jest to ze zmiany stanow sa... baardzo wolne... opengl w pojedynczych instrukcjach (wywolaniach api) jest do 10 razy szybszy.. jest to po prostu duzo lzejsze api.. byc moze jest to zwiazane z postacia directx (jest to com'owy standard, duzo narzutu na zarzadzanie kodem) a moze po prostu opengl posiada lepsza granulacje swoich funkcji. Dlaczego wiec tak popularne stalo sie directx kosztem opengl? coz... microsoft okazal sie bardzo dobrym graczem na tym rynku i zlapal za morde swoje api. directx rozwijal sie bardzo regularnie (teraz wychodzi 27 rewizja od 1995 roku, czyli praktycznie dwie co rok, nie liczac wydan z bugfixami i niewielkimi poprawkami), jest dobrze ustandaryzowany (co jest bardzo wazne dla developerow) no i przez to ze directx jest wlasnoscia microsoftu i microsoft decyduje co tam sie ma znalezc jest lewar na producentow sprzetu multimedialnego by api bylo jednolite. Po drugiej stronie komitet opengl (khronos) obraduje, obraduje, obraduje... od 1992 roku kiedy SGI zaproponowalo openGL doczekalismy sie z 7 istotnych rewizji standardu (1, 1.1, 1.2, (pierdoly 1.3 1.4), 1.5, 2.0, 2.1, i teraz .3 (3.1, 3.2 sa w planach). A jak wiemy sprzet do 3d rozwija sie od parunastu lat w zastraszajacym tempie, producenci nie czekajac na khronosa zaczeli wydawac swoje rozszerzenia do standardow: obsluge shaderow (ilez lat trzeba bylo czekac aby shadery weszly do openGL), obsluge kompresji obrazu, obsluge vertex bufferow itd itp... aby utrzymac kod ktory: a) oferowal bajery wspierane przez nowe karty, b) obslugiwal wszystkich (lub najwazniejszych) producentow - trzeba bylo niestety korzystac z rozszerzen openGL, co nie bylo ani mile ani latwe (wyobrazacie sobie api tworzone przez x firm rownolegle). Miedzy innymi tak wazna jest teraz w swiecie stacji roboczych i kart graficznych dla stacji roboczych tzw. certyfikacja sprzetu i oprogramowania :) . Dopiero directX 10 wprowadzil instytucje przelaczalnych stanow (tzn definiujemy np 10 stanow ktore szybko mozemy przelaczac) ktora wreszcie dziala jak powinna (we wczesniejszych wersjach tez byly narzedzia do grupowania zmian stanow, ale dzialaly po prostu jako listy wywolan zmian stanow, nie dajac poprawy wydajnosci - po prostu mozna bylo nagrac takie jakby 'makro' i je odpalic). Direct10 jest duzo lzejszy niz 9c co dobrze rokuje na przyszlosc. Ale wrocmy do zagadki dlaczego max jest ograniczony przez cpu. Batching W najprostszym przypadku wyswietlenie 1000 obiektow wyglada tak: dla kazdego obiektu ustaw teksture diff ustaw texture norm ustaw texture ao ... ustaw macierz swiata ustaw w pixel shaderze wartosc zmiennej self illumination na 0.5 ustaw w vertex shaderze wartosc zmiennej macierz swiata na xyzwxyzw... ustaw bleblelbe .... wyrysuj mesha wg. indeksow 1001...2000 z bufora wierzcholkow 1....1000 i zastanowmy sie ile operacji mozna zaoszczedzic odpowiednio grupujac obiekty. np jezeli mamy dwie tekstury A i B to moze sie zdarzyc ze zly porzadek obiektow wymusi czeste zmiany tekstur (tyle ile obiektow): A B A B A B ... grupujac obiekty: A A A A A ... A B B B B B ... B wystarcza nam dwie zmiany tekstur. Oczywiscie w wypadku gdy parametrow jest kilkadziesiat (tekstury, zmienne shaderow, shadery, bufory wierzcholkow itd) takie grupowanie nie jest latwe (czesto grupujac po jednym parametrze, rozgrupowywujemy po drugim) i stanowi nie lada problem algorytmiczny. Przyklad... do jednego projektu tworzonego na bazie napisanego przeze mnie silnika potrzebowalismy szybko skladac 'poziomy' z prefabow... czas gonil (a nie mielismy jeszcze dedykowanego edytora) postanowilismy napisac proste narzedzia jako pluginy do maxa (i to byl blad). Przykladowy poziom 5 milionow trojkatow, 10 tekstur w atlasach, 3000 obiektow zreferencjonowanych z 200 prefabow. Predkosc w maxie z flatem z kamery 2 fps... predkosc w silniku (z ao, dynamicznymi swiatlami i cieniami, z kilkoma oszkieletowanymi postaciami z dziesiatkami tysiecy czasteczkowych zdzbel trawy, dymem i ogniem) - 130 fps. Skad taka roznica ? Zdebugowalem maxa i wlasnie okazalo sie ze zmiany stanow sa wykonywane bez jakiegokolwiek batchowania (grupowania), dodatkowo debug pokazal ze max korzysta z biblioteki D3DX (to jest taka biblioteka pomocnicza) i ich implementacji D3DXMesh itd... ktore moze sa niezle napisane itd... ale to implementacja biblioteczna ktora raczej sluzy szybkiemu prototypowaniu i nauce niz umieszczeniu w programie za 5000$ za licencje. (Gwoli wyjasnienia silnik oczywiscie usuwa niewidziane obiekty (system portali itd.. )tak wiec w grze bylo troche mniej polycountu ale podobnego rzedu (np 1 mln z 5 mln) co nie tlumaczy drastycznego spadku wydajnosci) Polycount Jeden gosc ktory przyszedl do nas pracowac (low poly) bardzo chcial optymalizowac modele (walczyc o kazdy trojkat). Troche sie zdziwil kiedy mu powiedzialem zeby dla modeli ponizej 2000 trojkatow nie myslal polycountem tylko fillratem (czyli jaki duzy bedzie obiekt na ekranie a nie ile ma trojkatow). Skad taka rada ? Otoz, wbrew intuicji, obiekty malutkie (w ilosci trojkatow) i male (w ilosci trojkatow) o takim samym rozmiarze renderuja sie.... tak samo szybko... skad taki paradoks ? Trzeba myslec o komputerze z karta graficzna jako o dwoch rownoleglych procesorach. Komunikuja sie one np. przez api (dx, opengl), sterownik, pozniej przez DMA, po szynie danych (pciE). Karta graficzna ma swoja 'kolejke' zadan do wykonania. Teraz program przy pomocy api wydaje polecenie: wyrysuj obiekt ABC. Co sie dzieje? Zaczyna dzialac implementacja API, ktora komunikuje sie ze sterownikiem karty, laduje dane do pamieci DMA, ta jest kopiowana na karte graficzna do pamieci karty, trafia na kolejke. Jesli karta byla wolna - zaczyna renderowac, jesli nie, zacznie renderowac kiedy wykona poprzednie zadania. I teraz zalozmy ze wydanie polecenia trwa 1/100 sekundy (api, sterownik, pamiec, szyna) co sie dzieje jesli wysylamy paczki danych (zadania) ktorych wykonanie trwa 1/1000 sekundy? Zasymulujmy: wysylamy paczke procesor dziala 1/100 sekundy, paczka trafia na karte graficzna i zaczyna sie rendering. Rownoczesnie procesor zaczyna wysylac kolejna paczke, po 1/1000 karta graficzna skonczyla rysowac wczesniejsza paczke, ale procesor dopiero jest w 10% wysylania drugiej... przez kolejne 9/1000 karta graficzna sie nudzi... 90% czasu! Przetestowalem swoj silnik pod katem pustego przebiegu... Da sie zauwazyc iz ponizej pewnego progu (np dla moich standardowych shaderow diff + ao + norm) nie oplaca mi sie wysylac obiektu mniejszego niz 2000 trojkatow. Jest to norma we wspolczesnych silnikach do gier. w maxie w ktorym narzut na cpu co klatke jest duuuzo wiekszy ( przeciez dziala rownoczesnie piecdziesiat innych systemow ktore buduja maxa ) tym samym granica przy ktorej gpu jest wykorzystane w pelni (i tym samym ogranicza system) jest duuuzo wyzej. 3ds max - cudo architektury Po roku pisania pluginow do maxa moge swiadomie stwierdzic, dawno nie widzialem takiego G! Api maxa wyglada jak narosl na narosli na narosli na narosli. Tworcy maxa wybrali znow przeklety COM i tym samym zapewnili sobie wakacje w piekle programistow, w kodzie 2009 znajduja sie miejsca nie zmienione od maxa 2.5, architektura jest przejrzysta jak spaghetti, a kod narzedzi (czesc narzedzi ktore uzywacie na codzien w maxie jest udostepniona w SDK w postaci kodu zrodlowego - niby dla nauki, a moim zdaniem dla przestrogi) pisany jest przez troglodytow (bez ladu i skladu, copy & paste to najczestszy wzorzec projektowy). System jest archaiczny. Dziwie sie ze autodesk nie zrobil 'resetu' kodu juz jakis czas temu, zwlaszcza patrzac na to jak wylaszczylo sie np XSI. uff... ale tyrada, mam nadzieje ze sie wam spodoba i wyjasni troche mitow ktore narosly w okol maxa, kart graficznych itd... 7 3
NV Napisano 6 Październik 2009 Napisano 6 Październik 2009 Hoho ! Post dłuższy niż jakaś recka :D Dzięki za rzeczowe informacje :) Ale jak mieli zresetować kod maxa jak co roku jest nowa wersja ;)
Marcin Napisano 6 Październik 2009 Autor Napisano 6 Październik 2009 ale tyrada, mam nadzieje ze sie wam spodoba i wyjasni troche mitow ktore narosly w okol maxa, kart graficznych itd... Oj spodobał, właśnie po to jest ten wątek, aby wyjaśnić kilka spraw dla mnie jak i dla innych niezrozumiałych. Choć ciężko to zrozumieć w locie bez analizy to nadal kawał dobrego tekstu :) Dzięki +Rep
Orangegraphics Napisano 6 Październik 2009 Napisano 6 Październik 2009 także rep, coś tam mi sięrozjaśniło
lobohome Napisano 7 Październik 2009 Napisano 7 Październik 2009 NVidia quadro FX 5600 Intel Xeon E5450 8x3.00 GHz 8 GB RAM WinXP 64 bit Performance Driver 1. 118 2. 2.07 3. 75
MaxymilianMax Napisano 9 Październik 2009 Napisano 9 Październik 2009 dokturpotfor WIdać sporo trzeba wiedzieć o Maxie , API itd. by napisać własny engine graficzny :) Co do primitywności kodu Maxa. to może napisz do AUtodesku e-maila(ja sie podpisze ;) ) z paroma przykładami jak ich programiści olali ważne sprawy, jaki burdel w kodzie i rozwiazania sprzed prawie 10 lat,, co wpływa na słąbą wydajność ich jednego ze sztandarowych programów... Może ktoś sie zainteresuje jak zobaczy ze ktoś kto ma głowę na karku zwraca im na to uwagę :) ... a może w Max 2010 nie jest już tak źle.. ale wątpliwa sprawa :D
WIERZBA Napisano 23 Październik 2009 Napisano 23 Październik 2009 (edytowane) No i czas na mnie :) Sprzęt : i7 920@3,13 GHZ 12 GB RAM Quadro FX 5800 Vista x 64 Osiągnięte FPS : MAX 2009 1. D3D- 103-168 fps 2. D3D- 1,75-1,93 fps 3. D3D- 76-82 fps 1. OpenGL- 3,75 fps 2. OpenGL- 2,03 fps 3. OpenGL- 2,23 fps 1. Performance- 122-354 fps 2. Performance- 2,63 fps 3. Performance- 85-330 fps MAX 2010 1. D3D- 257-330 fps 2. D3D- 1,65-1,72 fps 3. D3D- 196-376 fps 1. OpenGL- 3,191 fps 2. OpenGL- 1,689 fps 3. OpenGL- 1,98 fps NARESZCIE jest driver 11.11.2009 1. Performance- 511-608 2. Performance- 1,3-1,48 3. Performance- 302-490 Wnioski : 1. Max 2010 jest dużo bardziej wydajny w tym teście niż max 2009 . Potwierdza to tezę Dokturpotfur , że kod samego maxa wymaga przebudowy. 2. OpenGL nie jest obsługiwany w Windows Vista /informacja wg nvidia/ - brak driverów do Autocada , wybierając OpenGL w maxie tak naprawdę wychodzi na to że wybieramy driver Software 3. Performace drivers /stare maxtreme i Powerdraft/ dostarczone do Quadro są wydajniejsze o 20-100% od standardowych D3D i dużo bardziej stabilne . 4. Nie mogę się doczekać kiedy wydadzą performance drivery pod maxa 2010 . 5. W maxie 2009 na performance driverach nigdy , ale to nigdy max i cad nie wywalił się . Potwierdza to fakt , że najważniejsza różnica pomiędzy Quadro i GF to DRIVERY . I tak jeżli używasz XP i Quadro dysponujesz lepiej opracowanymi i wydajniejszymi driverami .W Vista performance drivery do Quadro są już mniej wydajne od standardowych , ale czuć jednak różnicę przede wszystkim w stabilności systemu . Co z tego ,że będziesz miał szybką kartę , która powoduje częste zawieszanie programu - u mnie ma to miejsce przy wszelkiego rodzaju "zwykłych GF" . Jest to najbardziej irytujące przy zawodowej codziennej pracy 10-12 h dziennie . 6. Jeżeli zajmujesz się tylko pracą przy np wizualizacjach nie opłaca sie kupowąć większych modelki Quadro niż fx 3800 . Mój fx 5800 wydajnością nie jest szybszy niż fx 3800 pod maxem i cadem a kosztuje dużo więcej. Moc i możliwości FX 4800 i fx 5800 odczujesz jedynie jeżeki korzystasz na codzień z CUDA , systemów TESLA , pracujesz w TV /kary SDI i Glock / . 7. Ogólna praca w programach Autocad i Max jest bardziej komfortowa z użyciem Quadro - stabilność , szybkość przełączania między oknami , viewportami , szybkość wybierania obiektów , szybkośc ładowania i regeneracja obiektów itd . 8. Rozczarowuje mnie fakty , że do maxa 2010 nie ma jeszcze performance driverów , mimo że program jest już pare miesięcy na rynku . UPDATE 13.11.2009 Nareszcie !!!! wyszedł performance driver pod Quadro . Po zainstolowaniu driverów 191.66 z performance zmiana wydajności i komfort pracy w Maxie poprawił się bardzo znacząco . 1.1. Wzrost wydajności wg w/w tabeli wskazuje blisko 2x przyśpieszenie - i to czuć :) 1.2. Nareszcie praca w maxie stała się stabilna , czego nie można było powiedzieć na zwykłym D3D - wersji driverów 191.00 . Przy dużych modelach z dużą ilością proxy Max potrafił wywalać się przy wyborze komend move , scale itd /nie było tego efektu przy mniejszych modelach/. Z nowym performance driverem nareszcie problem ten został rozwiązany. Edytowane 13 Listopad 2009 przez WIERZBA
kozioo Napisano 7 Listopad 2009 Napisano 7 Listopad 2009 Pozwolę sobie na mały update. Akurat zmieniam kartę graf, więc mam możliwość rzeczywistego porównania wyników. Z przyczyn wyższych zostałem zmuszony do zmiany karty graficznej (z czymś się u mnie gryzie sterownik NV, trafiło mi się kilka bluescreenów, max jest bardzo niestabilny). Zmiana tymczasowa, więc szukałem czegoś niezbyt drogiego. Padło na radeona hd4850. Wg wyników RA i Nvidii (co za ironia teraz zauważyłem ;-) ) moja poprzednia karta (gf 9600gso) powinna być zauważalnie szybsza, szczególnie w trybie smooth + highlights. Jak się okazuje w testach rzeczywistych (sprawdziłem kilka wizualizacji, nad którymi aktualnie pracuję) radeon jest szybszy, zdecydowanie. Na początku obracania/przesuwania widoku jest mały lag (czegoś takiego na GF nie miałem), ale później jest dużo płynniej. Zarówno w trybie wireframe, jak i wygładzonym.
plasti Napisano 7 Listopad 2009 Napisano 7 Listopad 2009 (edytowane) phenom 9650 x4 @ 2,3 mhz 9800gt 1gb 256bit ddr3 win xp 32(bedzie wymiana:D narazie starcza 2 gb 800mhz dual) wiec tak: 1.180 2.1,6 3.53 doktor potwor zna sie na rzeczy, szaaaaaacun stary!!!! Edytowane 7 Listopad 2009 przez plasti
Gość Dexter Napisano 9 Grudzień 2009 Napisano 9 Grudzień 2009 Witam jestem nowy na forum chociaż dosyć często tu zaglądam jako Gość.Ostatnio zmieniałem kompa na AMD Phenom II 955@3800Mhz, karta na razie stara GeForce 8600 GT soft mod na Quadro Fx 1700 podkręcona do 680/1700 MHz.Nie zabardzo wiem o co chodzi w tym teście, kiedy kręce targetem kamery (wydaje mi sie że o to chodzi) osiągam takie wyniki: 1.ok 170-180 2.ok 2-3 3.ok 170-180 Trochę dziwne bo co niektórzy na lepszym sprzęcie osiągają gorsze wyniki. Bez softmod wyniki gorsze o 20,30 klatek. System to Windows 7 64bit, 4GB Ram 1033 cl7 Sterownik DX9 przy przełączeniu na Open Gl wyniki bardzo słabe (znowu dziwne bo w scenie nad którą pracuje ok 1,5 Miliona Poly, dużo lepszą wydajność osiągam na Open Gl). Jeszcze jedna sprawa Max nie chce załadować Performance Driver czy ktoś kto robił soft mod sie z tym uporał?Z góry dzięki. Pozdrawiam forumowiczów.
dokturpotfor Napisano 15 Grudzień 2009 Napisano 15 Grudzień 2009 Mam tu calkiem fajny artykul i webcast tlumaczacy czym roznia sie karty 'do gier' od profesjonalnych: http://tech.icrontic.com/articles/the-real-difference-between-workstation-and-desktop-gpus re: dexter wydaje mi sie ze nowsze serie kart graficznych nie daja sie juz w pelni softmodowac, bo w nowszych generacjach gpu 'do gier' i 'profesjonalne' roznia sie istotnie w budowie... tzn. quadro to nie jest tylko geforce z inna nalepka i geforce po prostu nie jest kompatybilny z perf sterownikami quadro.
Aethersis Napisano 11 Kwiecień 2010 Napisano 11 Kwiecień 2010 Na prawdę fajny artykuł i w sumie całkiem sporo wyjaśnia. Rozwiał wiele moich wątpliwości związanych z opłacalnością zakupu tego typu kart w celu wykorzystania do pracy z 3d maxem, bowiem istotnie - benchmarki pokazujące ilość FPS w grach itp nie są w tym wypadku miarodajne - w końcu te karty nie służą do grania, za to zoptymalizowane są pod zupełnie innym kątem. Szkoda tylko, że ciągle mają wąskie zastosowanie w samym renderingu, za to świetnie sprawdzają się w autorskich aplikacjach napisanych właśnie pod te GPU.
troglodyta Napisano 9 Maj 2010 Napisano 9 Maj 2010 Witam. Przed wczoraj musiałem kupić grafikę i targnąłem się na GTXa470 Przetestowałem go na scence i wynik mam taki: cpu C2QX 9650 4 Gb ram ddr2 800 płyta na p35 Win 7 64 bity MAX 2009 na DX 9 1. - 490-515 fps 2. - 1,5 - 1,6 fps 3. - 448 - 470 fps Nie testowałem na maxie 2010, który jest chyba wydajniejszy pod względem wyświetlania. Porównując do wyników Wierzby z kartą Quadro FX 5800, GF 470 jest wydajniejszy a pewnie parę raza tańszy. A i swoją moc pokaże przy renderingu na GPU (400 coś rdzeni renderujących). Chociaż zapewne jest dużo mniej stabilny.
phlox_subulata Napisano 12 Maj 2010 Napisano 12 Maj 2010 Witam od dawna już nie bywałem na forum, a jak już jestem to przeczytam ciekawe informacje i wracam do pracy ale test jest spoko. Oto moje wyniki przy rozdzielczości ekranu 2048x1536 80Hz tak mi się wydaje że to też ma wpływa na szybkość działania a może nie??. Max 2010. Win 7 64bit i5 750 2.67GHz 4 GB RAM GTX 260 896 MB RAM 1. 290-330 2. 1,4-1,5 3. 209-220 Też zamawiam sprzęt na coś takiego: myślałem nad połączeniem z Teslą ale nie wiem jak to będzie działać, poczytał bym jakieś testy wydajności. i7 980x 16 GB RAM Quadro 4800 Mam nadzieję że to będzie działać bardzo dobrze, ostatnio sceny w maksie nad którymi pracuję maja sporo ponad 6-8 mil poligonów. Zapowiadają się większe. Pozdrawiam
phlox_subulata Napisano 11 Czerwiec 2010 Napisano 11 Czerwiec 2010 Mam test na nowym kompie!! D3D performance test: 1=1267- 1250 fps 2=1,536- 1,576 fps 3= 550- 560 fps i7 980x 12Gb ram Quadro 4800 1,5Gb ram 2x320Gb HDD Jestem zaszokowany pierwszym wynikiem.
phlox_subulata Napisano 12 Czerwiec 2010 Napisano 12 Czerwiec 2010 Jeszcze test na kompie domowym i7 930, 6Gb Ram 1333MHz, GTX 470 1,5Gb, 500GB HDD. Max jak poprzednio 2010, D3D. 1=970-993fps 2=1,625-1,652fps 3=826-847fps Wyniki porównywalne a czasem leprze niż Quadro 4800 w pracy!!! Cenowo duża różnica. Pozdrawiam
Rekomendowane odpowiedzi
Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto
Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.
Zarejestruj nowe konto
Załóż nowe konto. To bardzo proste!
Zarejestruj sięZaloguj się
Posiadasz już konto? Zaloguj się poniżej.
Zaloguj się