Skocz do zawartości

3Ds Max - test FPS kart graficznych.


Rekomendowane odpowiedzi

Napisano (edytowane)

Witam.

 

Przymierzam się do kupna karty graficznej i po wątku Wierzby zastanawiam się też powoli nad kupnem Nvidia Quatro.

 

Prośba do was:

 

Czy moglibyście otworzyć niżej załączoną scenę i wraz z opisem wartości FPS podać specyfikacje waszych skrzynek?

 

http://www.augustow.mm.pl/~marviz/FPStest.zip

 

Otwórzcie to w maxie i zanotujcie:

 

1. Ilość FPS wewnątrz w trybie Smooth+Hightlights

2. Zaznaczcie tą ścianę, wejdźcie do modyfikatora Editpoly, zaznaczcie subtool "Polygon". Powinny wam się zaznaczyć na czerwono 69120 polygony. Zanotujcie ilość FPS w takim trybie.

3. To samo co w punkcie pierwszym tylko włączcie "Edged faces"

 

U mnie na:

 

Tryb: D3D

Quad Q6600

Nvidia Geforce 7950GT

Windows XP 64Bit

 

1. 57 FPS

2. 1,6 FPS

3. 46 FPS

 

Nie używam w scenie żadnych shaderów DirectX, moim zdaniem najważniejsze wyniki są właśnie dla takiego trybu, dużo polygonów w jednym obiekcie i działania na shaded polygonach.

 

Ps. Jeszcze napiszcie czy macie maxa odpalonego na OpenGL czy D3D

 

Pozdrawiam, Marcin.

Edytowane przez Marcin
  • Odpowiedzi 35
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

Napisano

C2Q 6600

Nvidia Quadro FX 5600

Vista x64

Performance Driver

 

1. 130 FPS

2. 1,6 FPS

3. 70 FPS

 

Drugi test obciąża procesor, a nie kartę graficzną.

Napisano

C2Q6600

Radeon HD4850 (fabrycznie wyższe numerki: 700 zegar i 1100 pamięci x2)

Win7 x64 (już mocno wyeksploatowany ;))

D3D

 

1. 125 FPS

2. 1,25 FPS

3. 60 FPS

 

Więc mam prawie quadro, jupi. ;)

Napisano

i7 920

GeForce GTX260

Vista x64

D3D

 

1. tutaj nie wiem co podać, bo wartości zmeniają się niesamowicie - przez większość czasu lata po 410-530 FPS a czasem spadnie na 140-150 FPS (domyślam się, że prawidłowy jest ten drugi pomiar :) )

2. 1,8 - 1,9 FPS

3. 75 - 93 FPS

Napisano (edytowane)

C2Q 6600 podkręcony na 3.0

Geforce 8800 gts 512

Win7 x64

8GB ramu

D3D

 

max 2009

1. 344

2. 1,54

3. 312-315

 

max 2010

1. 520- 543

2. 1,39

3. 470-497

Edytowane przez mrkrzysiek
Napisano

tak wracajac do tematu to Marcin, pracowalem na quadro w pracy i powiem tyle "ale gowno", przerost formy nad trescia ;) quadro jest dobre tylko do niektorych prac, no i w quadro nie trzeba tyle czekac na wrzucenie obiektow do ramu, ma wiekszy fill i nie ma efektu szarpania przed obracaniem obiektu ;) a tak to ta karta jest maxymalnie slaba i nie nadaje sie do niczego ;) zwykly gf 8800 ma lepsze osiagi, wiec nie warto wydawac kasy, no chyba ze zalezy Ci na supporcie ;)

Napisano

Q9300@3,2

HD 4850 512 @ 700/2050

4GB DDR 800

 

1. 140 (min:120 max.246 avg:140)

2. 1,8

3. 80 (min:70 max:240 avg:80)

 

D3D

Win 7 x64

3dsmax 2009 SP1

Napisano

Arev - faktycznie, teraz to zauważyłem :/

 

Klicior - no właśnie widze, cach`owanie obiektów faktycznie na quatro trwa znacznie krócej i nie czuć tego szarpnięcia. To chyba nie powód do wydania takiej sumy na grafe :/

 

Ma ktoś sprzęt na 2 xenonach do przetestowania trybu z opcji 2?

Napisano (edytowane)

Dobra, teraz bez jaj Klicior, powiedz jak wycisnąłeś te 5 fps :D

 

update w moim poście, coś musiałem mieć zrąbane z serownikami, teraz jest prawie 2x więcej oprócz trybu 2.

Edytowane przez Marcin
Napisano

C2D 2.66Ghz

4GB DDR2 800MHz

GeForce Quadro FX570

 

1. 28,8 FPS

2. 2,8 FPS

3. 30,8

 

Powiem tyle. Ta karta to szajs jakich mało. Kosztuje prawie 700zł i się nie nadaje do niczego :P. No ale szef się uparł. Nie miałem nic do gadania :)

Napisano

Quad Q9400 2.66GHz

8GB RAM

Nvidia GeForce 9800 GT

D3D

winXP prof x64

 

 

1. 415

2. 1,7

3. 353

 

z tymi zaznaczonymi polygonami to jest odwieczny problem maxa :]

Napisano

1. 330-380

2. ~1 ;-)

3. 70-230 - strasznie duża rozbieżność wskazań

 

tryb D3D (9.0)

q6600

nv gf9600gso

8GB DDR2

viśta home premium x64

 

Będę śledził wątek bardzo uważnie :)

Napisano

Imo wniosek taki, że poczekaj na GT300 i wtedy dokonaj zakupu ;) Quadro jak widać mają słąby stosunek ceny do możliwości.

Napisano

jedna mała rzecz wam panowie umkneła

3ds Max 2009 x64 *w opcji view Show Material in Viewport Hardware and Maps

9800 gt q6600 /3mhz

 

I)

1 . 10.5 fps

2 . 0.5 fps

3 . -0 fps :)

 

------------------

3ds Max 2009 x64 *w opcji view Show Material in Viewport Standart and Maps

II)

1. 500 fps

2 1.5 fps

3 41 fps

 

znaczy sie ze 2 wypadku liczy cpu ?

Napisano

Czolem,

 

Sorki ze sie wetne ale bez sensu ten test. 3ds max jest aplikacja ograniczona

przez cpu a nie gpu i taka scena za ch...iny nie pokaze skalowania gpu. Moja

karta (4870 1gb, 8 x 2ghz opteron) miala jakies 130 fpsow w pierwszym tescie

na rozdzielczosci: 1920x1200 ... i 1280 x 1024 i 800 x 600... slabo... zrobilem

drugi test 1.5 fps ... tez slabo... odpalilem PIX'a (debbuger direct x) i co

widze? uzycie karty graficznej na poziomie troche ponizej 2% :)

 

Przepialem kompa do renderowania (zintegrowana na plycie karta radeon 3300

i procek 3.2 ghz) i wyniki: 100 w pierwszym tescie 2.5 fps w drugim tescie.

Ale PIX pokazuje 100% uzycia karty graficznej, dopiero przy takiej slabej

karcie przy 1900 x 1200 karta byla elementem ograniczajacym wydajnosc

wyswietlania w viewporcie.

 

Jaki z tego wniosek ? Max jest aplikacja ograniczona przez cpu (co w sumie

jest wiadome od wielu lat), pare slow komentarza:

 

Directx9 vs Directx10 vs opengl

 

Directx jest api duzo lepiej ustandaryzowanym (niestety) i wygodniejszym

w obsludze niz opengl (opengl... przynajmniej w wersjach do 2.0 to

eklektyczny zbitek standardow, rozszerzen itd wprowadzanych przez

rozne firmy - co moim zdaniem odstrasza ceniacych swoj czas programistow

m.in. mnie :) ). Oba te interfejsy programistyczne mieszcza sie miedzy

aplikacja a sterownikiem karty graficznej. Karta graficzna to takie urzadzenie

ktore ma stan. Modyfikacje stanu pozwalaja kontrolowac w jaki sposob

wyswietlany jest obraz... przyklad stanu: macierz przeksztalcenia swiata,

macierz perspektywy, ustawienia mgly, tekstura w kanale 0, tekstura w

kanale n, podpiety bufor wierzcholkow, podpiety bufor indeksow, aktualnie

ustawiony pixel shader, aktualnie ustawiony vertex shader, aktualnie

ustawiona dziesiata zmienna aktualnie ustawionego pixel shadera.. itd itp...

nie sklamie jesli powiem ze na karcie zgodnej z dx9c jest z 500 parametrow

kontrolujacych jak wyswietlany ma byc trojkat (choc najczesciej korzysta

sie moze z 50 najwazniejszych).

 

Wada dx9 jest to ze zmiany stanow sa... baardzo wolne... opengl w

pojedynczych instrukcjach (wywolaniach api) jest do 10 razy szybszy..

jest to po prostu duzo lzejsze api.. byc moze jest to zwiazane z postacia

directx (jest to com'owy standard, duzo narzutu na zarzadzanie kodem) a

moze po prostu opengl posiada lepsza granulacje swoich funkcji.

 

Dlaczego wiec tak popularne stalo sie directx kosztem opengl? coz...

microsoft okazal sie bardzo dobrym graczem na tym rynku i zlapal za

morde swoje api. directx rozwijal sie bardzo regularnie (teraz wychodzi

27 rewizja od 1995 roku, czyli praktycznie dwie co rok, nie liczac wydan

z bugfixami i niewielkimi poprawkami), jest dobrze ustandaryzowany (co jest

bardzo wazne dla developerow) no i przez to ze directx jest wlasnoscia

microsoftu i microsoft decyduje co tam sie ma znalezc jest lewar na

producentow sprzetu multimedialnego by api bylo jednolite. Po drugiej stronie

komitet opengl (khronos) obraduje, obraduje, obraduje... od 1992 roku

kiedy SGI zaproponowalo openGL doczekalismy sie z 7 istotnych rewizji

standardu (1, 1.1, 1.2, (pierdoly 1.3 1.4), 1.5, 2.0, 2.1, i teraz .3 (3.1, 3.2

sa w planach). A jak wiemy sprzet do 3d rozwija sie od parunastu lat

w zastraszajacym tempie, producenci nie czekajac na khronosa zaczeli

wydawac swoje rozszerzenia do standardow: obsluge shaderow (ilez lat

trzeba bylo czekac aby shadery weszly do openGL), obsluge kompresji

obrazu, obsluge vertex bufferow itd itp... aby utrzymac kod ktory: a)

oferowal bajery wspierane przez nowe karty, b) obslugiwal wszystkich

(lub najwazniejszych) producentow - trzeba bylo niestety korzystac

z rozszerzen openGL, co nie bylo ani mile ani latwe (wyobrazacie sobie

api tworzone przez x firm rownolegle). Miedzy innymi tak wazna jest teraz

w swiecie stacji roboczych i kart graficznych dla stacji roboczych tzw.

certyfikacja sprzetu i oprogramowania :) .

 

Dopiero directX 10 wprowadzil instytucje przelaczalnych stanow (tzn

definiujemy np 10 stanow ktore szybko mozemy przelaczac) ktora

wreszcie dziala jak powinna (we wczesniejszych wersjach tez byly

narzedzia do grupowania zmian stanow, ale dzialaly po prostu jako

listy wywolan zmian stanow, nie dajac poprawy wydajnosci - po prostu

mozna bylo nagrac takie jakby 'makro' i je odpalic). Direct10 jest duzo

lzejszy niz 9c co dobrze rokuje na przyszlosc.

 

Ale wrocmy do zagadki dlaczego max jest ograniczony przez cpu.

 

Batching

 

W najprostszym przypadku wyswietlenie 1000 obiektow wyglada tak:

 

dla kazdego obiektu

ustaw teksture diff

ustaw texture norm

ustaw texture ao ...

ustaw macierz swiata

ustaw w pixel shaderze wartosc zmiennej self illumination na 0.5

ustaw w vertex shaderze wartosc zmiennej macierz swiata na xyzwxyzw...

ustaw bleblelbe

....

wyrysuj mesha wg. indeksow 1001...2000 z bufora wierzcholkow 1....1000

 

i zastanowmy sie ile operacji mozna zaoszczedzic odpowiednio grupujac

obiekty. np jezeli mamy dwie tekstury A i B to moze sie zdarzyc ze zly

porzadek obiektow wymusi czeste zmiany tekstur (tyle ile obiektow):

A B A B A B ... grupujac obiekty: A A A A A ... A B B B B B ... B wystarcza

nam dwie zmiany tekstur. Oczywiscie w wypadku gdy parametrow jest

kilkadziesiat (tekstury, zmienne shaderow, shadery, bufory wierzcholkow itd)

takie grupowanie nie jest latwe (czesto grupujac po jednym parametrze,

rozgrupowywujemy po drugim) i stanowi nie lada problem algorytmiczny.

 

Przyklad... do jednego projektu tworzonego na bazie napisanego przeze

mnie silnika potrzebowalismy szybko skladac 'poziomy' z prefabow... czas

gonil (a nie mielismy jeszcze dedykowanego edytora) postanowilismy

napisac proste narzedzia jako pluginy do maxa (i to byl blad). Przykladowy

poziom 5 milionow trojkatow, 10 tekstur w atlasach, 3000 obiektow

zreferencjonowanych z 200 prefabow. Predkosc w maxie z flatem z kamery

2 fps... predkosc w silniku (z ao, dynamicznymi swiatlami i cieniami, z kilkoma

oszkieletowanymi postaciami z dziesiatkami tysiecy czasteczkowych zdzbel

trawy, dymem i ogniem) - 130 fps. Skad taka roznica ? Zdebugowalem maxa

i wlasnie okazalo sie ze zmiany stanow sa wykonywane bez jakiegokolwiek

batchowania (grupowania), dodatkowo debug pokazal ze max korzysta z

biblioteki D3DX (to jest taka biblioteka pomocnicza) i ich implementacji

D3DXMesh itd... ktore moze sa niezle napisane itd... ale to implementacja

biblioteczna ktora raczej sluzy szybkiemu prototypowaniu i nauce niz

umieszczeniu w programie za 5000$ za licencje.

 

(Gwoli wyjasnienia silnik oczywiscie usuwa niewidziane obiekty (system

portali itd.. )tak wiec w grze bylo troche mniej polycountu ale podobnego

rzedu (np 1 mln z 5 mln) co nie tlumaczy drastycznego spadku wydajnosci)

 

Polycount

 

Jeden gosc ktory przyszedl do nas pracowac (low poly) bardzo chcial

optymalizowac modele (walczyc o kazdy trojkat). Troche sie zdziwil

kiedy mu powiedzialem zeby dla modeli ponizej 2000 trojkatow nie myslal

polycountem tylko fillratem (czyli jaki duzy bedzie obiekt na ekranie a nie

ile ma trojkatow). Skad taka rada ? Otoz, wbrew intuicji, obiekty malutkie

(w ilosci trojkatow) i male (w ilosci trojkatow) o takim samym rozmiarze

renderuja sie.... tak samo szybko... skad taki paradoks ? Trzeba myslec

o komputerze z karta graficzna jako o dwoch rownoleglych procesorach.

Komunikuja sie one np. przez api (dx, opengl), sterownik, pozniej przez DMA,

po szynie danych (pciE). Karta graficzna ma swoja 'kolejke' zadan do

wykonania. Teraz program przy pomocy api wydaje polecenie: wyrysuj

obiekt ABC. Co sie dzieje? Zaczyna dzialac implementacja API, ktora

komunikuje sie ze sterownikiem karty, laduje dane do pamieci DMA,

ta jest kopiowana na karte graficzna do pamieci karty, trafia na kolejke.

Jesli karta byla wolna - zaczyna renderowac, jesli nie, zacznie renderowac

kiedy wykona poprzednie zadania. I teraz zalozmy ze wydanie polecenia

trwa 1/100 sekundy (api, sterownik, pamiec, szyna) co sie dzieje jesli

wysylamy paczki danych (zadania) ktorych wykonanie trwa 1/1000 sekundy?

 

Zasymulujmy: wysylamy paczke procesor dziala 1/100 sekundy, paczka

trafia na karte graficzna i zaczyna sie rendering. Rownoczesnie procesor

zaczyna wysylac kolejna paczke, po 1/1000 karta graficzna skonczyla

rysowac wczesniejsza paczke, ale procesor dopiero jest w 10% wysylania

drugiej... przez kolejne 9/1000 karta graficzna sie nudzi... 90% czasu!

 

Przetestowalem swoj silnik pod katem pustego przebiegu... Da sie zauwazyc

iz ponizej pewnego progu (np dla moich standardowych shaderow diff + ao +

norm) nie oplaca mi sie wysylac obiektu mniejszego niz 2000 trojkatow. Jest

to norma we wspolczesnych silnikach do gier. w maxie w ktorym narzut na

cpu co klatke jest duuuzo wiekszy ( przeciez dziala rownoczesnie piecdziesiat

innych systemow ktore buduja maxa ) tym samym granica przy ktorej gpu

jest wykorzystane w pelni (i tym samym ogranicza system) jest duuuzo wyzej.

 

3ds max - cudo architektury

 

Po roku pisania pluginow do maxa moge swiadomie stwierdzic, dawno nie

widzialem takiego G! Api maxa wyglada jak narosl na narosli na narosli na

narosli. Tworcy maxa wybrali znow przeklety COM i tym samym zapewnili

sobie wakacje w piekle programistow, w kodzie 2009 znajduja sie miejsca

nie zmienione od maxa 2.5, architektura jest przejrzysta jak spaghetti,

a kod narzedzi (czesc narzedzi ktore uzywacie na codzien w maxie jest

udostepniona w SDK w postaci kodu zrodlowego - niby dla nauki, a moim

zdaniem dla przestrogi) pisany jest przez troglodytow (bez ladu i skladu,

copy & paste to najczestszy wzorzec projektowy). System jest archaiczny.

Dziwie sie ze autodesk nie zrobil 'resetu' kodu juz jakis czas temu, zwlaszcza

patrzac na to jak wylaszczylo sie np XSI.

 

uff...

 

ale tyrada, mam nadzieje ze sie wam spodoba i wyjasni troche mitow

ktore narosly w okol maxa, kart graficznych itd...

  • Like 7
  • Confused 3
Napisano

Hoho ! Post dłuższy niż jakaś recka :D Dzięki za rzeczowe informacje :) Ale jak mieli zresetować kod maxa jak co roku jest nowa wersja ;)

Napisano

 

ale tyrada, mam nadzieje ze sie wam spodoba i wyjasni troche mitow

ktore narosly w okol maxa, kart graficznych itd...

 

Oj spodobał, właśnie po to jest ten wątek, aby wyjaśnić kilka spraw dla mnie jak i dla innych niezrozumiałych.

 

Choć ciężko to zrozumieć w locie bez analizy to nadal kawał dobrego tekstu :) Dzięki +Rep

Napisano

dokturpotfor

WIdać sporo trzeba wiedzieć o Maxie , API itd. by napisać własny engine graficzny :)

 

Co do primitywności kodu Maxa. to może napisz do AUtodesku e-maila(ja sie podpisze ;) ) z paroma przykładami jak ich programiści olali ważne sprawy, jaki burdel w kodzie i rozwiazania sprzed prawie 10 lat,, co wpływa na słąbą wydajność ich jednego ze sztandarowych programów... Może ktoś sie zainteresuje jak zobaczy ze ktoś kto ma głowę na karku zwraca im na to uwagę :) ... a może w Max 2010 nie jest już tak źle.. ale wątpliwa sprawa :D

Napisano (edytowane)

No i czas na mnie :)

Sprzęt :

i7 920@3,13 GHZ

12 GB RAM

Quadro FX 5800

Vista x 64

 

Osiągnięte FPS :

MAX 2009

1. D3D- 103-168 fps

2. D3D- 1,75-1,93 fps

3. D3D- 76-82 fps

 

1. OpenGL- 3,75 fps

2. OpenGL- 2,03 fps

3. OpenGL- 2,23 fps

 

1. Performance- 122-354 fps

2. Performance- 2,63 fps

3. Performance- 85-330 fps

 

 

MAX 2010

1. D3D- 257-330 fps

2. D3D- 1,65-1,72 fps

3. D3D- 196-376 fps

 

1. OpenGL- 3,191 fps

2. OpenGL- 1,689 fps

3. OpenGL- 1,98 fps

 

NARESZCIE jest driver 11.11.2009

1. Performance- 511-608

2. Performance- 1,3-1,48

3. Performance- 302-490

 

Wnioski :

1. Max 2010 jest dużo bardziej wydajny w tym teście niż max 2009 . Potwierdza to tezę Dokturpotfur , że kod samego maxa wymaga przebudowy.

2. OpenGL nie jest obsługiwany w Windows Vista /informacja wg nvidia/ - brak driverów do Autocada , wybierając OpenGL w maxie tak naprawdę wychodzi na to że wybieramy driver Software

3. Performace drivers /stare maxtreme i Powerdraft/ dostarczone do Quadro są wydajniejsze o 20-100% od standardowych D3D i dużo bardziej stabilne .

4. Nie mogę się doczekać kiedy wydadzą performance drivery pod maxa 2010 .

5. W maxie 2009 na performance driverach nigdy , ale to nigdy max i cad nie wywalił się .

Potwierdza to fakt , że najważniejsza różnica pomiędzy Quadro i GF to DRIVERY .

I tak jeżli używasz XP i Quadro dysponujesz lepiej opracowanymi i wydajniejszymi driverami .W Vista performance drivery do Quadro są już mniej wydajne od standardowych , ale czuć jednak różnicę przede wszystkim w stabilności systemu . Co z tego ,że będziesz miał szybką kartę , która powoduje częste zawieszanie programu - u mnie ma to miejsce przy wszelkiego rodzaju "zwykłych GF" . Jest to najbardziej irytujące przy zawodowej codziennej pracy 10-12 h dziennie .

6. Jeżeli zajmujesz się tylko pracą przy np wizualizacjach nie opłaca sie kupowąć większych modelki Quadro niż fx 3800 . Mój fx 5800 wydajnością nie jest szybszy niż fx 3800 pod maxem i cadem a kosztuje dużo więcej.

Moc i możliwości FX 4800 i fx 5800 odczujesz jedynie jeżeki korzystasz na codzień z CUDA , systemów TESLA , pracujesz w TV /kary SDI i Glock / .

7. Ogólna praca w programach Autocad i Max jest bardziej komfortowa z użyciem Quadro - stabilność , szybkość przełączania między oknami , viewportami , szybkość wybierania obiektów , szybkośc ładowania i regeneracja obiektów itd .

8. Rozczarowuje mnie fakty , że do maxa 2010 nie ma jeszcze performance driverów , mimo że program jest już pare miesięcy na rynku .

 

UPDATE 13.11.2009

Nareszcie !!!! wyszedł performance driver pod Quadro .

Po zainstolowaniu driverów 191.66 z performance zmiana wydajności i komfort pracy w Maxie poprawił się bardzo znacząco .

1.1. Wzrost wydajności wg w/w tabeli wskazuje blisko 2x przyśpieszenie - i to czuć :)

1.2. Nareszcie praca w maxie stała się stabilna , czego nie można było powiedzieć na zwykłym D3D - wersji driverów 191.00 . Przy dużych modelach z dużą ilością proxy Max potrafił wywalać się przy wyborze komend move , scale itd /nie było tego efektu przy mniejszych modelach/.

Z nowym performance driverem nareszcie problem ten został rozwiązany.

Edytowane przez WIERZBA
Napisano

Pozwolę sobie na mały update. Akurat zmieniam kartę graf, więc mam możliwość rzeczywistego porównania wyników.

Z przyczyn wyższych zostałem zmuszony do zmiany karty graficznej (z czymś się u mnie gryzie sterownik NV, trafiło mi się kilka bluescreenów, max jest bardzo niestabilny). Zmiana tymczasowa, więc szukałem czegoś niezbyt drogiego. Padło na radeona hd4850. Wg wyników RA i Nvidii (co za ironia teraz zauważyłem ;-) ) moja poprzednia karta (gf 9600gso) powinna być zauważalnie szybsza, szczególnie w trybie smooth + highlights.

Jak się okazuje w testach rzeczywistych (sprawdziłem kilka wizualizacji, nad którymi aktualnie pracuję) radeon jest szybszy, zdecydowanie. Na początku obracania/przesuwania widoku jest mały lag (czegoś takiego na GF nie miałem), ale później jest dużo płynniej. Zarówno w trybie wireframe, jak i wygładzonym.

Napisano (edytowane)

phenom 9650 x4 @ 2,3 mhz

9800gt 1gb 256bit ddr3

win xp 32(bedzie wymiana:D narazie starcza 2 gb 800mhz dual)

 

wiec tak:

 

1.180

2.1,6

3.53

 

 

doktor potwor zna sie na rzeczy, szaaaaaacun stary!!!!

Edytowane przez plasti
Napisano

Witam jestem nowy na forum chociaż dosyć często tu zaglądam jako Gość.Ostatnio zmieniałem kompa na AMD Phenom II 955@3800Mhz, karta na razie stara GeForce 8600 GT soft mod na Quadro Fx 1700 podkręcona do 680/1700 MHz.Nie zabardzo wiem o co chodzi w tym teście, kiedy kręce targetem kamery (wydaje mi sie że o to chodzi) osiągam takie wyniki:

1.ok 170-180

2.ok 2-3

3.ok 170-180

Trochę dziwne bo co niektórzy na lepszym sprzęcie osiągają gorsze wyniki.

Bez softmod wyniki gorsze o 20,30 klatek.

System to Windows 7 64bit, 4GB Ram 1033 cl7

Sterownik DX9 przy przełączeniu na Open Gl wyniki bardzo słabe (znowu dziwne bo w scenie nad którą pracuje ok 1,5 Miliona Poly, dużo lepszą wydajność osiągam na Open Gl).

Jeszcze jedna sprawa Max nie chce załadować Performance Driver czy ktoś kto robił soft mod sie z tym uporał?Z góry dzięki.

Pozdrawiam forumowiczów.

Napisano

Mam tu calkiem fajny artykul i webcast tlumaczacy czym roznia sie karty

'do gier' od profesjonalnych:

 

http://tech.icrontic.com/articles/the-real-difference-between-workstation-and-desktop-gpus

 

re: dexter

 

wydaje mi sie ze nowsze serie kart graficznych nie daja sie juz w pelni

softmodowac, bo w nowszych generacjach gpu 'do gier' i 'profesjonalne'

roznia sie istotnie w budowie... tzn. quadro to nie jest tylko geforce z

inna nalepka i geforce po prostu nie jest kompatybilny z perf sterownikami

quadro.

Napisano

Na prawdę fajny artykuł i w sumie całkiem sporo wyjaśnia. Rozwiał wiele moich wątpliwości związanych z opłacalnością zakupu tego typu kart w celu wykorzystania do pracy z 3d maxem, bowiem istotnie - benchmarki pokazujące ilość FPS w grach itp nie są w tym wypadku miarodajne - w końcu te karty nie służą do grania, za to zoptymalizowane są pod zupełnie innym kątem. Szkoda tylko, że ciągle mają wąskie zastosowanie w samym renderingu, za to świetnie sprawdzają się w autorskich aplikacjach napisanych właśnie pod te GPU.

Napisano

Witam.

Przed wczoraj musiałem kupić grafikę i targnąłem się na GTXa470

Przetestowałem go na scence i wynik mam taki:

 

cpu C2QX 9650

4 Gb ram ddr2 800

płyta na p35

Win 7 64 bity

 

MAX 2009 na DX 9

 

1. - 490-515 fps

2. - 1,5 - 1,6 fps

3. - 448 - 470 fps

 

Nie testowałem na maxie 2010, który jest chyba wydajniejszy pod względem wyświetlania.

Porównując do wyników Wierzby z kartą Quadro FX 5800, GF 470 jest wydajniejszy a pewnie parę raza tańszy. A i swoją moc pokaże przy renderingu na GPU (400 coś rdzeni renderujących). Chociaż zapewne jest dużo mniej stabilny.

Napisano

Witam od dawna już nie bywałem na forum, a jak już jestem to przeczytam ciekawe informacje i wracam do pracy ale test jest spoko.

Oto moje wyniki przy rozdzielczości ekranu 2048x1536 80Hz tak mi się wydaje że to też ma wpływa na szybkość działania a może nie??.

Max 2010.

Win 7 64bit

i5 750 2.67GHz

4 GB RAM

GTX 260 896 MB RAM

 

1. 290-330

2. 1,4-1,5

3. 209-220

 

Też zamawiam sprzęt na coś takiego:

myślałem nad połączeniem z Teslą ale nie wiem jak to będzie działać, poczytał bym jakieś testy wydajności.

i7 980x

16 GB RAM

Quadro 4800

Mam nadzieję że to będzie działać bardzo dobrze, ostatnio sceny w maksie nad którymi pracuję maja sporo ponad 6-8 mil poligonów. Zapowiadają się większe.

 

Pozdrawiam

Napisano

Jeszcze test na kompie domowym

i7 930, 6Gb Ram 1333MHz, GTX 470 1,5Gb, 500GB HDD.

Max jak poprzednio 2010, D3D.

1=970-993fps

2=1,625-1,652fps

3=826-847fps

Wyniki porównywalne a czasem leprze niż Quadro 4800 w pracy!!!

Cenowo duża różnica.

 

Pozdrawiam

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności