Skocz do zawartości

karta grafiki - na jakim teście porównywać?


Laylot

Rekomendowane odpowiedzi

Krótkie pytanie:

 

jakiego testu kart graficznych i ich porównania szukać w internecie pod kątem:

 

1. pracy na scenie w 3dsmax (czyli zwykły viewport)

2. renderowania z wykorzystaniem GPU (np. w Octane Render)

 

?

 

z tego co już zauważyłem zwykłe benchmarki i testy na grach nie są żadnym odzwierciedleniem tego jak dana karta grafiki będzie działać w w/w zadaniach.

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 3
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

Goscie od Octana sami mowia, ze najlepiej wziac karte z serii GeForce. Najabrdziej znaczacym parametrem jest ilosc rdzeni CUDA wiec sugeruj sie tym parametrem (znajdziesz go w specyfikacji kazdej karty wiec nei musisz szukac benchmarkow). Co do zwyklego viewportu maxa DirectX, OpenGL dobrze sprawdzaja się nawet LOW-endowe modele Quadro/FireGL. Do Octana polecam miec minimum dwie karty jesli operujesz na 1 pc - 1 do obslugi octana a druga (nawet byle jaka) do obslugi interfejsu OS. Bo jak octane wystartuje to ciezko ci bedzie kursorem ruszac na 1 karcie :) Zwróć również uwagę, że ważna jest też ilość RAM na karcie, i jak ostatnio sprawdzalem, jesli jedna z nich ma 4 GB a druga 2GB i obu uzywasz do renderingu, octane bedzie w stanei zaadresowac maksymalnie tyle RAMu na karte, ile posiada twoja najslabsza (jak bedziesz miec 4 karty 4 GB + 1 x 2 GB to uzywajac wszystkich octane przydzieli maksymalnie 2 GB na karte). Sprawdz to zanim kupisz karte/y.

Odnośnik do komentarza
Udostępnij na innych stronach

@Laylot: Zależy czy bardziej zależy Ci na wydajnej pracy z masywnymi scenami, czy na renderingu na GPU.

 

Goscie od Octana sami mowia, ze najlepiej wziac karte z serii GeForce. Najabrdziej znaczacym parametrem jest ilosc rdzeni CUDA wiec sugeruj sie tym parametrem (znajdziesz go w specyfikacji kazdej karty wiec nei musisz szukac benchmarkow).

GeForce są najlepsze, ze względu Wydajność/Cena (obcięte są względem Quadro/Tesla możliwości obliczania liczb zmiennoprzecinkowych podwójnej precyzji... na szczęście w renderingu i w viewportach używa się jedynie pojedynczej precyzji i GeForce będą tak samo dobre, a tańsze).

Jednak co do rdzeni CUDA to nie masz racji. Nie jest ważna ilość rdzeni sama w sobie... ważna jest wypadkowa ilości rdzeni, architektury GPU i częstotliwości działania rdzeni. Przykładowo rodzina Fermi (karty z serii 400 i 500) mają inną architekturę niż rodzina Kepler (serie 600 i 700) i wydajność tych różnych serii nie da się porównywać względem ilości rdzeni... chociażby dlatego, że Keplery mają zazwyczaj rdzenie o częstotliwości 900MHz do 1GHz, a rdzenie Fermi mają 1.5 do 1.6 GHz, rdzenie w Kepler są umieszczone w grupach po 32 lub 64 rdzenie, a w Fermi są umieszczone w grupach wykonawczych po 16 rdzeni (wszystkie 16 muszą w danym momencie wykonywać tą samą instrukcję, lub czekać aż się skończy, dlatego im mniejsza grupa tym lepsza wydajność). Keplery trochę nadrabiają z wydajnością na rdzeń, dzięki Hyper-Q i Dynamic Parallelism... ale wsiększość kart z serii 600 i 700 nie ma ich (te technologie ma tylko kilka modeli). Ogólnie rzecz biorąc

 

Zwróć również uwagę, że ważna jest też ilość RAM na karcie, i jak ostatnio sprawdzalem, jesli jedna z nich ma 4 GB a druga 2GB i obu uzywasz do renderingu, octane bedzie w stanei zaadresowac maksymalnie tyle RAMu na karte, ile posiada twoja najslabsza (jak bedziesz miec 4 karty 4 GB + 1 x 2 GB to uzywajac wszystkich octane przydzieli maksymalnie 2 GB na karte). Sprawdz to zanim kupisz karte/y.

To jest naturalne... nie wyobrażałem sobie, że ktoś to musi sprawdzać. Zawsze jeśli mamy sytuację z obliczaniem na wielu węzłach (nie ważne czy jest to klaster z wieloma CPU czy wiele GPU) z lokalną pamięcią (nie współdzieloną, a odrębną dla każdego węzła), program nie może wykorzystywać więcej pamięci niż ma najsłabszy węzeł (bo pamięć w tych węzłach się nie sumuje, tylko jest wiele kopii tych samych danych i wszędzie muszą się te dane do obliczeń zmieścić, więc i na tym najsłabszym węźle)

Odnośnik do komentarza
Udostępnij na innych stronach

Do renderingu na GPU, to dużo VRAM przede wszystkim, bo cała scena musi tam wejść. Należy także wybierać modele ze standardowym taktowaniem, bo inaczej żywotność takiej karty będzie kiepska, nie mówiąc już o podkręcaniu samemu, co może skutkować pojawieniem się bad pixeli.

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności