Skocz do zawartości

MentalRay, a karta graficzna


Aethersis

Rekomendowane odpowiedzi

Witam. Zanim powiem, o co konkretnie mi chodzi, chciałbym zaznaczyć, że jestem całkiem nowy w modelowaniu w 3ds max (wcześniej korzystałem z Carrara).

Chciałem zapytać, czy MentalRay może wykorzystywać do renderowania kartę graficzną? Widziałem strasznie drogie kombajny dedykowane do 3ds max typu PNY Quadro, ale cena tych kart jest po prostu zabójcza. Obecnie posiadana przeze mnie karta to ATI Radeon HD4870. Da się ją jakoś wykorzystać do przyspieszenia renderingu, czy skazany będę na słabość mojego procesora po wsze czasy? Jeśli sam MentalRay nie obsługuje tej karty, to może są jakieś inne silniki, które dadzą radę ją wykorzystać? Albo może znacie jakieś karty z niższej półki cenowej, które będą w stanie przyspieszyć renderowanie (do 500 zł). Posiadany przeze mnie procesor to intel Core2Duo e7400.

Mam jeszcze drugie pytanie: Czy instalacja 64 bitowego systemu przyspieszy renderowanie na tym procesorze i zwiększy w zauważalny sposób wydajność samego programu?

 

Z góry dziękuję za wszystkie odpowiedzi i przepraszam za taki natłok pytań :)

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 12
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

Top Posters In This Topic

Nie będziesz skazany na po wsze czasy ale obecnie liczące się silniki renderujące korzystają tylko z CPU. Zapomnij póki co o GPU w zastosowaniach do renderingu, jeśli bardzo Ci zależy poczytaj może o Vray RT czy innych wynalazkach. Proponuję przeglądać forum bo takie pytania już były.

Odnośnik do komentarza
Udostępnij na innych stronach

Gpu jest na razie nie wykorzystywane więc twoja karta w zupełności wystarczy a jeżeli cie obchodzi to mam tego samego proca którego spokojnie podkręciłem do 3.5 i temperatura trzyma się w granicach 35-40 stopni.Tak systemy 64 bitowe przyśpiesają rendering

Odnośnik do komentarza
Udostępnij na innych stronach

Wielkie dzięki. Teraz przynajmniej wiem, że to byłby zbędny wydatek. Chciałem w takim razie zapytać, po co są te karty PNY Quadro za 10 000 zł?! Przecież wydajności w grach komputerowych chyba większej toto wcale nie ma, niż jakiś GTX 260?

Chciałem jeszcze spytać, jakiego używa się sprzętu do dużych projektów, gdy trzeba np renderować animacje? Zastanawiam się, co ma np taki dreamworks :)

Widziałem kiedyś stacje robocze Nvidia Tesla w postaci takich serwerów, kiedyś były jeszcze stare Silicon Graphics, ale już tego niestety nie produkują :(

Nvidia opracowała interfejs CUDA, który umożliwia stosowanie GPU do obliczeń zmiennoprzecinkowych tak, jak procesora, tyle że ze względu na ogromną liczbę rdzeni wzrost wydajności w zadaniach wielowątkowych jest olbrzymi (symulacja pogody, modele cząsteczek itd.). Może dałoby się to jakoś wykorzystać?

 

Aha, skoro procek tylko jest używany to po co mi w ogóle karta graficzna do 3ds max?

Edytowane przez Aethersis
Odnośnik do komentarza
Udostępnij na innych stronach

Takiego avatara renderuje się na renderfarmach - tysiące jak nie setki tysięcy maszyn czyt. procesorów połączonych ze sobą. Rendering na GPU póki co jest słabo rozwinięty, nikt z tego w praktyce nie korzysta, obliczenia fizyki na GPU natomiast trwają od dawna i do tego taka profesjonalna karta się nada, nada się też do programów napisanych pod gpu cobyśmy mogli sobie sprawdzić jak działają, te karty są specyficzne i z reguły potrafią zapewnić większą stabilność pracy oraz wydajność w widokach aplikacji do tworzenia grafiki 3D.

 

Gdybyś był profesjonalista może potrafiłbyś wykorzystać moc GPU i ją spożytkować mimo braku softu i innych problemów z tym związanych. Widać, że nie jesteś skoro zadajesz tak podstawowe pytania, więc zapomnij o GPU, przynajmniej na razie.

Odnośnik do komentarza
Udostępnij na innych stronach

W 3ds max i innym sofcie do 3d karta potrzebna ci po to chociażby aby wyświetlić obraz w viewportach ale chyba nie trzeba ci tłumaczyć takich rzeczy... bo to jak pytanie po co mi karta graficzna w grach komputerowych... ;/ im słabsza karta tym mniejsza wydajność a zarazem większa ścinka w viewporcie

Odnośnik do komentarza
Udostępnij na innych stronach

W 3ds max i innym sofcie do 3d karta potrzebna ci po to chociażby aby wyświetlić obraz w viewportach ale chyba nie trzeba ci tłumaczyć takich rzeczy... bo to jak pytanie po co mi karta graficzna w grach komputerowych... ;/ im słabsza karta tym mniejsza wydajność a zarazem większa ścinka w viewporcie

 

W 3Ds Maxie udział karty graficznej w wyświetlaniu geometrii to żart :)

 

Stary Geforce 8800 ma taką samą wydajność jak GTX295

 

Tu więcej:

http://max3d.pl/forum/showthread.php?t=62474

Odnośnik do komentarza
Udostępnij na innych stronach

Szczerze mówiąc, to mi spokojnie ciągnie na zintegrowanej grafice wszystko jak na razie (Intel GMA X4500). Nie wiem, jak z 3ds max, ale w przypadku Carrara 6 (wcześniej w tym pracowałem) nie było najmniejszych problemów z wydajnością mimo tej karty. Dopiero przy znacznie bardziej złożonych scenach, czy odpaleniu animacji były pewne problemy (zwłaszcza z symulacją fizyki, co w tamtym programie jest zrobione w sposób niewydajny i beznadziejnie brzydki i wymaga raczej procesora, niż karty). Wydaje mi się jednak , że sama karta graficzna ma na prawdę niewielki wpływ na wyświetlanie obrazu w viewportach, o ile nie każemy programowi wyświetlać cieniów, tekstur itd. (chociaż faktycznie używany jest do tego OpenGL lub DX). Jak będę kupował po raz kolejny jakiś sprzęt to chyba zaopatrzę się w płytę główną na 2 procesory quad core i będzie git :)

Nasuwa mi się jeszcze inne pytanie: Dałoby się zmusić jakiś silnik wykorzystywany w grach komputerowych do renderowania scen na własnych ustawieniach? :D To byłoby coś pięknego, zwłaszcza, że wtedy na serio wykorzystywalibyśmy GPU. Ponieważ ja bawię się dość sporo tworzeniem animacji, to byłoby to dla mnie wspaniałe rozwiązanie, ponieważ renderowanie filmu klatka po klatce, gdzie 1 obrazek oblicza mi przez 30 minut jest dla mnie prawdziwą mordęgą. Gdyby tak zmusić jakiś engine gry komputerowej do wykonania takiego renderingu (nawet dość powoli), to i tak chyba wzrost wydajności byłby na prawdę spory, prawda? Oczywiście zdaję sobie z tego sprawę, że wielu mechanizmów i algorytmów nie dałoby się zaimplementować (indirect illumination, caustics i takietam). Może ktoś się na tym zna i wypowie się na ten temat?

Edytowane przez Aethersis
Odnośnik do komentarza
Udostępnij na innych stronach

Wydaje mi się jednak , że sama karta graficzna ma na prawdę niewielki wpływ na wyświetlanie obrazu w viewportach... (chociaż faktycznie używany jest do tego OpenGL lub DX).

 

No wlasnie niestety zle Ci sie wydaje bo akurat ze zintegrowana karta na plycie to za duzo sie nie wyczaruje i jezeli nie masz jakiejs karty z nowej edycji to wiadomo ze roznicy nie zobaczysz. Tutaj chodzi tylko o to ze w czasach gdy 4 GB to bylo dla wielu tylko marzeniem wtedy grafa odgrywala glowna role (w wyswietlaniu) i dalej tak jest tylko ze teraz roznica zostaje zatarta przez wieksza ilosc ramu dostepnego na PC.

 

Gdyby tak nie bylo to kazdy wsadzal by jeszcze GF 2x ze strychu bo po co ladowac kase w cos co jest nie potrzebne ? Lepiej wydac na pamieci czy procka

 

Marcin- Jezeli nie widzisz roznicy miedzy 8800 a 295 to moze to jakas przypadlosc 295 bo akurat ja przesiadalem sie z 8800 na 295 i mimo to ze ramu bylo tyle samo to predkosc byla zauwazalna juz po odpaleniu pierwszej lepszej sceny. Moze wina sterownikow ? Lub win 7 ?

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności