Skocz do zawartości

Nadchodząca rewolucja związana z GP


adek

Rekomendowane odpowiedzi

Na blogu RenderStream pojawił się bardzo interesujący artykuł. Jest on w języku angielskim, ale jeśli tylko znasz ten język - zachęcam do jego przeczytania. Jest to wpis dotyczący nadchodzącej rewolucji związanej z wykorzystanie mocy procesorów GPU. Dowiecie się również dlaczego procesory graficzne są szybsze od zwykłych procesorów.

 

W treści znajdziecie dodatkowo wywiad z dyrektorem działu Visual Communication Solutions w firmie Autodesk Kenem Pimentelem.

 

Przeczytaj artykuł

 

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 20
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

Top Posters In This Topic

Dużo lania wody w tym artykule. O to skrót:

"Karty graficzne potrafią szybko renderować.

Czeka nas przełom.

Chcesz renderować kartą? - O, takiego, kup se Quadro.

Kiedy Autodesk zaimplementuje w swoje produkty tą technologię? - Jak kupi gotowy program wykorzystujący tą technologię, albo trzeba czekać aż deweloperzy pluginów zwęszą interes."

Odnośnik do komentarza
Udostępnij na innych stronach

wszystko proste jak budowa cepa, karta graficzna wyzszej polki wykorzystujaca 240 procesorow GRAFICZNYCH, bezposrednio do tego stworzonych, wyrenderuje w blyskawicznym, nieporownywalnym czasie do procesorow zadaniowych zadana scene 3d......

 

jest jeden maly szkopul, jak wejdzie w zycie przeliczanie za pomaca GPU, nie chce wiedziec ile bedzie kosztowac przecietna karta graficzna...

Odnośnik do komentarza
Udostępnij na innych stronach

Chłopaki racja. Zwykłym kartą nie pozwolą na takie "sztuki" wiadomo dodatkowa kasa i podzielam zdanie o Autodesk ktoś zrobi coś dopiero oni kupią ten soft i nam spylą 10 razy drożej ;) NORMA nie ma co gadać o rewolucji bo to bardzo powoli się rozwija na BUM!!! trzeba poczekać jeszcze trochę i tak nie będzie na początku zaawansowanych algorytmów Ray tracingu chociaż kto wiem z czym wyjdą frmy na rynek pewnie nas zaskoczą. Najlepsze byłyby rozwiązania zintegrowane a nie jak w większości przypadków exportowanie scenek do zewnętrznych renderów

Edytowane przez hamek1990
Odnośnik do komentarza
Udostępnij na innych stronach

a jeszcze w newsie o octanerender wszyscy sie podniecali

wnisek:wazny jest pierwszy koment pozniej juz tylko reszta zgapia wypowiedz od przedmowcy i tak to sie ciagnie. Jak pare osob cos na starcie pochwali to pozniej wszyscy chwali i na odwrot.

 

Jak ja kocham hipokryzje

Odnośnik do komentarza
Udostępnij na innych stronach

więcej wiary ;) kiedyś procesory renderowały gierki a karta grafiki jeno wyświetlała, potem jak się pojawiły pierwsze voodoo to też mało kto widział dokąd to zmierza.

 

odkąd bebechy na kartach graficznych stały się łatwiej programowalne, grzechem byłoby nie wykorzystać ich mocy.

Odnośnik do komentarza
Udostępnij na innych stronach

@Nezumi: nie martw się nie zablokują, tym bardziej, że nVidia chce pogrążyć intela i inwestuje w GPGPU dużo kasy, a nVidia raczej nie cofnie się i jak można obliczać na kartach z 2006 to i na nowych będzie można (tym bardziej, że nowe są specjalnie do tego tworzone).

 

@hamek1990: przepisanie istniejącego silnika to żaden problem, a kolejna karta nVidii posiada 512 jednostek potrafiących liczyć wszystko to co CPU (tzn dużo więcej, ale teraz pokrywa w pełni CPU) i będzie dostarczony kompilator C++ tworzący kod dla GPU (więc programy nie będą musiały być przepisywane, a tylko przekompilowane, co oznacza tyle, że każdy program praktycznie od ręki będzie mógł być wydany na GPU).

 

@Traitor: w tej chwili procesor jest potrzebny jedynie do komunikacji z bibliotekami napisanymi w C/C++ (np. okienka) i przesyłania danych z plików/pamięci do GPU - całe obliczenia mogą być robione na GPU. Moc CPU w renderingu jest marna i jak renderery przejdą na GPU procek będzie mógł być zwykłą budżetówką, bez utraty wydajności (i o to chodzi nVidii która wyśmiewa procki intela i chce go zdetronizować na rynku obliczeniowym).

Odnośnik do komentarza
Udostępnij na innych stronach

Jak to ktoś powiedział: czas jest najlepszym sędzią.

Wszystko się okaże, półki co nie ma się co za szybko napalać... prawdopodobnie to będzie taki proces jak z systemami 64 i 32. Niby są korzyści a i tak większość kodu pod aplikacje powstaje na 32 i skromnie wykorzystanie 64 bit.

 

Pożyjemy zobaczymy.

Odnośnik do komentarza
Udostępnij na innych stronach

GPU mają power w zmiennoprzecinkowych operacjach w których to GPU wyprzedza CPU o lata świetlne ;P z prędkością obliczania jak ktoś stworzy porządny render engine pod GPU byłoby NICE, żeby miały zaawansowane materiały shadery jak mental, vray i inne i taki możliwości jak wcześniej wymienione tyle że szybszy rendering będzie wetedy rewolucja narazie enginy renderujące pod GPU mają zbyt małe możliwości

Odnośnik do komentarza
Udostępnij na innych stronach

Dla nas żadna rewolucja ze strony gpu prędko nie nadejdzie. Tak jak ktoś pisał wcześniej takie artykuły były już ze dwa lata temu i dzisiaj niewiele się zmieniło.

Taka WETA już przy produkcji avatara wykorzystywała moc gpu ale zanim to trafi pod strzechy i zanim soft zacznie z tego korzystać to trochę wody upłynie w Wiśle.

Niedawno ktoś zapodał linka do prezentacji silnika realtime od mental images i działał on na cpu. Wyświetlał obraz prawie tak szybko jak ten cały octane render tylko że mental ray to nie jakiś octane i jest różnica w światłach i materiałach.

Skoro mental images będące przecież własnością nvidii nie wykorzystuje gpu do swojego podglądowego renderera real time no to cosik mi się nie widzi ten cały boom z gpu.

Odnośnik do komentarza
Udostępnij na innych stronach

moze kiedys cos tam sie zmieni ale do raczej w tej dalszej przyszlosci wiec nie ma narazie co plakac o wydajnosc CPU, kazdy narzeka ale kazdy z niego korzysta. Wsumie tak samo jest z oprogramowaniem kazdy liczy na jakas rewolucje narzeka na aktualne rozwiazania tylko kazdy korzysta z tego co jest i niektorzy nawet na tym pieniadze robia wiec sie jednak da. Moral? Docenic to co jest teraz a nie narzekac ze technologia za malo rozwinieta i wszystko ma sie robic samo i natychmiastowo.

Odnośnik do komentarza
Udostępnij na innych stronach

Nvidia wiele robi, by upowszechnić obliczenia na GPU, ale prawda jest taka, że nadal jest to na dość niskiej warstwie programistycznej. Nie wystarczy tych samych programow przekompilować nowym kompilatorem na GPU. Czyste C, wlasne zarządzanie pamięcią i kombinowanie by jaknajbardziej ograniczyc wymiane danych z CPU i RAMem, zarządzanie 512 wątkami naraz nie są proste dla zwyklego programisty C++ i wymaga innego podejścia do programowania GPU niż do CPU. Nie ma bibliotek, które by to wszystko obudowały prostym interfejsem. Dlatego nie jest to narazie dostępne 'pod strzechami' a raczej w ośrodkach wyspecjalizowanych. Nie dziwie się więc, że Autodesk woli poczekać i kupić technologię opakowaną w ładne Api, zamiast szkolić setki programistów. Na szczęście rozwój inicjatyw typu CUDA, ATI Stream, OpenCl itp. coraz szybciej zbliża nas do upowszechnienia się tej technologii, ale myśle myślę raczej o płynnym przejściu w tym kierunku niż nagłej rewolucji.

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności