adek Napisano 12 Styczeń 2010 Napisano 12 Styczeń 2010 Na blogu RenderStream pojawił się bardzo interesujący artykuł. Jest on w języku angielskim, ale jeśli tylko znasz ten język - zachęcam do jego przeczytania. Jest to wpis dotyczący nadchodzącej rewolucji związanej z wykorzystanie mocy procesorów GPU. Dowiecie się również dlaczego procesory graficzne są szybsze od zwykłych procesorów. W treści znajdziecie dodatkowo wywiad z dyrektorem działu Visual Communication Solutions w firmie Autodesk Kenem Pimentelem. Przeczytaj artykuł
dac77 Napisano 12 Styczeń 2010 Napisano 12 Styczeń 2010 Dużo lania wody w tym artykule. O to skrót: "Karty graficzne potrafią szybko renderować. Czeka nas przełom. Chcesz renderować kartą? - O, takiego, kup se Quadro. Kiedy Autodesk zaimplementuje w swoje produkty tą technologię? - Jak kupi gotowy program wykorzystujący tą technologię, albo trzeba czekać aż deweloperzy pluginów zwęszą interes."
plasti Napisano 12 Styczeń 2010 Napisano 12 Styczeń 2010 wszystko proste jak budowa cepa, karta graficzna wyzszej polki wykorzystujaca 240 procesorow GRAFICZNYCH, bezposrednio do tego stworzonych, wyrenderuje w blyskawicznym, nieporownywalnym czasie do procesorow zadaniowych zadana scene 3d...... jest jeden maly szkopul, jak wejdzie w zycie przeliczanie za pomaca GPU, nie chce wiedziec ile bedzie kosztowac przecietna karta graficzna...
claude Napisano 12 Styczeń 2010 Napisano 12 Styczeń 2010 nie nio fajnie, trąbią o tym od jakiegoś czasu tylko kiedy to zacznie w końcu działać
Nezumi Napisano 12 Styczeń 2010 Napisano 12 Styczeń 2010 Pewnie pozniej zrobia jakas blokade zeby "zwykle" karty graficzne nie mogly z tego korzystac, bo kase ssac trzeba i bedzie to samo co teraz z quadro.
hamek1990 Napisano 12 Styczeń 2010 Napisano 12 Styczeń 2010 (edytowane) Chłopaki racja. Zwykłym kartą nie pozwolą na takie "sztuki" wiadomo dodatkowa kasa i podzielam zdanie o Autodesk ktoś zrobi coś dopiero oni kupią ten soft i nam spylą 10 razy drożej ;) NORMA nie ma co gadać o rewolucji bo to bardzo powoli się rozwija na BUM!!! trzeba poczekać jeszcze trochę i tak nie będzie na początku zaawansowanych algorytmów Ray tracingu chociaż kto wiem z czym wyjdą frmy na rynek pewnie nas zaskoczą. Najlepsze byłyby rozwiązania zintegrowane a nie jak w większości przypadków exportowanie scenek do zewnętrznych renderów Edytowane 12 Styczeń 2010 przez hamek1990
Temporal Napisano 12 Styczeń 2010 Napisano 12 Styczeń 2010 a jeszcze w newsie o octanerender wszyscy sie podniecali wnisek:wazny jest pierwszy koment pozniej juz tylko reszta zgapia wypowiedz od przedmowcy i tak to sie ciagnie. Jak pare osob cos na starcie pochwali to pozniej wszyscy chwali i na odwrot. Jak ja kocham hipokryzje
dac77 Napisano 12 Styczeń 2010 Napisano 12 Styczeń 2010 No ja się bardzo podnieciłem. Napisali że octra będzie pod Linuxa 64 i cena też nie ma być zabójcza.
Traitor Napisano 12 Styczeń 2010 Napisano 12 Styczeń 2010 A ja w to zwyczajnie nie wierze. Owszem byc moze karta w koncu bedzie w jakis sposob wspomagala przeliczenia, ale napewno nie zastapi mocy glownego procesora. Wg mnie bujdy na patyku.
zdeno Napisano 12 Styczeń 2010 Napisano 12 Styczeń 2010 więcej wiary ;) kiedyś procesory renderowały gierki a karta grafiki jeno wyświetlała, potem jak się pojawiły pierwsze voodoo to też mało kto widział dokąd to zmierza. odkąd bebechy na kartach graficznych stały się łatwiej programowalne, grzechem byłoby nie wykorzystać ich mocy.
Skoti Napisano 12 Styczeń 2010 Napisano 12 Styczeń 2010 @Nezumi: nie martw się nie zablokują, tym bardziej, że nVidia chce pogrążyć intela i inwestuje w GPGPU dużo kasy, a nVidia raczej nie cofnie się i jak można obliczać na kartach z 2006 to i na nowych będzie można (tym bardziej, że nowe są specjalnie do tego tworzone). @hamek1990: przepisanie istniejącego silnika to żaden problem, a kolejna karta nVidii posiada 512 jednostek potrafiących liczyć wszystko to co CPU (tzn dużo więcej, ale teraz pokrywa w pełni CPU) i będzie dostarczony kompilator C++ tworzący kod dla GPU (więc programy nie będą musiały być przepisywane, a tylko przekompilowane, co oznacza tyle, że każdy program praktycznie od ręki będzie mógł być wydany na GPU). @Traitor: w tej chwili procesor jest potrzebny jedynie do komunikacji z bibliotekami napisanymi w C/C++ (np. okienka) i przesyłania danych z plików/pamięci do GPU - całe obliczenia mogą być robione na GPU. Moc CPU w renderingu jest marna i jak renderery przejdą na GPU procek będzie mógł być zwykłą budżetówką, bez utraty wydajności (i o to chodzi nVidii która wyśmiewa procki intela i chce go zdetronizować na rynku obliczeniowym).
Nezumi Napisano 13 Styczeń 2010 Napisano 13 Styczeń 2010 Skoti - obys mial racje. Nie mam nic przeciwko szybkim renderom ;)
Mortom Napisano 13 Styczeń 2010 Napisano 13 Styczeń 2010 Jak to ktoś powiedział: czas jest najlepszym sędzią. Wszystko się okaże, półki co nie ma się co za szybko napalać... prawdopodobnie to będzie taki proces jak z systemami 64 i 32. Niby są korzyści a i tak większość kodu pod aplikacje powstaje na 32 i skromnie wykorzystanie 64 bit. Pożyjemy zobaczymy.
Camel Napisano 13 Styczeń 2010 Napisano 13 Styczeń 2010 Uwielbiam Mythbusters :p Mam nadzieję że na wizualną przyszłość spojrzymy z nadzieją raz na zawsze dobrym, przyzwoitym sprzętem. I żeby nie zapomnieli o oszczędzaniu RAMu i zasilania ;)
KLICEK Napisano 13 Styczeń 2010 Napisano 13 Styczeń 2010 zaprawde powiadam wam, zadna rewulacja nie nadchodzi ;) gpu mozna sobie wsadzic w
hamek1990 Napisano 13 Styczeń 2010 Napisano 13 Styczeń 2010 GPU mają power w zmiennoprzecinkowych operacjach w których to GPU wyprzedza CPU o lata świetlne ;P z prędkością obliczania jak ktoś stworzy porządny render engine pod GPU byłoby NICE, żeby miały zaawansowane materiały shadery jak mental, vray i inne i taki możliwości jak wcześniej wymienione tyle że szybszy rendering będzie wetedy rewolucja narazie enginy renderujące pod GPU mają zbyt małe możliwości
CzAk1 Napisano 13 Styczeń 2010 Napisano 13 Styczeń 2010 Wszędzie rewolucje... Rewolucja w Avatarze...rewolucja w kompie... ...?
Tomala Napisano 13 Styczeń 2010 Napisano 13 Styczeń 2010 Dla nas żadna rewolucja ze strony gpu prędko nie nadejdzie. Tak jak ktoś pisał wcześniej takie artykuły były już ze dwa lata temu i dzisiaj niewiele się zmieniło. Taka WETA już przy produkcji avatara wykorzystywała moc gpu ale zanim to trafi pod strzechy i zanim soft zacznie z tego korzystać to trochę wody upłynie w Wiśle. Niedawno ktoś zapodał linka do prezentacji silnika realtime od mental images i działał on na cpu. Wyświetlał obraz prawie tak szybko jak ten cały octane render tylko że mental ray to nie jakiś octane i jest różnica w światłach i materiałach. Skoro mental images będące przecież własnością nvidii nie wykorzystuje gpu do swojego podglądowego renderera real time no to cosik mi się nie widzi ten cały boom z gpu.
Temporal Napisano 13 Styczeń 2010 Napisano 13 Styczeń 2010 moze kiedys cos tam sie zmieni ale do raczej w tej dalszej przyszlosci wiec nie ma narazie co plakac o wydajnosc CPU, kazdy narzeka ale kazdy z niego korzysta. Wsumie tak samo jest z oprogramowaniem kazdy liczy na jakas rewolucje narzeka na aktualne rozwiazania tylko kazdy korzysta z tego co jest i niektorzy nawet na tym pieniadze robia wiec sie jednak da. Moral? Docenic to co jest teraz a nie narzekac ze technologia za malo rozwinieta i wszystko ma sie robic samo i natychmiastowo.
Przybysz Napisano 17 Styczeń 2010 Napisano 17 Styczeń 2010 Nvidia wiele robi, by upowszechnić obliczenia na GPU, ale prawda jest taka, że nadal jest to na dość niskiej warstwie programistycznej. Nie wystarczy tych samych programow przekompilować nowym kompilatorem na GPU. Czyste C, wlasne zarządzanie pamięcią i kombinowanie by jaknajbardziej ograniczyc wymiane danych z CPU i RAMem, zarządzanie 512 wątkami naraz nie są proste dla zwyklego programisty C++ i wymaga innego podejścia do programowania GPU niż do CPU. Nie ma bibliotek, które by to wszystko obudowały prostym interfejsem. Dlatego nie jest to narazie dostępne 'pod strzechami' a raczej w ośrodkach wyspecjalizowanych. Nie dziwie się więc, że Autodesk woli poczekać i kupić technologię opakowaną w ładne Api, zamiast szkolić setki programistów. Na szczęście rozwój inicjatyw typu CUDA, ATI Stream, OpenCl itp. coraz szybciej zbliża nas do upowszechnienia się tej technologii, ale myśle myślę raczej o płynnym przejściu w tym kierunku niż nagłej rewolucji.
Rekomendowane odpowiedzi
Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto
Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.
Zarejestruj nowe konto
Załóż nowe konto. To bardzo proste!
Zarejestruj sięZaloguj się
Posiadasz już konto? Zaloguj się poniżej.
Zaloguj się