Nowi Napisano 15 Listopad 2012 Napisano 15 Listopad 2012 Taki news ze strony Intela odnośnie nowinek Hardwarowych. Jestem ciekaw jak to się rozwinie. http://www.intel.com/content/www/us/en/high-performance-computing/high-performance-xeon-phi-coprocessor-brief.html http://www.youtube.com/watch?v=Ir0JWGte3Ss&feature=channel&list=UL
SYmek Napisano 15 Listopad 2012 Napisano 15 Listopad 2012 Oj, rozwinie się, tylko nie wiadomo, kiedy na naszym podwórku. Już w tej chwili Phi jest szybko wdrażane w firmach HPC, kończąc to absurdalne zawracanie głowy z GPU. Pytanie tylko kiedy i kto zaadaptuje Phi do renderowania/symulacji. Nie powinno być trudno biorąc pod uwagę OpenCL1.2 (gorsze rozwiązanie) oraz chodzącego na tym Linuksa na niemal standardowym jądrze. Jak znam życie jeszcze w tym roku któryś produkcyjny renderer będzie miał build na Phi :) skk.
olaf Napisano 15 Listopad 2012 Napisano 15 Listopad 2012 haha IVONA mnie rozwaliła w tym YT video :) kolejna nowa rzecz, pewnie by się nie podniosła z niszy gdyby nie przykład z kart graficznych.
Monio Napisano 15 Listopad 2012 Napisano 15 Listopad 2012 (edytowane) Ciekawe jak cena będzie przekładała się na wydajność w rednererach w porównaniu do nowych GTXów serii 700. Nie wiem czy te intelowskie rozwiązania w ogóle przydadzą się grafikom. Przeliczanie renderu nie wymaga takiej precyzji danych a za tą intel będzie sobie liczył sprzedając te kombajny ludkom od wróżenia pogody. Kupuje popcorn i czekam na testy Phi vs Tesla vs GTX790. edit: http://blenderartists.org/forum/showthread.php?270543-GPGPU-CPU-add-on-card-war&p=2241061&viewfull=1#post2241061 Na sucho nie ma co patrzeć. Jak te karty spisują się w renderze wyjdzie dopiero w testach. Nie zdziwiłbym się jakby dwa gtx790 wygrały w renderze. Edytowane 15 Listopad 2012 przez Monio
Nowi Napisano 15 Listopad 2012 Autor Napisano 15 Listopad 2012 No niestety cena to jedno co mnie martwi przez wiele lat pewnie to nie będzie jeszcze dostępne, a może nawet w ogóle dla przeciętnego Grafika. Z wydajnością to może być różnie do GPU, ale wydaje mi się że komunikacja z resztą sprzętu będzie zdecydowanie lepsza niż zwykłych kart graficznych.
SYmek Napisano 15 Listopad 2012 Napisano 15 Listopad 2012 (...) kolejna nowa rzecz, pewnie by się nie podniosła z niszy gdyby nie przykład z kart graficznych. Jaki przykład? Renderowania GPU to nie jest żaden przykład dla wykorzystania chipów Nvidii, to jest 1% ich zastosowania (mam na myśli GPGPU, a nie realtime rendering). Kasa płynie z kompletnie innego źródła. Ciekawe jak cena będzie przekładała się na wydajność w rednererach w porównaniu do nowych GTXów serii 700. Nie wiem czy te intelowskie rozwiązania w ogóle przydadzą się grafikom. Przeliczanie renderu nie wymaga takiej precyzji danych a za tą intel będzie sobie liczył sprzedając te kombajny ludkom od wróżenia pogody. Kupuje popcorn i czekam na testy Phi vs Tesla vs GTX790. Takie porównanie nie da się sensownie przeprowadzić, bo nie ma z czym rendererów CPU porównywać. Nie ma ani jednego renderera GPU, który byłoby sensownie stawiać obok poważnych, produkcyjnych rozwiązań. Wszystkie renderery GPU są prostackimi zabawkami do strzelania rayami po trójkątach. I to nie jest przypadek, po prostu programowanie GPU jest koszmarnie skomplikowane w porównaniu z x86. Najpierw musielibyśmy mieć praktyczny full wypas renderer, ze wszystkimi funkcjami takiego Vraya dajmy na to, i wtedy można by je w testach porównywać. Teoretyczna moc GPU jest g*wno warta, bo prawie nigdy nie można jej wykorzystać. I tu właśnie pojawia się Phi, które programuje się jak zwykły procesor, na zwykłym kompilatorze, ze zwykłymi bibliotekami i jest w dodatku tańsze od Tesli. Może mieć 2x mniej teraflopów, a i tak będzie szybsze w pełnym zastosowaniu, a nie w syntetycznych testach na dodawanie z mnożeniem.
olaf Napisano 15 Listopad 2012 Napisano 15 Listopad 2012 Jaki przykład? Renderowania GPU to nie jest żaden przykład dla wykorzystania chipów Nvidii, to jest 1% ich zastosowania (mam na myśli GPGPU, a nie realtime rendering). Kasa płynie z kompletnie innego źródła. jednak CEO nvidii w latach 2010-11 na konferencjach bardzo mocno się skupiał na tych aspektach - 3D i 2D (wespół z adobe) i sporo miejsca poświęcał im na konferencjach, a to jednak ma znaczenie w branży. Poza tym jak powstały różne GPU renderery to jednak Intel na nieznane wody się nie rzuca, bo widzi jaka jest reakcja programistów i użytkowników na takie rozwiązania. druga sprawa nie wiem jak 2012 ale klastry z teslą w przeliczeniu wartości dolarowej 1Tflopa mocno namieszały - tak mi sie wydaje bo ogladałem tylko materiały promocyjne nvidii i wspolpracujacych z nią ośrodków badawczych i uniwerków.
SYmek Napisano 15 Listopad 2012 Napisano 15 Listopad 2012 jednak CEO nvidii w latach 2010-11 na konferencjach bardzo mocno się skupiał na tych aspektach - 3D i 2D (wespół z adobe) i sporo miejsca poświęcał im na konferencjach, a to jednak ma znaczenie w branży. Co do konferencji to podejrzewam, że mówi się o wykorzystaniu GPGPU w DCC głównie dlatego, że jest na co popatrzeć, w przeciwieństwie do obliczania pogody, czy analiz statystycznych ;), w praktyce słyszałeś o studiach, które okupują się Teslami? Czego używają do renderowania? Poza tym jak powstały różne GPU renderery to jednak Intel na nieznane wody się nie rzuca, bo widzi jaka jest reakcja programistów i użytkowników na takie rozwiązania. Powtarzam, nie powstał ani jeden renderer, którego Intel musiałby się obawiać. .Wszystko to zabawki dla pasjonatów lub proste narzędzia dla designerów (a ci i tak muszą mieć CPU). Mały klaster w Wecie czy MPC do policzenia fluidów w jednym filmie na customowym solverze, to ciekawostka, a nie zmiana sytuacji. druga sprawa nie wiem jak 2012 ale klastry z teslą w przeliczeniu wartości dolarowej 1Tflopa mocno namieszały - tak mi sie wydaje bo ogladałem tylko materiały promocyjne nvidii i wspolpracujacych z nią ośrodków badawczych i uniwerków. Zgadza się, i to się właśnie skończyło dzięki Phi, bo wszyscy wiedzą, że wskaźnik flop na dolar jest w przypadku gpu mylący (jest on znacznie niższy, bo praktyczna moc Tesli jest dużo niższa, niż teoretyczna). Phi jest nieporównanie lepsze do zastosowań biznesowych, bo wymaga znacznie mniejszego nakładu pracy wdrożeniowej i zawiera w sobie wszystko, co ludzie wymyślili w temacie programowania od 50lat (a nie 5).
Creator Napisano 15 Listopad 2012 Napisano 15 Listopad 2012 hmmm... coś mi sie wydaje że cenowo to będzie nieopłacalne dla vertexowych dłubaczy. To tak jak z Teslą na której render idzie w tym samym tempie jak na GTX, bo płacisz za precyzję (extended double-precision-cośtam i 80bit), a żaden renderer GPU nie potrzebuje 300 miejsc po przecinku w obliczeniach ;)
Monio Napisano 15 Listopad 2012 Napisano 15 Listopad 2012 SYmek- Spoko spoko. Bez unoszenia się. Może jak mówisz nie jest łatwo napisać coś na GPU ale jakoś nie widzę przeszkód żeby za jakiś czas renderery na grafach miały takie featuresy jak vray na procku. Renderery na GPU- najstarszy 3 lata. Vray - 15 lat. Poczekamy, zobaczymy. Ja tam bacznie wyczekuje na benchamark gtx790 który ma wyjść za niecały rok, jak się okaże że na Phi renderuje szybciej i z lepszym price/performace to nie będę się przecież upierał.
SYmek Napisano 15 Listopad 2012 Napisano 15 Listopad 2012 hmmm... coś mi sie wydaje że cenowo to będzie nieopłacalne dla vertexowych dłubaczy. To tak jak z Teslą na której render idzie w tym samym tempie jak na GTX, bo płacisz za precyzję (extended double-precision-cośtam i 80bit), a żaden renderer GPU nie potrzebuje 300 miejsc po przecinku w obliczeniach ;) Cena Quadro/Tessli jest czysto arbitralnym marketingowym zabiegiem Nvidii, może pamięć wnosi jakąś różnicę w kosztach produkcji (na pewno praca nad sterownikami), ale wszystko do kupy to nie będzie x10 jak to jest w tej chwili. Chipy są ~te same. Czyli płacisz haracz, a nie za podwójną precyzję). Jeśli za 6000 złotych możesz mieć kartę, które jest ~2.5 razy wydajniejsza od Twojego komputera (zakładając, że masz procesor nowej generacji) i działa na niej Twój renderer, to nie wydaje się to taka zła opcja. A jeśli dodatkowo możesz włożyć 5 takich kart w jedną płytę (pewnie już w racku), na której są już dwa Xeony, to to się wydaje ciekawa opcja przynajmniej dla studiów. SYmek- Spoko spoko. Bez unoszenia się. Polemizuję, a nie unoszę. jakoś nie widzę przeszkód żeby za jakiś czas renderery na grafach miały takie featuresy jak vray na procku. może dlatego, że nie piszesz rendererów. Renderery na GPU- najstarszy 3 lata. Vray - 15 lat. Poczekamy, zobaczymy. Ja tam bacznie wyczekuje na benchamark gtx790 który ma wyjść za niecały rok, jak się okaże że na Phi renderuje szybciej i z lepszym price/performace to nie będę się przecież upierał. Problem jest nie tyle wydajnościowy, ile systemowy. Tessle są w tej chwili szybsze, a jednak wciąż renderuje się na CPU. gtx790 wyjdzie w przyszłym roku, podobnie jak pewnie nowsza generacja Phi. Pytanie, która platforma daje realną szansę stworzenia narzędzi do pracy. Platforma to więcej niż teraflopy.
legomir Napisano 15 Listopad 2012 Napisano 15 Listopad 2012 SYmku powiedz mi tylko czy czasem nie ma interaktywnych REYESów na rendermanie przynajmniej do rerenderingu? To, by trochę łamało teorie o nędznych trójkątach z raytrace. I jeszcze inne pytanie w rodzaju czy tesla czasem nie jest głównie do przeliczania danych a wyświetlanie idzie na jakiejś innej karcie o ile się nie mylę to NVDIA reklamuje coś takiego jako maximus
SYmek Napisano 15 Listopad 2012 Napisano 15 Listopad 2012 SYmku powiedz mi tylko czy czasem nie ma interaktywnych REYESów na rendermanie przynajmniej do rerenderingu? To, by trochę łamało teorie o nędznych trójkątach z raytrace. Nie rozumiem, o czym mówisz, ale generalnie ja nie przeczę, że jest setka ciekawych zastosowań dla Cudy/OpenCL działających na GPU. Mówię o wykorzystaniu tej platformy do tworzenia samodzielnych rendererów, czyli bardzo skomplikowanych i zasobożernych programów, składających się zarówno z kodu szeregowego jak i współbieżnego, operujących na wielu typach danych i ich strukturach. I jeszcze inne pytanie w rodzaju czy tesla czasem nie jest głównie do przeliczania danych a wyświetlanie idzie na jakiejś innej karcie o ile się nie mylę to NVDIA reklamuje coś takiego jako maximus Tak. Tessla nie ma nic wspólnego z wyświetlaniem, jest akceleratorem GPGPU. Tylko w tym kontekście mówimy tutaj o GPU. Chipy Amd/Nvidii jako renderery realtime to inna historia.
Monio Napisano 15 Listopad 2012 Napisano 15 Listopad 2012 może dlatego, że nie piszesz rendererów. Owszem ale jakoś tak czuje że firmy które je piszą raczej by się tym nie zajmowały jeśli wiadomo by było i jakimś wąskim gardle które zablokuje możliwości rozwoju do tych prostackich rendererów. ;)
legomir Napisano 15 Listopad 2012 Napisano 15 Listopad 2012 Hmm... najbardziej chyba rozbudowany w tej chwili jest octane i jak patrzę na galerie(http://render.otoy.com/gallery.html) jakoś prostacko mi to nie wygląda.
SYmek Napisano 15 Listopad 2012 Napisano 15 Listopad 2012 Owszem ale jakoś tak czuje że firmy które je piszą raczej by się tym nie zajmowały jeśli wiadomo by było i jakimś wąskim gardle które zablokuje możliwości rozwoju do tych prostackich rendererów. ;) Gwoli formalności, te firmy (to znaczy jakieś dwie do trzech), to są jednoosobowe przedsięwzięcia, które eksploatują pewną niszę na rynku prostych rendererów dla ludzi, którzy nie potrzebują zaawansowanych narzędzi (np. designerów). I owszem, żadna z nich nie próbuje zrobić "dużego" renderera właśnie dlatego, że doskonale zdaje sobie sprawę z wąskich gardeł, których ich platforma w najbliższym czasie nie przekroczy. A co będzie dalej to się oczywiście zobaczy :) Hmm... najbardziej chyba rozbudowany w tej chwili jest octane i jak patrzę na galerie(http://render.otoy.com/gallery.html) jakoś prostacko mi to nie wygląda. Tak, te rendery są piękne, ale z technicznego punktu widzenia, są proste. Paradoksalnie Path-tracing jest także jednym z prostszych algorytmów renderowania (to znaczy MLT czy REYES są znacznie bardziej skomplikowane).
Monio Napisano 15 Listopad 2012 Napisano 15 Listopad 2012 Ok, czaje. Ciekawi mnie czym są te duże rzeczy o których piszesz.
Creator Napisano 15 Listopad 2012 Napisano 15 Listopad 2012 (edytowane) Apropo Octane'a/OTOY chłopaki chyba pracuja nad czymś nowym Edit: Aaa to jest technologia do skanu twarzy i ogólnie "fejs mołszyn kapcier etc." Edytowane 15 Listopad 2012 przez Creator
legomir Napisano 15 Listopad 2012 Napisano 15 Listopad 2012 SYmku co do REYESów to czasem sam Pixar nie stwierdził, że ta metoda w obecnych czasach nie jest potrzebna, więc będzie ukryta, a domyślnie będzie używane raytrace? No i priorytetem przy projektowaniu całego reyesu było jak największa szybkość, więc po prostu ucinał wszystko co było poza ramką frame robiąc przy tym było parę pętli. Czyli reasumując skomplikowany algorytm był potrzebny do maximum optymalizacji przy minimum obciążenia dla maximum szybkości. A przy GPU liczy się chyba maksimum wykorzystania mocy dla maksimum fizyczności przynajmniej w silnikach dedykowanych pod wizki, bo przecież nikt nie uwierzy, że w Maxwellu czy nawet Vray'u będzie się liczyć cały film(n-pigeon i nie chce słyszeć o sony i arnoldzie).
SYmek Napisano 15 Listopad 2012 Napisano 15 Listopad 2012 SYmku co do REYESów to czasem sam Pixar nie stwierdził, że ta metoda w obecnych czasach nie jest potrzebna Reyes zawita zaraz w silnikach realtime dla odmiany... A przy GPU liczy się chyba maksimum wykorzystania mocy dla maksimum fizyczności przynajmniej w silnikach dedykowanych pod wizki, bo przecież nikt nie uwierzy, że w Maxwellu czy nawet Vray'u będzie się liczyć cały film(n-pigeon i nie chce słyszeć o sony i arnoldzie). Dlaczego nie policzy? Nie rozumiem... Oczywiście, że można policzyć cały filmy zarówno w Vray/Arnoldzie czy Maxwellu. To jest właśnie przyszłość. Rozmawiamy o GPU, a nie ray/path tracingu. Przy GPU nie chodzi o fizyczność, bo ten sam fizyczny algorytm można zaimplementować pod CPU (patrz Maxwell, Arnold czy Mantra PBR), ale o interaktywność. Jej ceną jest jednak poważne uproszczenie programu.
czaps Napisano 16 Listopad 2012 Napisano 16 Listopad 2012 Ja bym się tam wstrzymał od podniecania się mozliwościami GPU . Nividia sprzedaje karty TESLE i QUADRO za ceny horrendalne... póki co ;) Programowanie pod open CL ma swoje minusy mimo szybkości działania i interaktywnych renderów. Poczekajcie na odpowiedź Intela opartą na innym jądrze niż GPU ale baaaaardzo skumulowaną wkrótce ;) Wtedy ceny będą spadać drastycznie ze strony Nvidii , trzeba chwilę jeszcze poczekać ;) pozdro czaps
SYmek Napisano 16 Listopad 2012 Napisano 16 Listopad 2012 Poczekajcie na odpowiedź Intela opartą na innym jądrze niż GPU ale baaaaardzo skumulowaną wkrótce ;) Co masz na myśli, coś innego, niż MIC (czyli obecnie Phi)?
czaps Napisano 16 Listopad 2012 Napisano 16 Listopad 2012 Co masz na myśli, coś innego, niż MIC (czyli obecnie Phi)? Jądro podobne czyli CPU i po części MIC ale oparty na kartach PCI express a nie całych zestawach + Mb opartych na Rackach. ;) pozdro czaps
SYmek Napisano 16 Listopad 2012 Napisano 16 Listopad 2012 Jądro podobne czyli CPU i po części MIC ale oparty na kartach PCI express a nie całych zestawach + Mb opartych na Rackach. Znów opis pasuje do Phi: PCIe, x86, MIC, wielokartowe setupy do racków...?
Rekomendowane odpowiedzi
Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto
Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.
Zarejestruj nowe konto
Załóż nowe konto. To bardzo proste!
Zarejestruj sięZaloguj się
Posiadasz już konto? Zaloguj się poniżej.
Zaloguj się