Skocz do zawartości

Intel Xeon Phi


Nowi

Rekomendowane odpowiedzi

  • Odpowiedzi 23
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

Top Posters In This Topic

Oj, rozwinie się, tylko nie wiadomo, kiedy na naszym podwórku. Już w tej chwili Phi jest szybko wdrażane w firmach HPC, kończąc to absurdalne zawracanie głowy z GPU. Pytanie tylko kiedy i kto zaadaptuje Phi do renderowania/symulacji. Nie powinno być trudno biorąc pod uwagę OpenCL1.2 (gorsze rozwiązanie) oraz chodzącego na tym Linuksa na niemal standardowym jądrze. Jak znam życie jeszcze w tym roku któryś produkcyjny renderer będzie miał build na Phi :)

 

skk.

Odnośnik do komentarza
Udostępnij na innych stronach

Ciekawe jak cena będzie przekładała się na wydajność w rednererach w porównaniu do nowych GTXów serii 700.

Nie wiem czy te intelowskie rozwiązania w ogóle przydadzą się grafikom. Przeliczanie renderu nie wymaga takiej precyzji danych a za tą intel będzie sobie liczył sprzedając te kombajny ludkom od wróżenia pogody. Kupuje popcorn i czekam na testy Phi vs Tesla vs GTX790.

 

edit:

http://blenderartists.org/forum/showthread.php?270543-GPGPU-CPU-add-on-card-war&p=2241061&viewfull=1#post2241061

 

Na sucho nie ma co patrzeć. Jak te karty spisują się w renderze wyjdzie dopiero w testach. Nie zdziwiłbym się jakby dwa gtx790 wygrały w renderze.

Edytowane przez Monio
Odnośnik do komentarza
Udostępnij na innych stronach

No niestety cena to jedno co mnie martwi przez wiele lat pewnie to nie będzie jeszcze dostępne, a może nawet w ogóle dla przeciętnego Grafika.

Z wydajnością to może być różnie do GPU, ale wydaje mi się że komunikacja z resztą sprzętu będzie zdecydowanie lepsza niż zwykłych kart graficznych.

Odnośnik do komentarza
Udostępnij na innych stronach

(...)

kolejna nowa rzecz, pewnie by się nie podniosła z niszy gdyby nie przykład z kart graficznych.

Jaki przykład? Renderowania GPU to nie jest żaden przykład dla wykorzystania chipów Nvidii, to jest 1% ich zastosowania (mam na myśli GPGPU, a nie realtime rendering). Kasa płynie z kompletnie innego źródła.

 

 

Ciekawe jak cena będzie przekładała się na wydajność w rednererach w porównaniu do nowych GTXów serii 700.

Nie wiem czy te intelowskie rozwiązania w ogóle przydadzą się grafikom. Przeliczanie renderu nie wymaga takiej precyzji danych a za tą intel będzie sobie liczył sprzedając te kombajny ludkom od wróżenia pogody. Kupuje popcorn i czekam na testy Phi vs Tesla vs GTX790.

 

Takie porównanie nie da się sensownie przeprowadzić, bo nie ma z czym rendererów CPU porównywać. Nie ma ani jednego renderera GPU, który byłoby sensownie stawiać obok poważnych, produkcyjnych rozwiązań. Wszystkie renderery GPU są prostackimi zabawkami do strzelania rayami po trójkątach. I to nie jest przypadek, po prostu programowanie GPU jest koszmarnie skomplikowane w porównaniu z x86. Najpierw musielibyśmy mieć praktyczny full wypas renderer, ze wszystkimi funkcjami takiego Vraya dajmy na to, i wtedy można by je w testach porównywać. Teoretyczna moc GPU jest g*wno warta, bo prawie nigdy nie można jej wykorzystać.

 

I tu właśnie pojawia się Phi, które programuje się jak zwykły procesor, na zwykłym kompilatorze, ze zwykłymi bibliotekami i jest w dodatku tańsze od Tesli. Może mieć 2x mniej teraflopów, a i tak będzie szybsze w pełnym zastosowaniu, a nie w syntetycznych testach na dodawanie z mnożeniem.

Odnośnik do komentarza
Udostępnij na innych stronach

Jaki przykład? Renderowania GPU to nie jest żaden przykład dla wykorzystania chipów Nvidii, to jest 1% ich zastosowania (mam na myśli GPGPU, a nie realtime rendering). Kasa płynie z kompletnie innego źródła.

 

jednak CEO nvidii w latach 2010-11 na konferencjach bardzo mocno się skupiał na tych aspektach - 3D i 2D (wespół z adobe) i sporo miejsca poświęcał im na konferencjach, a to jednak ma znaczenie w branży. Poza tym jak powstały różne GPU renderery to jednak Intel na nieznane wody się nie rzuca, bo widzi jaka jest reakcja programistów i użytkowników na takie rozwiązania.

 

druga sprawa nie wiem jak 2012 ale klastry z teslą w przeliczeniu wartości dolarowej 1Tflopa mocno namieszały - tak mi sie wydaje bo ogladałem tylko materiały promocyjne nvidii i wspolpracujacych z nią ośrodków badawczych i uniwerków.

Odnośnik do komentarza
Udostępnij na innych stronach

jednak CEO nvidii w latach 2010-11 na konferencjach bardzo mocno się skupiał na tych aspektach - 3D i 2D (wespół z adobe) i sporo miejsca poświęcał im na konferencjach, a to jednak ma znaczenie w branży.

 

 

Co do konferencji to podejrzewam, że mówi się o wykorzystaniu GPGPU w DCC głównie dlatego, że jest na co popatrzeć, w przeciwieństwie do obliczania pogody, czy analiz statystycznych ;), w praktyce słyszałeś o studiach, które okupują się Teslami? Czego używają do renderowania?

 

Poza tym jak powstały różne GPU renderery to jednak Intel na nieznane wody się nie rzuca, bo widzi jaka jest reakcja programistów i użytkowników na takie rozwiązania.

 

Powtarzam, nie powstał ani jeden renderer, którego Intel musiałby się obawiać. .Wszystko to zabawki dla pasjonatów lub proste narzędzia dla designerów (a ci i tak muszą mieć CPU). Mały klaster w Wecie czy MPC do policzenia fluidów w jednym filmie na customowym solverze, to ciekawostka, a nie zmiana sytuacji.

 

druga sprawa nie wiem jak 2012 ale klastry z teslą w przeliczeniu wartości dolarowej 1Tflopa mocno namieszały - tak mi sie wydaje bo ogladałem tylko materiały promocyjne nvidii i wspolpracujacych z nią ośrodków badawczych i uniwerków.

 

Zgadza się, i to się właśnie skończyło dzięki Phi, bo wszyscy wiedzą, że wskaźnik flop na dolar jest w przypadku gpu mylący (jest on znacznie niższy, bo praktyczna moc Tesli jest dużo niższa, niż teoretyczna).

 

Phi jest nieporównanie lepsze do zastosowań biznesowych, bo wymaga znacznie mniejszego nakładu pracy wdrożeniowej i zawiera w sobie wszystko, co ludzie wymyślili w temacie programowania od 50lat (a nie 5).

Odnośnik do komentarza
Udostępnij na innych stronach

hmmm... coś mi sie wydaje że cenowo to będzie nieopłacalne dla vertexowych dłubaczy. To tak jak z Teslą na której render idzie w tym samym tempie jak na GTX, bo płacisz za precyzję (extended double-precision-cośtam i 80bit), a żaden renderer GPU nie potrzebuje 300 miejsc po przecinku w obliczeniach ;)

Odnośnik do komentarza
Udostępnij na innych stronach

SYmek- Spoko spoko. Bez unoszenia się. Może jak mówisz nie jest łatwo napisać coś na GPU ale jakoś nie widzę przeszkód żeby za jakiś czas renderery na grafach miały takie featuresy jak vray na procku. Renderery na GPU- najstarszy 3 lata. Vray - 15 lat. Poczekamy, zobaczymy.

Ja tam bacznie wyczekuje na benchamark gtx790 który ma wyjść za niecały rok, jak się okaże że na Phi renderuje szybciej i z lepszym price/performace to nie będę się przecież upierał.

Odnośnik do komentarza
Udostępnij na innych stronach

hmmm... coś mi sie wydaje że cenowo to będzie nieopłacalne dla vertexowych dłubaczy. To tak jak z Teslą na której render idzie w tym samym tempie jak na GTX, bo płacisz za precyzję (extended double-precision-cośtam i 80bit), a żaden renderer GPU nie potrzebuje 300 miejsc po przecinku w obliczeniach ;)

Cena Quadro/Tessli jest czysto arbitralnym marketingowym zabiegiem Nvidii, może pamięć wnosi jakąś różnicę w kosztach produkcji (na pewno praca nad sterownikami), ale wszystko do kupy to nie będzie x10 jak to jest w tej chwili. Chipy są ~te same. Czyli płacisz haracz, a nie za podwójną precyzję).

 

Jeśli za 6000 złotych możesz mieć kartę, które jest ~2.5 razy wydajniejsza od Twojego komputera (zakładając, że masz procesor nowej generacji) i działa na niej Twój renderer, to nie wydaje się to taka zła opcja. A jeśli dodatkowo możesz włożyć 5 takich kart w jedną płytę (pewnie już w racku), na której są już dwa Xeony, to to się wydaje ciekawa opcja przynajmniej dla studiów.

 

SYmek- Spoko spoko. Bez unoszenia się.

Polemizuję, a nie unoszę.

 

jakoś nie widzę przeszkód żeby za jakiś czas renderery na grafach miały takie featuresy jak vray na procku.

może dlatego, że nie piszesz rendererów.

 

Renderery na GPU- najstarszy 3 lata. Vray - 15 lat. Poczekamy, zobaczymy.

Ja tam bacznie wyczekuje na benchamark gtx790 który ma wyjść za niecały rok, jak się okaże że na Phi renderuje szybciej i z lepszym price/performace to nie będę się przecież upierał.

 

Problem jest nie tyle wydajnościowy, ile systemowy. Tessle są w tej chwili szybsze, a jednak wciąż renderuje się na CPU. gtx790 wyjdzie w przyszłym roku, podobnie jak pewnie nowsza generacja Phi. Pytanie, która platforma daje realną szansę stworzenia narzędzi do pracy. Platforma to więcej niż teraflopy.

Odnośnik do komentarza
Udostępnij na innych stronach

SYmku powiedz mi tylko czy czasem nie ma interaktywnych REYESów na rendermanie przynajmniej do rerenderingu? To, by trochę łamało teorie o nędznych trójkątach z raytrace.

 

I jeszcze inne pytanie w rodzaju czy tesla czasem nie jest głównie do przeliczania danych a wyświetlanie idzie na jakiejś innej karcie o ile się nie mylę to NVDIA reklamuje coś takiego jako maximus

Odnośnik do komentarza
Udostępnij na innych stronach

SYmku powiedz mi tylko czy czasem nie ma interaktywnych REYESów na rendermanie przynajmniej do rerenderingu? To, by trochę łamało teorie o nędznych trójkątach z raytrace.

Nie rozumiem, o czym mówisz, ale generalnie ja nie przeczę, że jest setka ciekawych zastosowań dla Cudy/OpenCL działających na GPU. Mówię o wykorzystaniu tej platformy do tworzenia samodzielnych rendererów, czyli bardzo skomplikowanych i zasobożernych programów, składających się zarówno z kodu szeregowego jak i współbieżnego, operujących na wielu typach danych i ich strukturach.

 

I jeszcze inne pytanie w rodzaju czy tesla czasem nie jest głównie do przeliczania danych a wyświetlanie idzie na jakiejś innej karcie o ile się nie mylę to NVDIA reklamuje coś takiego jako maximus

Tak. Tessla nie ma nic wspólnego z wyświetlaniem, jest akceleratorem GPGPU. Tylko w tym kontekście mówimy tutaj o GPU. Chipy Amd/Nvidii jako renderery realtime to inna historia.

Odnośnik do komentarza
Udostępnij na innych stronach

może dlatego, że nie piszesz rendererów.

Owszem ale jakoś tak czuje że firmy które je piszą raczej by się tym nie zajmowały jeśli wiadomo by było i jakimś wąskim gardle które zablokuje możliwości rozwoju do tych prostackich rendererów. ;)

Odnośnik do komentarza
Udostępnij na innych stronach

Owszem ale jakoś tak czuje że firmy które je piszą raczej by się tym nie zajmowały jeśli wiadomo by było i jakimś wąskim gardle które zablokuje możliwości rozwoju do tych prostackich rendererów. ;)

 

Gwoli formalności, te firmy (to znaczy jakieś dwie do trzech), to są jednoosobowe przedsięwzięcia, które eksploatują pewną niszę na rynku prostych rendererów dla ludzi, którzy nie potrzebują zaawansowanych narzędzi (np. designerów). I owszem, żadna z nich nie próbuje zrobić "dużego" renderera właśnie dlatego, że doskonale zdaje sobie sprawę z wąskich gardeł, których ich platforma w najbliższym czasie nie przekroczy. A co będzie dalej to się oczywiście zobaczy :)

 

 

Hmm... najbardziej chyba rozbudowany w tej chwili jest octane i jak patrzę na galerie(http://render.otoy.com/gallery.html) jakoś prostacko mi to nie wygląda.

 

 

Tak, te rendery są piękne, ale z technicznego punktu widzenia, są proste. Paradoksalnie Path-tracing jest także jednym z prostszych algorytmów renderowania (to znaczy MLT czy REYES są znacznie bardziej skomplikowane).

Odnośnik do komentarza
Udostępnij na innych stronach

SYmku co do REYESów to czasem sam Pixar nie stwierdził, że ta metoda w obecnych czasach nie jest potrzebna, więc będzie ukryta, a domyślnie będzie używane raytrace? No i priorytetem przy projektowaniu całego reyesu było jak największa szybkość, więc po prostu ucinał wszystko co było poza ramką frame robiąc przy tym było parę pętli.

 

Czyli reasumując skomplikowany algorytm był potrzebny do maximum optymalizacji przy minimum obciążenia dla maximum szybkości.

A przy GPU liczy się chyba maksimum wykorzystania mocy dla maksimum fizyczności przynajmniej w silnikach dedykowanych pod wizki, bo przecież nikt nie uwierzy, że w Maxwellu czy nawet Vray'u będzie się liczyć cały film(n-pigeon i nie chce słyszeć o sony i arnoldzie).

Odnośnik do komentarza
Udostępnij na innych stronach

SYmku co do REYESów to czasem sam Pixar nie stwierdził, że ta metoda w obecnych czasach nie jest potrzebna

Reyes zawita zaraz w silnikach realtime dla odmiany...

 

 

A przy GPU liczy się chyba maksimum wykorzystania mocy dla maksimum fizyczności przynajmniej w silnikach dedykowanych pod wizki, bo przecież nikt nie uwierzy, że w Maxwellu czy nawet Vray'u będzie się liczyć cały film(n-pigeon i nie chce słyszeć o sony i arnoldzie).

 

Dlaczego nie policzy? Nie rozumiem... Oczywiście, że można policzyć cały filmy zarówno w Vray/Arnoldzie czy Maxwellu. To jest właśnie przyszłość. Rozmawiamy o GPU, a nie ray/path tracingu. Przy GPU nie chodzi o fizyczność, bo ten sam fizyczny algorytm można zaimplementować pod CPU (patrz Maxwell, Arnold czy Mantra PBR), ale o interaktywność. Jej ceną jest jednak poważne uproszczenie programu.

Odnośnik do komentarza
Udostępnij na innych stronach

Ja bym się tam wstrzymał od podniecania się mozliwościami GPU .

 

Nividia sprzedaje karty TESLE i QUADRO za ceny horrendalne... póki co ;) Programowanie pod open CL ma swoje minusy mimo szybkości działania i interaktywnych renderów.

 

Poczekajcie na odpowiedź Intela opartą na innym jądrze niż GPU ale baaaaardzo skumulowaną wkrótce ;)

 

Wtedy ceny będą spadać drastycznie ze strony Nvidii , trzeba chwilę jeszcze poczekać ;)

 

pozdro

 

czaps

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności