Skocz do zawartości

NVIDIA RealityServer przyśpiesza obliczenia w chmurze z użyciem GPU


adek

Rekomendowane odpowiedzi

NVIDIA RealityServer przyśpiesza obliczenia w chmurze z użyciem GPU

 

 

 

 

Pierwsze w swoim rodzaju rozwiązanie przesyła strumieniowo fotorealistyczne, interaktywne sceny 3D do dowolnego urządzenia podłączonego do Sieci

 

 

Firma NVIDIA twórca procesora graficznego (GPU) oraz firma mental images, światowy lider technologii renderingu, przedstawili platformę przetwarzania w chmurze o nazwie NVIDIA® RealityServer®, wydajne połączenie procesorów graficznych i oprogramowania, które przekazuje strumieniowo interaktywne, fotorealistyczne aplikacje 3D do komputerów PC, laptopów, netbooków i smartfonów podłączonych do Internetu.

 

NVIDIA RealityServer to efekt niemal 40 lat pracy firm NVIDIA i mental images nad sprzętem i oprogramowaniem – pozwala twórcom oprogramowania na tworzenie konsumenckich i przemysłowych aplikacji 3D nowej generacji, charakteryzujących się nowymi poziomami fotorealizmu.

 

  • Zespoły projektujące samochody będą mogły bezpiecznie dzielić się i wizualizować złożone, trójwymiarowe modele samochodów w różnych warunkach oświetleniowych i środowiskowych.
  • Architekci wraz ze swoimi klientami będą mogli przeglądać zaawansowane modele architektoniczne, renderowane w różnych warunkach, w tym także dziennych i nocnych.
  • Klienci sklepów internetowych będą mogli interaktywnie projektować wnętrza domów, meblować wnętrza i oglądać drapujące się tkaniny, a wszystko to przy idealnie wiernym oświetleniu.

 

Platforma NVIDIA RealityServer składa się z wyposażonego w GPU serwera NVIDIA® Tesla™ RS, działającego pod kontrolą oprogramowania RealityServer firmy mental images. Podczas gdy tworzenie fotorealistycznych obrazów dotychczas zajmowało godziny, a nawet dni, to nowe, pierwsze tego rodzaju rozwiązanie, może strumieniować fotorealistyczne sceny z prędkością podobną do tej, którą znamy z interaktywnych gier wideo.

 

 

„To gigantyczny skok naprzód, przybliżający nas do fotorealistycznej grafiki realizowanej w czasie rzeczywistym, dostępnej dla każdego”, powiedział Dan Vivoli, wiceprezes działu marketingu w firmie NVIDIA. „Firma mental images w pełni wykorzystała zasadę jednoczesnego wspólne przetwarzania danych przez GPU w celu osiągnięcia interaktywnego fotorealizmu w dowolnym miejscu i czasie - czyli czegoś, co jeszcze wczoraj należało do dziedziny science fiction”.

 

 

Oprogramowanie RealityServer wykorzystuje technologię iray®, pierwszy na świecie renderer odwzorowujący rzeczywiste zachowania fizyki za pomocą raytracingu i wykorzystujący masowo równoległą architekturę CUDA™ procesorów graficznych NVIDIA do tworzenia wyjątkowo dokładnych, fotorealistycznych obrazów poprzez symulację fizyki światła i jego interakcji z materią. Ponieważ raytracing jest jednym z najbardziej wymagających obliczeniowo zadań, technologia iray zaprojektowana jest tak, by wykorzystać moc obliczeń równoległych nowego serwera Tesla RS.

 

 

„Wszyscy powinniśmy mieć możliwość obcowania z Siecią w taki sposób, w jaki obcujemy ze światem rzeczywistym, czyli w trzech wymiarach”, powiedział Rolf Herken, prezes i szef działu badań firmy mental images. “RealityServer oferuje niezwykłe możliwości i dalekosiężne następstwa dla przedsiębiorstw i konsumentów, pozwalając na obcowanie z treściami 3D w takiej formie i w taki sposób, jaki spodziewa się nasz mózg”.

 

 

Cytaty klientów

 

„NVIDIA RealityServer zrewolucjonizuje sieciowy marketing i sprzedaż, pozwalając na interakcję z wirtualnymi produktami w bardziej realistyczny i bezproblemowy sposób”, powiedział David Kelly, prezes firmy mydeco.com, mieszczącej się w Wielkiej Brytanii witryny projektującej wnętrza. „Nasz interaktywny, wykorzystujący RealityServer program do planowania w 3D jest tym, co przyciąga klientów do mydeco, a realistyczna atmosfera niezmiennie wciąga każdego, kto jej doswiadczy. ”

 

 

„Jednym z największych problemów, z którym stykamy się w badaniach w lotnictwie, jest zarządzanie i wizualizacja ogromnych zestawów danych przy jednoczesnym zapewnieniu ich bezpieczeństwa”, powiedział Fernando Toledo, szef Virtual Reality Center w National Institute for Aviation Research na uniwersytecie stanowym w Wichita. „Zastosowanie NVIDIA RealityServer do tworzenia wirtualnych prototypów, oceny projektów i zdalnej wizualizacji rozwiązuje te kwestie. Jesteśmy pod wrażeniem wydajności i możliwości realistycznego renderingu naszych wielkich trójwymiarowych modeli CAD za pośrednictwem Internetu bez konieczności ujawniania naszego adresu IP”.

 

 

„NVIDIA RealityServer jest integralną częścią naszej aplikacji do tworzenia scen 3D wykorzystywanej w portalu Facebook”, powiedział Mark Zohar, prezes firmy SceneCaster. „To unikalne rozwiązanie, wykorzystujące model przetwarzania w chmurze i procesory graficzne oferuje niezwykłe możliwości w zakresie tworzenia realistycznych aplikacji i usług 3D”.

 

 

 

Informacja o produkcie

 

 

Platforma NVIDIA RealityServer będzie dostępna od 30 listopada 2009 roku. Konfiguracje Tesla RS rozpoczynają się od zestawu ośmiu GPU i mogą rosnąć wraz z liczbą użytkowników pracujących jednocześnie. Konfiguracje pozwalające na dostosowywanie do własnych potrzeb, dostępne będą w ofercie największych integratorów systemów i kosztować będą średnio 25000 USD.

 

 

 

Edycję deweloperską oprogramowania RealityServer 3.0 będzie można pobrać bezpłatnie, wraz z możliwością wykorzystania w aplikacjach niekomercyjnych. W przypadku zastosowań komercyjnych, opłata licencyjna przypadajaca na jeden GPU wynosi min. 3000 USD. W celu ustalenia innych opcji licencyjnych prosimy o kontakt pod adresem [email protected] .

 

 

 

Więcej informacji na temat NVIDIA RealityServer znaleźć można pod adresem www.nvidia.com/realityserver lub www.realityserver.com.

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 50
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

Top Posters In This Topic

No właśnie, czasem sobie myślę, że newsy są dobierane w sposób mocno zastanawiający.

 

Nie o to chodzi, to jest news (choć zdaje się sprzed dobrych dwóch tygodni), ale wypadałoby go sformatować jak news, a nie bez skrępowania wkleić notkę prasową producenta/dystrybutora - najwyraźniej na zamówienie. O co chodzi? Że jak to internet, to nie trzeba być wiarygodnym?

 

no i czemu tu się dziwić.... forum też musi się z czegoś utrzymywać. Mi akurat nie przeszkadzają takie newsy.

 

Zgadza się i dlatego taki dział powinien istnieć.

Odnośnik do komentarza
Udostępnij na innych stronach

Nie ma to jak forum fachowcow 3D... NIKT nie skomentowal samej technologii za to onetowe teorie spisku i krytyka kunsztu literackiego kwitna.

 

Nie onetowe teorie spisku, tylko prośba o zwykłą przyzwoitość. News to news, czyli informacja, reklama to reklama, czyli propaganda. Jak się te dwie rzeczy miesza wychodzi manipulacja.

 

Oczywiście, że nic wielkiego się nie dzieje. To była grzeczna sugestia, a co dyrekcja ośrodka z tym zrobi, ich sprawa.

Odnośnik do komentarza
Udostępnij na innych stronach

Dwie sprawy bo mi tu Baggins namieszal :P Przedtem myslalem ze rozumiem newsa tak po prostu. Potem mysle sobie "pewnie mi sie wydaje ze rozumiem no bo jak Baggins nie kuma to jak taki szaraczek jak ja nie widzi tam nic trudnego". Wiec prosba do Bagginsa - jakiego info oczekujesz jeszcze? Co tam jest niejasne? Bo mnie na prawde wystarczy ten opis mimo ze w formie przypominajacej artykul sponsorowany...

 

SYmek - rozumiem o co ci chodzi. Zobacz na CGSociety - tam czasem bezczelnie NIC nie pisza tylko daja linka do opisu na stronie producenta...

Koniec koncow masz info ze cos takiego sie pojawilo. Zeby byc brutalnym - bardziej mnie rozbawilo nazywanie reklamy piwa "Nowym shortem Bagginskiego" (no offence - nie czepiam sie realizacji i obejzalem z przyjemnoscia) ale i tu i tu nie widze tragedii. Wyolbrzymi sie tu i tam, wszystko jest osom i ground breaking... Takie zycie - kryzys i tak dalej - kazdy chce jakos przyciagnac klienta.

Edytowane przez Nezumi
Odnośnik do komentarza
Udostępnij na innych stronach

No a propos tego tekstu to jednak zrozumialem bardzo niewiele konkretu. Duzo sie moge domyslac ( zwlaszcza po przeczytaniu angielskiego oryginalu, bo tlumaczenie tez swoje namieszalo ) , ale tylko domyslac. Konkretu tam niewiele a o domyslach bez sensu dyskutowac. Stad wole poczekac na kolejne informacje.

 

salut

t.

Odnośnik do komentarza
Udostępnij na innych stronach

Baggins:'Hehe, a to ktos zrozumial ten belkot ?'.

 

Hehe, chyba najciekawsze jest to:

 

'RealityServer oferuje niezwykłe możliwości i dalekosiężne następstwa dla przedsiębiorstw i konsumentów, pozwalając na obcowanie z treściami 3D w takiej formie i w taki sposób,

jaki spodziewa się nasz mózg.'

 

W tym sensie, że mówi pewnie o własnym mózgu, no i tak należałoby

rozumieć ten bełkot. Hehe.

 

O! Jeszcze to jest doniosłe:

 

'Firma mental images w pełni wykorzystała zasadę jednoczesnego wspólne(go)

przetwarzania danych przez GPU w celu osiągnięcia interaktywnego fotorealizmu

w dowolnym miejscu i czasie - czyli czegoś, co jeszcze wczoraj należało do dziedziny science fiction.'

 

W mordę jeża, Nobel murowany. P.K. Dick od dziś to pętak.

Hehe. Fajne.

Odnośnik do komentarza
Udostępnij na innych stronach

Samego tekstu nie kminie, ale sugerując się szczątkowymi informacjami które ten tekst przedstawia, to dowiedziałem się że nVidia ma zamiar wprowadzić nową usługę renderingu w chmurze. Obraz będzie wysyłany na komputer klienta, a do obliczeń wykorzysta swoje technologie łączenia procesorów graficznych GPU z CPU CUDA i specjalnie przystosowanych do tego układów, dla przyspieszenia obliczeń xD.

To wszystko czy coś pominąłem :D? Czuje się lekko skołowany po tym tekście xD.

Odnośnik do komentarza
Udostępnij na innych stronach

Widzę, że chyba coś muszę napisać na swoją obronę bo nie było mnie kilka godzin a tu już tyle komentarzy.

 

Na Max3D.pl na dzien dziesiejszy nie ma sponsorowanych artykułów. Otrzymujemy sporo informacji prasowych i naprawdę niewiele z nich ląduje na głównej. Często faktycznie są reklamą...

 

Czasami jednak uważam, że warto niektóre z nich zamieścić. Tak było i w tym przypadku. Tutaj faktycznie, tekst pochodzi z informacji prasowej, nie pisałem swojego jednak chodziło mi bardziej aby napisać o samym RealityServerze, którym zreszta pisza też inni (w sensie zagraniczne serwisy).

 

Oryginał faktycznie przed chwilą znalazłem: http://www.nvidia.com/object/io_1256065754359.html

 

Podsumowując, sam RealityServer jest wart, aby o nim wspomnieć w newsach, natomiast informacja prasowa, zawsze będzie pewnego sposobu reklamą. Przyznam, że faktycznie nie zostało to za dobrze przetłumaczone na język polski.

Edytowane przez Adek
Odnośnik do komentarza
Udostępnij na innych stronach

To moze faktycznie po angielsku...

 

"The NVIDIA® RealityServer® platform is a powerful combination of NVIDIA® Tesla™ GPUs and 3D web services software that delivers interactive, photorealistic applications over the web, enabling product designers, architects and consumers to easily visualize 3D scenes with remarkable realism. "

 

Zrodlo:

http://www.nvidia.com/object/realityserver.html

 

Czyli, kurde bele, bedzie mozna miec slaby komp a mimo wszystko korzystac z bogatych wizualnie (w zalozeniu fotorealistycznych), interaktywnych prezentacji po sieci. Wszytko w temacie. Proste jak pieprzony klebek drutu. Czego tu nie rozumiecie jeszcze? Bo ja nie rozumiem czego nie rozumiecie, co jest takie trudne...

Bedzie se mozna poobracac telefonik jakis, samochodzik, pootwierac drzwi w nim, zajrzec pod maske czy tez nawet polazic po jakims domku - cholera wie co komu przyjdzie do glowy stworzyc z pomoca tego czegos. Wazne ze bedzie to smigac na slabym sprzecie i wygladac slicznie (w zalozeniu - jak wyjdzie w praniu to sie przekonamy).

 

A wy tu o jakims wielkim skolowaniu, niezrozumieniu i braku szczegolow. Jakich szcz

 

Jeez....

Odnośnik do komentarza
Udostępnij na innych stronach

No dobra, to wam troche opowiem o tej technologii, bo chyba nie zdajecie sobie sprawy jak duze znaczenie ma ta technologia dla przyszlosci renderingu.

 

W telegraficznym skrocie, wszyscy pamietaja karty Quadro Nvidii, ewoluowaly, ewoluowaly az powstal interfejs CUDA, jest to interfejs na miare XXI wieku pozwalajacy przetwarzac dowolne dane czy to 3d, czy strumieniowe czy tez roznego rodzaju tablice na kartach Nvidii.. a co najwazniejsze, posiada kompilator jezyka C - co pozwala bez wiekszych ceregieli skopiowac nasz kod tak zeby zamiast liczyc sie na procku -> zaczal sie liczyc na kartach Nvidii.

 

Co jest CUDA'owne w tym interfejsie? Otoz pozwala on te obliczenia zrownoleglic, oczywiscie nie zdejmuje z projektanta algorytmu obowiazku do przygotowania algorytmu do rownoleglosci obliczen, ale w sposob naturalny i prosty, pozwala te obliczenia wykonywac w sposob rownolegly. Co jeszcze na temat CUDA? Otoz nie zaklada on ze w komputerze mamy tylko jedna karte z GPU, co pozwala uruchomic nasz kod na wszystkich dostepnych w komputerze kartach Nvidii z interfejsem CUDA.

 

Gdy Nvidia i Mental Images odkryly swego czasu ze stworzyly potwora, zaczely kombinowac jak by tu wypromowac karty ktore bedzie sie wkladac do komputera, ktore stricte nie beda sluzyl do grania ale beda akcelerowac obliczenia zgodnie z interfejscem CUDA... tak powstaly karty Tesla, ktore na swoim pokladzie nie zawieraja RAMDACow, nie zawieraja zbednych dupereli, tylko kilka GPU, pamiec i minimalistyczny zestaw elektroniki.

 

Co z tego wynika? Do komputera wkladamy jedna mocna karte GPU Nvidii (Quadro), dokladamy 3 karty Tesla i powstaje smok, ktory posiada 960 potokow obliczeniowych dowolnego zastosowania. Taki czolg obliczeniowy to odpowiednik 120 rdzeni z procesorami Intela... wszystko w jednym komputerze, oczywiscie mozna wlozyc duzo wiecej o ile posiada sie specjalizowane plyty glowne o bardzo duzych przepustowosciach szyny danych.

 

Jak juz powstal taki czolg, Mental Images rozpoczelo badania jak mozna ich stary kod dzialajacy na CPU przeportowac na interfejs CUDA, okazalo sie ze mozna robic raytracing w czasie rzeczywistym z GI, kaustyka i wszystkim co potrzeba.

 

Nastepnym krokiem bylo stworzenie mechanizmu dzielenia strumieni obliczeniowych z jednego komputera lub klienta sieciowego tak aby obliczenia przeprowadzic na kilku komputerach z kartami o interfejsach CUDA.. i tak z czolgu powstala cala stajnia potworow, zarzadzana przez najnowszy produkt Mental Images Reality Server, ktory pozwala przyjac po sieci zlecenie renderingu, wszystkie niezbedne dane i tekstury, wyrenderowac i odeslac gotowy obraz.

 

Panie i Panowie, przyszlosc renderingu to nie procesory Intela, ktore w przyszlym roku doczekaja sie dopiero premiery procesora 12 rdzeniowego... tylko rendering w oparciu o interfejsy CUDA, na kartach GPU (Quadro, Tesla i potomne).

 

Cala reszta konkurencji moze teraz swoje plany sprzedazowe zwinac w rulonik i wepchnac tam gdzie ich miejsce... bo niestety spalo sie... i przespalo moment gdy ta niepozorna firma "po malemu cichu" zabila cwieka wszystkim... bo jako pierwsza dostarczy kompletne i dzialajace rozwiazanie :P

 

Wszystkie Vraya i inne bzdety sa dopiero w powijakach jezeli chodzi o portowanie kodu do interfejsow CUDA :D W koncu tez to zrobia, bo to niestety jedyna droga ratunku. W przyszlym roku mozemy oczekiwac zalewu rozwiazan hardwareowych opartych o GPU.

 

Dlatego dotychczasowa odpowiedz na pytanie "jaka karta do 3dsmax?" moze zmienic swoje brzmienie z "przeciez CPU renderuje" na "jak najsilniejsza i 2 Tesle do spolki"

 

Mam nadzieje ze troche rozjasnilem o co chodzi, jak ktos ma szczegolowe pytania, piszcie w watku.

Odnośnik do komentarza
Udostępnij na innych stronach

jeszcze odnosnie telefonikow przez internet, tak do tego tez mozna wykorzystac Reality Server, ale duze studia raczej beda uzywac tej platformy do renderingu w rozdzielczosciach kinowych niz do malych podgladow na stronie internetowej - historia dopiero zaczyna sie tworzyc, ale uwierzcie ze jest to moment przelomowy, kiedy w koncu powazne firmy stworzyly platforme ktora bedzie sprzedawana seryjnie i udostepnia narzedzia do stworzenia potwornie wydajnych farm renderingowych w oparciu o GPU... jak widac w obecnej chwili nie ma takiego produktu, a przepasc technologiczna pomiedzy wspolczesnymi CPU a GPU powieksza sie z tygodnia na tydzien.... Nvidia w obecnej chwili produkuje najbardziej wydajne i najbardziej skomplikowane procesory strumieniowe na swiecie... Intel sie nie umywa - poczytajcie specyfikacje obu procesorow

Odnośnik do komentarza
Udostępnij na innych stronach

Wielkim znawcą nie jestem, ale zdaje mi się ogólnie większa popularnością zaczyna się cieszyć OpenCL, trochę go ostatnio widuje w necie, ale może być to spowodowane tym że jego premiera miała miejsce niedawno. OpenCL zapewnia wsparcie dla każdej architektury procesorów od CPU po GPU i inne cuda, CUDA działa tylko na GPU Nvidi. Myślę że to raczej jest przyszłość, po co zamykać się na jeden typ procesora jednej firmy. Już nie mówiąc że OpenCL to otwarta technologia.

A GPU to z pewnością przyszłość :D i naprawdę ma powera, parę filmików ;):

http://www.santyago.pl/blog/read/nvidia-opencl-dla-linuksa.html

Odnośnik do komentarza
Udostępnij na innych stronach

25000 USD(bez licencji)... z licencjami drugie tyle. technologia ciekawa, ale raczej nie stanie się powszechna.

 

Ciekawi mnie co zaprezentują w konsolach następnych generacji XBOX720 i PS4. Bo to one będą wyznacznikiem "domowej", powszechnej technologii.

 

 

to nie jest "domowa" technologia jak to juz nazwales, nie patrz z pozycji

pana Czesia spod monopolowego, bo nie tedy droga

 

chcesz domowe rozwiazanie, prosze:

http://www.komputronik.pl/index.php/product/85446/Komputery-PC/Komputronik-Pro/Stacja_robocza_Pro_WS-206_V5_%5BM015%5D_V5_-_SuperComputer.html

 

gwarantuje ci ze w przyszlym roku bedziesz mogl spokojnie na nim renderowac uzywajac zwyklych rendererow MentalRay (iray), Vray (RT), ShaderLight

 

dobra cena jak za odpowiednik 120 rdzeni Intelowskich z taktowaniem ok 2,5GHz

Odnośnik do komentarza
Udostępnij na innych stronach

jeszcze odnosnie telefonikow przez internet, tak do tego tez mozna wykorzystac Reality Server, ale duze studia raczej beda uzywac tej platformy do renderingu w rozdzielczosciach kinowych niz do malych podgladow na stronie internetowej - historia dopiero zaczyna sie tworzyc, ale uwierzcie ze jest to moment przelomowy, kiedy w koncu powazne firmy stworzyly platforme ktora bedzie sprzedawana seryjnie i udostepnia narzedzia do stworzenia potwornie wydajnych farm renderingowych w oparciu o GPU... jak widac w obecnej chwili nie ma takiego produktu, a przepasc technologiczna pomiedzy wspolczesnymi CPU a GPU powieksza sie z tygodnia na tydzien.... Nvidia w obecnej chwili produkuje najbardziej wydajne i najbardziej skomplikowane procesory strumieniowe na swiecie... Intel sie nie umywa - poczytajcie specyfikacje obu procesorow

 

 

1) Reality Server istnieje od wielu lat i okazał się kompletną klapą mental images. Wbudowanie w niego iraya i cuda było bodaj jedyną szansą na odzyskanie pieniędzy włożonych w development tego potwora, który nikomu nie jest potrzebny.

 

2) Reality Server nie jest skierowane na rynek użytkowników prywatnych, ma bardzo specyficzne zastosowania a o iray wiadomo tyle że ma za wiele ograniczeń by być dla kogokolwiek rewolucją (vide masa technologi RT obecnych już na rynku). Mental goni tu konkurencje a nie odwrotnie.

 

3) Także sama CUDA jest etapem rozwoju czegoś innego i właśnie dlatego poważne firmy nie kwapią się z przenoszeniem na nią kodu do masowego użytku. Mental nie jest o lata świetle przed konkurencją, tylko jest wystarczająco zdesperowane, żeby pożenić iray (które gpu wcale nie potrzebuje), z trupem Reality Server i Cuda i stworzyć coś, co przeszłoby niezauważone, gdyby nie kampania głupot, która temu towarzyszy.

 

Kilka innych firm mogłoby już teraz sprzedawać taki produkt, tylko nikt by tego nie kupił, bo się to po prostu nie opłaca. Komu potrzebny jest renderer wymagający do pracy sprzętu za dziesiątki tysiący euro, który ma tyle ograniczeń? To jest prototyp, który udaje dojrzały produkt.

 

Propaganda to jedno, a rzeczywistość jak brak API, zamknięty zestaw shaderów, ograniczenia pamięci, wsparcie tylko dla C, minimalny zysk wydajności bez poważnych inwestycji sprzętowych, to drugie. Podobnie było z MetaSL, kawał g***nej technologii zapowiadanej jak rewolucja.

 

Przynajmniej od kilku lat wszystkie poważne renderery mają wersję na Celle, które bija na głowę wydajność cpu, i nikt się na to nie rzuca. Z Tessla będzie podobnie do czasu, aż całe środowiska przeniosą się na platformę wielopotokową. To będzie zresztą czas, kiedy Intel wyda swoją odpowiedź na nVidia i znów wszyscy będą się zastanawiać, czy renderować na gpu z problematycznym dostępem do pamięci ram, czy zostać na cpu..

 

Minie rok, albo dwa, wszyscy przepiszą wszystko na OpenCL albo podobne ustrojstwo, Intel wyda Larrabee, nVidia wzmocni zarządzenie pamięcią umożliwiając natywne używanie C++, będziemy mieli kilka enginów chodzących porównywalnie na tej samej ilości gigaflopów niezależnych od cpu/gpu, czyli podobnie jak teraz, tylko jak zwykle szybciej.

 

O to właśnie w tym chodzi. Mental próbuje wywrzeć wrażenie, że wyznacza jakieś standardy, a tym czasem sprawy zmieniają równocześnie dla wszystkich, wolniej niż się im wydaje, i nie sądzę, żeby byli choćby o jotę dalej od Vraya czy Rendermana (który od dawna działa na cellach a taki kod przenieść na OpenCL to już formalność).

 

Coś mi się wydaje, że im więcej mental się ogłasza, tym mniej ma do pokazania.

Odnośnik do komentarza
Udostępnij na innych stronach

Wielkim znawcą nie jestem, ale zdaje mi się ogólnie większa popularnością zaczyna się cieszyć OpenCL, trochę go ostatnio widuje w necie, ale może być to spowodowane tym że jego premiera miała miejsce niedawno. OpenCL zapewnia wsparcie dla każdej architektury procesorów od CPU po GPU i inne cuda, CUDA działa tylko na GPU Nvidi. Myślę że to raczej jest przyszłość, po co zamykać się na jeden typ procesora jednej firmy. Już nie mówiąc że OpenCL to otwarta technologia.

A GPU to z pewnością przyszłość :D i naprawdę ma powera, parę filmików ;):

http://www.santyago.pl/blog/read/nvidia-opencl-dla-linuksa.html

 

Tak samo jak OpenGL.. OpenCL nie ma wielkiego szczescia w promocji,

rynek ksztaltuje popyt a nie to czy cos jest dobre czy zle - jezeli wielcy tego swiata

powiedza ze OpenCL jest im potrzebny to pojda za nimi inni, problem polega na tym

ze wielcy swiata tego w dziedzinie renderingu juz nie chcieli czekac az w koncu

doczekamy sie finalnej wersji OpenCL... i powiedzieli CUDA.

Odnośnik do komentarza
Udostępnij na innych stronach

tjviking, ale z tego co da się wyczytać nie będąc programistą, to renderować sobie będzie można, ale na iray, czyli podobnież bez programowalnych shaderów, motion blur, cząsteczek, displacment, futer, włosów i paru jeszcze innych...

Dla mnie to wygląda bardziej jak oferta dla producentów oprogramowania z krainy viz.

 

No i to:

'Konfiguracje Tesla RS rozpoczynają się od zestawu ośmiu GPU i mogą rosnąć wraz z liczbą użytkowników

pracujących jednocześnie. Konfiguracje pozwalające na dostosowywanie do własnych potrzeb,

dostępne będą w ofercie największych integratorów systemów i kosztować będą średnio 25000 USD.'

 

'Edycję deweloperską oprogramowania RealityServer 3.0 będzie można pobrać bezpłatnie,

wraz z możliwością wykorzystania w aplikacjach niekomercyjnych.

W przypadku zastosowań komercyjnych, opłata licencyjna przypadajaca na jeden GPU wynosi min. 3000 USD.'

 

Sumując. Albo czegoś nie rozumiem, albo gdzie tu studia filmowe i 'zwyczajni' vizualizatorzy.

Ale jak coś napiszesz więcej, to poczytam.

 

Pozdrawiam

 

Edit: heh, SYmek wyprzedził i ładnie to ujął w słowach.

Edytowane przez peteRlo
Odnośnik do komentarza
Udostępnij na innych stronach

O to właśnie w tym chodzi. Mental próbuje wywrzeć wrażenie, że wyznacza jakieś standardy, a tym czasem sprawy zmieniają równocześnie dla wszystkich, wolniej niż się im wydaje, i nie sądzę, żeby byli choćby o jotę dalej od Vraya czy Rendermana (który od dawna działa na cellach a taki kod przenieść na OpenCL to już formalność).

 

Coś mi się wydaje, że im więcej mental się ogłasza, tym mniej ma do pokazania.

 

Co do Mentala, oni nie probuja wywrzec wrazenia, obstawili konia i musza teraz juz

na nim pojechac - a NVidia to dobry kon. Mieszasz troche kilka pojec naraz -

najwazniejsze jest ze jestes w stanie budowac wydajny klaster w oparciu o

technologie z pudelka ... i to jest wlasnie przelom. Firmy renderujace beda

mogly zredukowac zuzycie pradu i lepiej zagospodarowac miejsce w serwerowniach,

spadnac ceny renderingu... o to chodzi w takich zmianach i ja to nazywam rewolucja -

same rozwiazania nie sa rewolucyjne bo istnieja na rynku od wielu lat, tylko nikt

nie pochylil sie nad tym dostatecznie silnie zeby to wszystko dopiac do konca.

 

Co do Rendermana - nie wiem czy widziales w akcji RenderAnts,

niestety Japonczycy nie spia i Renderman dzialajacy na GPU to juz rzeczywistosc.

Odnośnik do komentarza
Udostępnij na innych stronach

tjviking, ale z tego co da się wyczytać nie będąc programistą, to renderować sobie będzie można, ale na iray, czyli podobnież bez programowalnych shaderów, motion blur, cząsteczek, displacment, futer, włosów i paru jeszcze innych...

Dla mnie to wygląda bardziej jak oferta dla producentów oprogramowania z krainy viz.

 

No i to:

'Konfiguracje Tesla RS rozpoczynają się od zestawu ośmiu GPU i mogą rosnąć wraz z liczbą użytkowników

pracujących jednocześnie. Konfiguracje pozwalające na dostosowywanie do własnych potrzeb,

dostępne będą w ofercie największych integratorów systemów i kosztować będą średnio 25000 USD.'

 

'Edycję deweloperską oprogramowania RealityServer 3.0 będzie można pobrać bezpłatnie,

wraz z możliwością wykorzystania w aplikacjach niekomercyjnych.

W przypadku zastosowań komercyjnych, opłata licencyjna przypadajaca na jeden GPU wynosi min. 3000 USD.'

 

Sumując. Albo czegoś nie rozumiem, albo gdzie tu studia filmowe i 'zwyczajni' vizualizatorzy.

Ale jak coś napiszesz więcej, to poczytam.

 

Pozdrawia

 

odnosnie iray... narazie ogolnie oglaszana wersja nie bedzie dostepna :D

gdyby zaczeli sprzedawac iray przed promocja Reality server opartego o GPU,

to nie sprzedaliby tych swoich dupnych komputerkow i licencji, bo

bylbys w stanie sam sobie zlozyc taki system

 

najpierw napasa sie na duzych firmach, potem rzuca ochlap dla ludu w

postaci iray - ktory wykorzysta wszystko co wlozysz do kompa lokalnie

Odnośnik do komentarza
Udostępnij na innych stronach

Bo to właśnie jest taka oferta dla bogatych firm, mających kupę kasy na "prestiżowe wynalazki".

 

Tak czy siak wzrost prędkości nawet o 100 razy przy tej cenie to ciągle niewiele.

 

wiesz ile pradu ciagnie 120/4=30 komputerow, ew jak zlozysz po 2 Xeony Quad to

15 komputerow... to jest ok. 15KW,

ten zestaw ciagnie w porywach do 1,2KW

 

powiedz mi jak przy dzisiejszych cenach zlozysz te 15 komputerow (kazdy po 2 Xeony Quad Core w srodku) za cene zblizona do tego zestawu?

do tego trzeba zapewnic im lacznosc gigaetehernetowa, gdzies postawic i

podlaczyc do 15KW zrodla pradu

 

...gwarantuje ze sporo problemow odejdzie przy takiej centralizacji przetwarzania,

projektujac rozwiazania produkcyjnie w firmie lub swiadczac uslugi renderingu

dopiero zaczniesz to doceniac - ja wiem ze do rozwiazan domowych to jest

to "news z dupy" bo i tak nie mowimy o takich pieniadzach, ale

zawsze tez troszke bedziesz w stanie rozszerzyc swoj stary sprzet dokladajac

karte GPU zamiast zmieniac totalnie platforme albo stawiac kolejnego kompa

Odnośnik do komentarza
Udostępnij na innych stronach

Co do Rendermana - nie wiem czy widziales w akcji RenderAnts,

niestety Japonczycy nie spia i Renderman dzialajacy na GPU to juz rzeczywistosc.

 

Tak, było w tym roku na Siggpaphie, tak jak szef Epica, który zapowiedział, że następny ich engine będzie mikropoligonalny (już o tym pisałem). Ale nie w tym rzecz. Algorytm reyes to nie PRMan, tak jak iray, to nie całe środowisko, z API, shaderami, tile'owanymi teksturami, które może być dopiero poważną propozycją.

 

najpierw napasa sie na duzych firmach, potem rzuca ochlap dla ludu w

postaci iray - ktory wykorzysta wszystko co wlozysz do kompa lokalnie

Iraya nie będą sprzedawać, bo za mało jeszcze potrafi ;)

 

Wszystko, co piszesz o prądzie i oszczędnościach byłoby znaczące, gdyby chodziło o pełnokrwisty renderer. Tymczasem mamy ograniczony prototyp za gigantyczną cenę. Kiedy będzie to pełnokrwisty renderer, będzie już stał w tłumie konkurencji, która będzie działać równie dobrze na gpu, co cpu :)

Odnośnik do komentarza
Udostępnij na innych stronach

wszystko co piszesz Symku to racja, nie bede sie spierac, ale jest to moment zwrotny,

kiedy podejmowane sa decyzje w czym utopic tony kasy

 

sprzet istnial od dawna, a dopiero w zeszlym roku opracowano efektywny algorytm

wyznaczenia KDTree na GPU, wszystkie poprzednie implementacje tworzyly drzewa suboptymalne,

glownie wychodzily z podzialow medianowych, co otworzylo mozliwosci nie tylko dla zwyklych rendererow, ale i dla reyesa i wszystkich trickow z chmurami punktow (splatting), fotonami i zwyklymi

trojkatami oczywiscie

 

moment w ktorym doczekamy sie pelnej implementacji moze byc policzony w miesiacach, to co limitowalo implementacje to slaby research firm produkujacych renderery i to wcale nie te firmy

wymyslaja nowe technologie tylko kilka uniwerkow w Korei i Chinach do spolki z azjatyckim oddzialem Microsoftu - te wlasnie jednostki dzieki spopularyzowaniu swoich algorytmow przyczynily sie

do podjecia decyzji przez wielkie firmy softwareowe, czyli oceny ze to juz moment w ktorym mozna

sie rzucac na implementacje bo istnieja do tego podstawy teoretyczne

Odnośnik do komentarza
Udostępnij na innych stronach

Tak samo jak OpenGL.. OpenCL nie ma wielkiego szczescia w promocji,

rynek ksztaltuje popyt a nie to czy cos jest dobre czy zle - jezeli wielcy tego swiata

powiedza ze OpenCL jest im potrzebny to pojda za nimi inni, problem polega na tym

ze wielcy swiata tego w dziedzinie renderingu juz nie chcieli czekac az w koncu

doczekamy sie finalnej wersji OpenCL... i powiedzieli CUDA.

 

No to akurat miało by miejsce gdyby dotyczyło gierek, tam OpenGL nie zabłysnął bo woleli nie czekać i wejść na DX, ale my mówimy o innych zastosowaniach w których raczej przeważa OpenGL, a samo OpenCL po za tym że dostarcza więcej możliwości to w dodatku jest dobrze znany i propagowany nawet przez Nvidie (jednego z tych wielkich tego świata) w końcu też łożyła kase na ten projekt ;) tak samo jak Intel, AMD i parę innych wielkich tego świata.

 

A specjalnego falstartu ze strony CUDA nie ma wykorzystanie tej technologi też jest w powijakach i dopiero czeka na boom, a OpenCL też już jest, więc szanse są wyrównane, gdyby oczywiście konkurowały, co raczej nie ma miejsca. Sama Nvidia łączy OpenCLową akceleracje GPU za pomocą interfejsu CUDA w swoich kartach, jedynie musimy czekać na wsparcie ze strony innych firm, nie znam wszystkich faktów, ale ponoć NV mówiła że wszystkie jej produktky mające wsparcie CUDA będą obsługiwać OpenCL.

 

Podkreślam że sam wielkim znawcą elektroniki nie jestem, raczej staram się utrzymać na powieszchni by nie zacząć się cofać.

 

 

PS Moim zdaniem, jedyną konkurencją w tym segmencie można nazwać DirectX 11 a OpenGL + OpenCL (pomijając biblioteki do obslugi mediów innych niż obraz).

 

Akurat ta usługa ma się jedynie do CUDA ponieważ to produkt NV po co im wsparcie OpenCL skoro i tak zamierzają używać jedynie swoich produktów, których koszty ograniczają się do produkcji, ale ja mam na myśli raczej wykorzystanie akceleracji GPU w naszych domowych blaszakach, które zawierają również zwykłe CPU.

Edytowane przez n-pigeon
Odnośnik do komentarza
Udostępnij na innych stronach

Akurat ta usługa ma się jedynie do CUDA ponieważ to produkt NV po co im wsparcie OpenCL skoro i tak zamierzają używać jedynie swoich produktów, których koszty ograniczają się do produkcji, ale ja mam na myśli raczej wykorzystanie akceleracji GPU w naszych domowych blaszakach, które zawierają również zwykłe CPU.

 

firma kalibru NVidia nie moze nie zaimplementowac OpenCL, oni musza zbierac kazde

okruszki w dobie recesji

 

a teraz odnosnie OpenCL, pomimo ze bylem fanatykiem OpenGL i OpenCL tez

mi sie bardzo podoba, sama specyfikacja nie jest dokonczona, OpenCL to raczej

zbior zalecen niz dokladna specyfikacja, nie opisano do konca zawilosci rzutowania

danych wektorowych (zmiany typow etc)- to czego sie obawiam to rozne

zachowanie tego samego kodu w implementacjach roznych producentow,

drugi raz popelniaja ten sam blad zostawiajac furtke na niedomowienia i

pozwalajac na dowolnosc implementacji.. to samo zrobili przy OpenGL

(w sensie konsorcjum)

 

jesli sprzet roznych producentow ma utworzyc spojna platforme to moim zdaniem

nie powinno byc miejsca na takie wpadki

 

oczywiscie mozna zawsze sprawe skwitowac ze wybieramy sprzet firmy X i tylko

tego sprzetu uzywamy do utworzenia rozproszonej platformy OpenCL, wtedy

optymalizujemy nasz kod pod te platforme i wtedy wszystko jest jasne

Odnośnik do komentarza
Udostępnij na innych stronach

firma kalibru NVidia nie moze nie zaimplementowac OpenCL, oni musza zbierac kazde

okruszki w dobie recesji

Nie to raczej nie to, choć może mieć racje bytu :D OpenGL ma obsługiwać wszystkie platformy, CUDA tylko GPU NV, a skoro i tak będą używać tylko własnego sprzętu, bo niby po co maja płacić haracz przykładowo Intelowi za ich CPU skoro i tak wystarcza im ich własne rozwiązania sprzętowe z tąd oparcie na CUDA. OpenCLa pewnie chcą wykorzystać w inncy sposób, gdyby tak nie było, nie łożyli by kasy na jego powstanie.

 

a teraz odnosnie OpenCL, pomimo ze bylem fanatykiem OpenGL i OpenCL tez

mi sie bardzo podoba, sama specyfikacja nie jest dokonczona, OpenCL to raczej

zbior zalecen niz dokladna specyfikacja, nie opisano do konca zawilosci rzutowania

danych wektorowych (zmiany typow etc)- to czego sie obawiam to rozne

zachowanie tego samego kodu w implementacjach roznych producentow,

drugi raz popelniaja ten sam blad zostawiajac furtke na niedomowienia i

pozwalajac na dowolnosc implementacji.. to samo zrobili przy OpenGL

(w sensie konsorcjum)

 

jesli sprzet roznych producentow ma utworzyc spojna platforme to moim zdaniem

nie powinno byc miejsca na takie wpadki

 

oczywiscie mozna zawsze sprawe skwitowac ze wybieramy sprzet firmy X i tylko

tego sprzetu uzywamy do utworzenia rozproszonej platformy OpenCL, wtedy

optymalizujemy nasz kod pod te platforme i wtedy wszystko jest jasne

 

Rozumiem, z wyjątkiem technicznych szczegułów (hehe w sumie i tak nie są mi potrzebne), dobrze wiedzieć, wole znać pros i cons dotyczące technologi, nawet jeśli jestem raczej konsumentem końcowym :), ale przyznasz że wielkiego wyboru nie mamy, nie ma bezpośredniego konkurenta OpenCL, a jeśli chodzi o niedociągnięcia są jak w każdym sofcie, jedyne co nam pozostaje to apelacje na forum Khronosa xD. Myśle że jednak już dostali rakcje zwrotną i może w przyszyłych wersjach ujżymy poprawe, to samo dzieje się w końcu z OpenGL, z tego co mi wiadomo, po niezbyt ciepłym przyjęciu OpenGL 3.0 w następnych wersjach idą w stronę ogólnego zadowolenia, ponoć 3.0 miało być jedynie podwaliną pod dalsze przeróbki, na które czekano, a niektóre ujżały światło dzienne w wersjach 3.1, 3.2, może i w tym przypadku jest podobnie.

Odnośnik do komentarza
Udostępnij na innych stronach

Myśle że jednak już dostali rakcje zwrotną i może w przyszyłych wersjach ujżymy poprawe, to samo dzieje się w końcu z OpenGL, z tego co mi wiadomo, po niezbyt ciepłym przyjęciu OpenGL 3.0 w następnych wersjach idą w stronę ogólnego zadowolenia, ponoć 3.0 miało być jedynie podwaliną pod dalsze przeróbki, na które czekano, a niektóre ujżały światło dzienne w wersjach 3.1, 3.2, może i w tym przypadku jest podobnie.

 

no i widzisz to sa glowne powody dla ktorych programisci niestety nie sa tak

entuzjastycznie nastawieni do OpenCL i OpenGL, mowa o programistach

gier komputerowych, rendererow etc a nie jakis akademickich kretach, ktorym

sie wydaje ze skoro odpalili swoj kod na jednym GPU, danego producenta to

juz sa w ogrodku i witaja sie z gaska... niestety, producent rozwiazan na masowa skale

jest z reka w nocniku, skoro musi pisac oddzielny kod pod karty kazdego producenta

z osobna... pozwolisz na moje glosne HA,HA w tym momencie, bo sie

zapytam co to za standard... skoro znow piszemy oddzielny kod pod kazda platforme?

Odnośnik do komentarza
Udostępnij na innych stronach

no i widzisz to sa glowne powody dla ktorych programisci niestety nie sa tak

entuzjastycznie nastawieni do OpenCL i OpenGL, mowa o programistach

gier komputerowych, rendererow etc a nie jakis akademickich kretach, ktorym

sie wydaje ze skoro odpalili swoj kod na jednym GPU, danego producenta to

juz sa w ogrodku i witaja sie z gaska... niestety, producent rozwiazan na masowa skale

jest z reka w nocniku, skoro musi pisac oddzielny kod pod karty kazdego producenta

z osobna... pozwolisz na moje glosne HA,HA w tym momencie, bo sie

zapytam co to za standard... skoro znow piszemy oddzielny kod pod kazda platforme?

 

Trudno się nie zgodzić, pozostaje czekać aż wszystko się unormuje, w końcu i tak nie ma innego pretendenta do miana, standardu.

Dzięki za wyjaśnienia. :)

Odnośnik do komentarza
Udostępnij na innych stronach

Nono - teraz to jest co czytac. Wielkie dzieki dla tjvikinga, SYmka i n-pigeona za rzeczowy wklad w dyskusje !

 

Dwa pytania mi sie nasuwaja w zwiazku z tym co pisal SYmek - jesli jest to wszystko faktycznie obarczone takimi ograniczeniami, to zastanawiam sie skad tak wysokie ceny. Wyobrazam sobie ze takiego produktu nie kupuja firmy wydajac kase na podstawie jedynie marketingowego belkotu, ktory ktos przeczytal na sieci. Zwlaszcza teraz - z pewnoscia badaja sprawe blizej oceniajac stosunek wartosci do ceny. Z drugiej strony producent wie ze sprawa zostanie zbadana wiec nie moze podac cen z kosmocu "bo tak" - znaczy moze, ale wtedy kto to kupi? Jak to zatem jest? Czy aby na pewno jest to tak "slabe"?

 

Pytanie drugie - jak na tle tego calego szumu wokol Nvidii ma sie sprawa ATI/AMD i jego kart? Sam od lat uzywam wylacznie Nvidii ale nie cieszylby mnie brak konkurencji i tym samym brak impulsu do obnizek ;)

Odnośnik do komentarza
Udostępnij na innych stronach

no wlasnie Symkowi wydaje sie to slabe - nie wiem dlaczego :D

bo juz nie jest slabe i idzie do sprzedazy... wiec nie moze byc juz slabe

 

a ja osobiscie to nawet jestem za hegemonia nvidii, no coz jak ktos nie umie robic kart np. Intel,

to niech nie pokazuje nam nawet tego swojego larabeepozalsieboze bo szkoda na to czyjegokolwiek czasu - na konferencji pokazali syfna scenke, ktora mogla wyrenderowac karta z zeszlego

wieku, nie mowiac o wspolczesnych GPU Nvidii czy AMD... wiec szkoda gadac, kto jak kto ale

wlasnie Intel nie ma co pokazac, wiec pokazal ze niby cos robi i ze to bedzie hit... hit moze i bedzie,

ale tylko w brukowcach

 

mnie interesuja konkrety, konkrety pokazal VRAY RT, Mental Images ze swoim IRAY i to sa niestety

jedyne rozwiazania ktore obecnie dzialaja - SHaderLight usiluje dociagnac implementujac na szybko rendering przy pomocy CUDA i OpenCL

Odnośnik do komentarza
Udostępnij na innych stronach

no wlasnie Symkowi wydaje sie to slabe - nie wiem dlaczego :D

bo juz nie jest slabe i idzie do sprzedazy... wiec nie moze byc juz slabe

 

a ja osobiscie to nawet jestem za hegemonia nvidii, no coz jak ktos nie umie robic kart np. Intel,

to niech nie pokazuje nam nawet tego swojego larabeepozalsieboze bo szkoda na to czyjegokolwiek czasu - na konferencji pokazali syfna scenke, ktora mogla wyrenderowac karta z zeszlego

wieku, nie mowiac o wspolczesnych GPU Nvidii czy AMD... wiec szkoda gadac, kto jak kto ale

wlasnie Intel nie ma co pokazac, wiec pokazal ze niby cos robi i ze to bedzie hit... hit moze i bedzie,

ale tylko w brukowcach

 

mnie interesuja konkrety, konkrety pokazal VRAY RT, Mental Images ze swoim IRAY i to sa niestety

jedyne rozwiazania ktore obecnie dzialaja - SHaderLight usiluje dociagnac implementujac na szybko rendering przy pomocy CUDA i OpenCL

 

Ta technologia ma znikome zastosowanie w branży graficznej. Jej cana wynika z targetu, czyli dużych firm zajmujących się projektowaniem i designem, którym wystarczy mało elastyczny system renderujący serwujący obraz przez internet swoim klientom. Być może Porchse będzie pokazywać nowy model samochodu komuś z zarządu ;). Cena nie wynika w ogóle z jakości technologii, jest bardziej wypadkową innowacyjności i użyteczności a przede wszystkim (!) ilości kopii, które mamy nadzieje sprzedać. Chryste, przecież wysoka cena wyraźnie świadczy o tym, że sama nVidia nie ma złudzeń co do swojego rozwiązania.

 

Nie chce mi się wchodzić w szczegóły, rozumiem fascynację tjvikinga nową technologią, tyle że sam w nią nie wierzę. Uważam, że programowanie na platformę GPU mija się z celem i jest chwilową aberacją. Wbrew temu, co mówicie, nikt nie przedstawił jeszcze gotowego produktu na GPU. Wszystkie anonsy są rodzajem dawania znać o sobie w czasach przemian, a nie komercyjną propozycją. Mylicie propagandowy szum z ofertą handlową. Nie przedstawił, bo oczekuje na udoskonalenie cudy (C++!!!), oraz kontr-propozycję konkurencji. Widzicie Vraya i iraya na cuda i wydaje Wam się to dowód na to, że da się, tymczasem jest wręcz przeciwnie. Ograniczenia tych produktów świadczą o tym, że się nie da, przynajmniej nie w tym momencie...

Można zrobić zabawkę z zafixowanym zestawem funkcji (iray to pathtracer w istocie najprostszy z algorytmów) a nie kompletne środowisko, które trzeba by zaprogramować w koszmarnych warunkach.

 

Polecam październikowy numer Communications z artykułem "View of parallel computing" analizującym szczegółowo w istocie dość trudną sytuację branży softwarowej, która nie nadążyła za zmianami hardware'u i oczekiwaniami ludzi. Obawiam się, że wygra platforma uniwersalna i prosta w zastosowaniu, która równie dobrze obsłuży wielopotokowo bazę danych co renderer. Zaimplementować pathtracer na gpu to pestka (istnieją 100-linijkowe implementacje oraz gotowe rozwiązania od nvidii) w porównaniu ze wszystkim tym, co firmy posiadające park sprzętowy w istocie na nim robią. Symulacje, konwersje, obsługa baz danych etc etc. Za tym idzie wiedza i masa technologii poza samym śledzeniem promieni.

 

Oczywiście, że ludzie nie wiedzą, co dalej będzie, kiedy Intel przedstawi swoją propozycję i jakie będę jej szczegóły, więc chcą się zabezpieczyć. Zapewniam jednak, że programiści, jeśli tylko będą mogli wybrać, wybiorą łatwiejsze rozwiązanie, a jest nim cpu, a nie sięganie prawą ręką do lewej kieszeni przez ucho igielne pci-express ;). Przecież zarówno Intel jak i nVidia to wiedzą, stąd spokój pierwszego i kosmiczne ceny drugiego, który wie, że ma wciąż słaby produkt, który może zainteresować wąskie grono klientów ze specyficznymi wymaganiami.

 

Jak sami widzicie, przyszłość to kwestia wiary a nie faktów ;)

Edytowane przez SYmek
Odnośnik do komentarza
Udostępnij na innych stronach

czytalem ten artykul, ale nic z niego nie wynika, na rynku jest marazm od dluzszej chwili i

producenci softu ociagaja sie strasznie - brak jest czynnika decyzynego, dlatego

wygra rozwiazanie nie koniecznie najlepsze i nie koniecznie najbardziej przenosne - niemniej jednak

pewne rzeczy sie zmieniaja, wspolczesne rozwiazania do obliczen i renderingu musza i beda korzystac

z duzej rownoleglosci obliczen, a to jak wiadomo wymaga nowego podejscia do przetwarzania danych -

moze nie tyle nowego co zapomnianego (podam przyklad: rendering w takich pipelineach jak

Mental Ray czy PRMAN jest tak silnie nierownolegly i sporo pary idzie na zakolejkowane

obliczenia i kolejne etapy obliczen, ze tylko jednoczesny rendering wielu klatek daje w

srednim przypadku jakotaki przyrost predkosci, gdyby rozpatrywac pojedyncza klatke to

wspolczesny proces renderingu z etapowym liczeniem roznych shadowmap, point caches etc

musi trwac i trwa potwornie dlugo a ilosci mielonych danych sa przerazajace)

to co musi sie zmienic to podejscie do jednowatkowych procesow, ktore miela ogromne ilosci danych

przez wiele godzin na korzysc podzialu takiego cyklu na duzo mniejsze kawalki i obrabianie tego na wielu CPU czy GPU - algorytmy dopiero powstaja, bo tak jak sam zauwazyles branza softwareowa ma problemy ale nie ze wzgledu na brak pomyslow... tylko na spore braki w wiedzy, smutne jest ze

wiele instytutow i osob prywatnych prowadzi badania na wlasna reke nad rzeczami, ktore przydadza sie firmom typu Nvidia czy MI [moje wlasne zdanie: wiele osob po prostu wziela cholera jak patrzyli na nieudolnosc firm softwareowych w wykorzystaniu GPU/CPU - ja osobiscie czekam na renderer korzystajacy porzadnie z GPU od 2003 roku mam nadzieje ze niedlugo sie w koncu doczekam]

 

wspominales wczesniej procesory Cell... no coz, no coz, no coz... nie przyjelo sie? (hmm jakis producent hardwareu spopularyzowal to? nie :( )

 

karty Pure.... nie przyjelo sie? (troszke pokopalo, ale poniewaz byl to wynalazek jednorazowy,

bez supportu od strony dalszego rozwoju, zdechlo, zagrzebalo sie i lezy)

 

GPU... kazdy ma to w swoim kompie... jesli sie nie przyjmie... to ludzie powinni sie zaczac leczyc :P

 

Intel niezbyt szybko bedzie w stanie zaoferowac procesory przy obecnej konstrukcji, ktore

beda w stanie rywalizowac z konstrukcja GPU, ze wzgledow historycznych, Intel juz dawno dal ciala

zamiast isc w kierunku procesorow RISC z roku na rok coraz bardziej komplikuje uklad, niedlugo

beda mieli problemy z odprowadzaniem ciepla i upakowaniem wielu rdzeni w jednym miejscu z tego

wzgledu ze sporo pary idzie na operacje naprawde malo potrzebne... aczkolwiek konieczne

ze wzgledow historycznych, sytuacje pogarsza WIndows ktory na moment wygladal tak jak powinien

wygladac system XXIw... a bylo to za czasow WIndows NT, kiedy to ktos genialnie wymyslil ze moze

odseparowac jadro od cech procesora... niestety po kilku kolejnych wersjach dla ludu, wszyscy

zapomnieli ze moze wypadaloby wykonywac mikrokod zamiast czystego i wypasionego

asseblera ociezalych procesorow Intela.... teraz chyba tylko tego zwierza mozna zagazowac zeby

sie pozbyc ogona przeszlosci

 

jezeli juz obstajemy przy CPU a nie GPU... to idealem bylby system Linuxowy z kompilatorem

pod nowe procesory INtela, ktore moglyby rozwinac skrzydla gdyby ucieto kompatybilnosc z

x86, MMX, SSE1/2/3 - wywalic te zaszlosci i zrobic prawdziwy procesor wektorowy, ale tak sie nie da,

Intel produkuje procki na rynek PC i wiekszego rynku narazie sobie nie znajdzie

 

dochodzimy do drugiego dna, kiedy zawilosc relacji pomiedzy producentem, uzytkownikiem a projektantem osiagnela taki stopien za zaczyna stopowac rozwo - to nie prawda ze nie mozna lepiej i

szybciej i taniej... mozna.... tylko... nie da sie w obecnej sytuacji, moze w innej galaktyce, w innym czasie w innych realiach

Odnośnik do komentarza
Udostępnij na innych stronach

yello,

 

pozwole sobie wrzucic moje 3 grosze apropo CUDów i OpenCL. Sterowniki

openCL do certyfikacji u khronosow zglosily juz: nvidia (gf 8000 i wzwyz),

amd (jednolity sterownik: hd 4000 wzwyz i cpu), apple (wlasny sterownik

dla kart intela, amd i nvidii), s3 (tak tak... taka kiedys istniala firma

produkujaca karty graficzne i wraca na rynek), i arm ( mowimy o intelu, amd,

nvidii a arm produkuje wiecej chipow niz te firmy razem wziete, jesli sie nie

myle 15 miliardow urzadzen na swiecie dziala na arm'ach). 3 zostaly juz

oficjalnie certyfikowane jako zgodne z openCL: nvidia (gpu), amd (gpu+cpu) i

apple (gpu+cpu). dodatkowo directcompute 5 wspierany jest przez nowe

karty amd/ati i nie widze mozliwosci aby nvidia sie z niego wycofala (strzal w

prawa stope ze strzelby, lewa juz sobie nvidia dawno odstrzelila.. ale o tym za

chwile).

 

CUDA niestety (a moze -stety) to dla biznesu martwa technologia "like the

dinosaur". To wlasnie w biznesie nikt o zdrowych zmyslach nie zamierza sie

laczyc z jednym dostawca sprzetu (nvidia), ktory na dodatek w ostatnich

latach ma baardzo slabe relacje ze swoimi inwestorami / partnerami. Przy

takim spolecznym poparciu openCL / directcompute CUDA zostanie nisza

wlasnie dla: akademii (bo to sa aplikacje pisane pod specyficzny sprzet,

aplikacje uruchamiane zazwyczaj w jednej kopii i rynek docelowy jest

marginalny) i dla wewnetrznych projektow nvidii vide: reality server, nvidia

cloud computing czy co jeszcze wymysla. nie mozemy zapominac o physx,

ale powiedzmy sobie szczerze penetracja rynku jest na razie tak mala ze

nie jest to powod dla ktorego CUDA mialaby wyprzec openCL.

 

 

A teraz dlaczego nvidia niby strzelila sobie w stope. Jen Hsun Huang to jest

gosc pokroju Johna Romero (pamietacie takiego goscia ktory odszedl z id

software i zaczal pisac najza***sza gre na swiecie - daikatane a potem

przepalil cala kase na drogie fotele w biurze ze szklanym dachem - to w

skrocie, polecam poznanie tego przypadku bo bardzo to wesole - btw..

co za idiota robi szklany dach w teksasie w miejscu gdzie programisci i

graficy maja patrzec na monitory). poniewaz nvidia jest troche w dolku

to zdecydowal sie pobierac 1 dolara pensji rocznie, ale moim zdaniem i tak

jest przeplacony. kiedy zaczal sie kryzys zaczalem drobnymi pieniedzmi grac

na gieldzie w stanach wlasnie na firmach hardwarowych (intel, amd, nvidia).

intel jest wielki i nieruchawy, ale musi na kazdym kroku uwazac na

amerykanskie i europejskie prawo antymonopolowe ktore wiaze mu lapska.

amd ma 3 miliardy dolcow w dlugu, ale ostatnio coraz lepiej sobie radzi

(akcje mi wzrosly z 2 dolarow na 5.5), a nvidia? nvidia ma miliard dolarow

zapasow... to duzo, ale okolo 400 milionow to koszty samego researchu,

niech dojdzie do tego jeszcze marketing i ponad 100 milionow na TWIMTBP,

niech odpisza sobie caly inwentarz ktorego nie moga sprzedac... na rok

wystarczy.

 

nvidia ma zrypane stosunki z akcjonariuszami i partnerami. na poczatku

bumpgate (popsute spoiwo chip - socket) - obecnie nvidia odpisala sobie

500 milionow dolcow na reparacje szkod zwiazanych z przegrzewajacymi

sie chipami. nie ma sprawy, zdarza sie zrypac proces technologiczny... ale...

przez ponad pol roku nvidia ukrywala fakt wypuszczenia milionow chipow

z bugiem przed swoimi partnerami (mimo doniesien prasy branzowej), olac

kowalskiego ze mu sie laptop przegrzewal... ale della, hp i appla olewac nie

mozna. vide. apple ostatnio wykupil 60 dni produkcji pelna para TSMC

(tajwanska fabryka naswietlajaca chipy w krzemie na uslugach firm

projektujacych chipy) chipow r770 - ati hd 4670, 4850, 4870. dwa miesiace

produkcji! wiesc gminna niesie ze kolejna konsola sony bedzie dzialala (od

strony gpu) na procesorze powerVR (ktory juz teraz zdobywa sobie rynek

posrod urzadzen mobilnych - ajfony, zuny itd...)

 

a na nam blizszym rynku kart graficznych ? pamietacie jak directx 10.1 to

byl: 'niepotrzebny nieuzywany' standard ? a jak teraz marketuja sie karty

gt210 i 220 : mamy directx 10.1 - najwyzsza jakosc grafiki na swiecie.

kiedys Huang kowbojowal: jako niekwestionowany lider technologii nie gadamy

o konkurencji, nie gadamy o przyszlosci, nie gadamy o produktach zanim

ich nie mamy... a teraz ? Fermi bedzie taki i taki i taki... patrzcie... mamy

nawet dokumentacje techniczna... i mamy tez karte GF100... ups... jest

zrobiona z drewna. teraz nagle oglaszaja sie: 'we're a software company'.

 

fermii wg branzy pojawi sie w czwartym kwartale 2009... bedzie go w sam

raz tyle aby 20 najwiekszych portali technologicznych moglo sobie go

ogladnac. analitycy podejrzewaja ze: pojawi sie w masowej ilosci na

przelomie Q1/Q2 2010, bedzie duzo drozszy niz r870, bedzie duzo wiekszy niz

r870 i troche szybszy. skalowanie w dol (do klasy sredniej) to przy dobrych

wiatrach drugi kwartal 2010, do tego czasu nvidia musi sobie radzic 3 letnimi

kartami.

 

pozostaja pytania takie jak: jak nvidii idzie z directx 11, (ati praktycznie mialo

ta technologie juz w kartach z dx10, tesselator byl w pierwszej wersji dx10,

ale go wyrzucono - m.in ze wzgledu na objekcje nvidii), i jak im idzie z nowym

procesem tj. 40 nm - gt210, 220 to pierwsze karty w tym procesie.

 

przypomina sie troche sytuacja z roku 2000, kiedy male i tanie chipy nvidii i ati

zniszczyly czolg jakim mialo byc voodoo 6000 - co doprowadzilo do przejecia

3dfx przez wlasnie nvidie.... mozliwe ze za jakis czas duzy blue chip jak ibm

albo wlasnie jakis apple polakomi sie na nvidie...

 

nvidia ma teraz troche kiepska sytuacje ze wzgledu na brak procesora, amd

ma procki i karty graficzne, ma chipsety i praktycznie moze budowac cale

komputery - vide fusion. intel ma super procki i kiepskie karty graficzne, ale

kolejne iteracje larabee zdaja sie przyblizac intela do jakiejs tam platformy

graficznej. nvidia ma tylko gpu stad tez wszystkie te proby CUDA, cGPU itd...

 

tu jest kilka artykulow ktorymi sie posilkowalem:

 

http://www.brightsideofnews.com/news/2009/10/15/jen-hsun-huang-pulls-a-180-degree-turn-in-100-days.aspx

http://www.tomsguide.com/us/Intel-Sony-PlayStation-Nvidia,news-3442.html

http://www.bit-tech.net/news/hardware/2009/10/03/fermi-card-on-stage-wasn-t-real/1

http://www.semiaccurate.com/2009/09/15/nvidia-gt300-yeilds-under-2/

http://www.theinquirer.net/inquirer/news/1050052/nvidia-chips-show-underfill-problems

 

PS: openCL jest standardem programowania na maszyny rownolegle, nie tylko

na karty graficzne (w przeciwienstwie do CUDow), tym samym uderza w duzo

wiekszy rynek aplikacji rownoleglych na cpu

 

PS2: hehe... widze koledzy po fachu... prenumeruje CACM'a (tj przysylaja mi z czlonkowstwa

w ACM'ie :) )

Edytowane przez dokturpotfor
Odnośnik do komentarza
Udostępnij na innych stronach

no niestety ... koledzy po fachu, tez czujemy sie zagubieni w tym bagnie marketingowym :P

 

wkurzajace jest to ze tyle firm, posiadajacych takie fajne produkty nie potrafi sie dogadac...

.... widac to juz takie czasy nastaly ze kazdy chce byc Jankiem z 4 pancernych, a wojne

wygraja rosjanie ;P

 

ja sie stawiam w pozycji uzytkownika, i jestem juz mega wkurzony na to ze te gigateraflopy pojda znow gdzies w powietrze na poczet standardow ktore za 2 lata i tak beda musialy odejsc bo pojawia sie nowe

 

moim zdaniem konstrukcja PC jest juz na skraju wytrzymalosci - czy ktos pamieta SGI?

tam byla porzadna szyna danych z wieloma strumieniami ktore w trybie DMA magicznie wedrowaly nie

blokujac innych operacji... PCI Express mozna porownac do dziadka Ethernetu, kolejne podkrecanie zegara w koncu sie skonczy tragicznie... dlatego ja dla OpenCL to widze krotkie nozki,

co z tego ze bedzie wiele prockow i kilka GPU... zadlawia sie na szynie podczas wymiany danych

Odnośnik do komentarza
Udostępnij na innych stronach

 

Zaimplementować pathtracer na gpu to pestka (istnieją 100-linijkowe

implementacje oraz gotowe rozwiązania od nvidii) w porównaniu ze wszystkim

tym, co firmy posiadające park sprzętowy w istocie na nim robią. Symulacje,

konwersje, obsługa baz danych etc etc. Za tym idzie wiedza i masa technologii

poza samym śledzeniem promieni.

 

a nie sięganie prawą ręką do lewej kieszeni przez ucho igielne pci-express ;).

 

zaimplementowac raytracer na cpu jest jeszcze latwiej... bo jest rekursja.

gpgpu zmaga sie az po dzis z nieumiejetnoscia dobrej obslugi rekursji i tym

cholernym SIMD'em... oczywiscie wszyscy to nazywaja MIMD, nvidia ma

warpy ati wavefronty... ale to dalej sa watki SIMD w paczkach po 32. dopiero

biale papiery larrabee przyblizaja cpu/gpu/apu jak to zwac do prawdziwego

MIMD'a... 32 watki MIMD i w nich normalny altivec/sse4/sseX na 256 bitow.

 

po co mi kod pathtracera ktory emuluje MIMD na maszynie SIMD i maksymalna

wydajnosc spada 10 krotnie

 

na cpu mam drzewa bsp, mam kd-drzewa, mam stronnicowanie, jasne ze

raytracing jest prostym algorytmem ale nikt go nie uzywa bez akceleracji

wynikajacej z dodatkowych struktur danych - ktorych na obecnym gpu

nie da sie wydajnie zaimplementowac, albo mozna implementowac tracac

rzad wielkosci wydajnosci

 

a co do szyny danych to podejrzewam ze larrabee i gpu amd beda podpiete

bezposrednio do cpu przez QPI albo hypertransport

Odnośnik do komentarza
Udostępnij na innych stronach

 

moim zdaniem konstrukcja PC jest juz na skraju wytrzymalosci - czy ktos pamieta SGI?

tam byla porzadna szyna danych z wieloma strumieniami ktore w trybie DMA magicznie wedrowaly nie blokujac innych operacji... PCI Express mozna porownac

do dziadka Ethernetu, kolejne podkrecanie zegara w koncu sie skonczy

tragicznie... dlatego ja dla OpenCL to widze krotkie nozki, co z tego ze bedzie

wiele prockow i kilka GPU... zadlawia sie na szynie podczas wymiany danych

 

hmm... DMA i szyna danych to dwie odrebne rzeczy... to ze pciexpress jest

seryjne nic tu nie wnosi... seryjne rozwiazania sa duzo latwiejsze do

zaiplementowania niz rownolegle i w praktyce duzo szybsze. DMA to tylko

zczytywanie i zapisywanie pamieci poza dzialalnoscia cpu.

 

crossbar na SGI byl mozliwy jedynie przez to ze dzialal ze smieszna na obecne

czasy czestotliwoscia i osiagal smieszne na dzisiejsze czasy transfery. gdyby

dzis chciec zaimplementowac crossbar z predkoscia oferowana przez

pciexpress to podejrzewam ze musialby miec wlasny radiator wentylator i

zasilanie jak karta graficzna... bylby chipem o wiele bardziej skomplikowanym

i niekoniecznie szybszym.

 

wrong! (napisalem wczesniej ze w r600 byl crossbar)

 

ups... w r600 byl 512 bitowy ringbus, a w r700 jest crossbar ale 256 bitowy

ze wzgledu na miejsce jakie musialby zajmowac hub 512 bitow laczacy

kazdego z kazdym.

 

edit: crossbar

Edytowane przez dokturpotfor
Odnośnik do komentarza
Udostępnij na innych stronach

no nic pozyjemy zobaczymy, teraz czeka nas jeszcze przeprawa przez technologie 22nm, nowe przejsciowe wynalazki INtela, kolejne podstawki, kolejne bridge, nowe pamieci z komorkami 0.092 mikrona ... a na jesieni 8 rdzeniowe procki, wiosna 12 rdzeniowe procki a pod koniec przyszlego roku 24 rdzeniowe procki... bedziemy nekani "nowinkami" jeszcze dlugo, a ja chcialbym sie dowiedziec jaka podstawka bedzie modna w przyszlym roku :D he,he

Odnośnik do komentarza
Udostępnij na innych stronach

Dobrze kumam, że chodzi o żarcie grafy bezpośrednio z GPU?

Straszny bałagan :D Sie rozpisaliście chłopaki :))

Jeśli dobrze pamiętam to i Adobe zapowiadało oparcie ich pakietów bezpośrenio o GPU...-_-

 

tia, cala linia CS4 potrafi korzystac z CUDA Quadro :P

Odnośnik do komentarza
Udostępnij na innych stronach

no nie jest tak rozowo jak mogloby byc, na forach leca joby niestety na CS4 bo chwyt marketingowy byl przedni... na poczatku faktcznie reklamowano ze bedzie GPU accelerated, potem sie okazalo ze na DX i OGL leci filtrowanie, skalowanie i alpha blending.. glownie a reszta po lebkach, poza tym sa problemy z renderingiem rownoleglych klatek - mialo byc super idealnie wielowatkowo.... niestety przycina sie ale podobno ida service packi, ja tam kosmosu nie zauwazylem moze przez nieszczesne pluginy ktorych zazwyczaj sie uzywa wtedy stosunek akceleracji do biedy na CPU jest niski...

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności