Skocz do zawartości

Featured Replies

Napisano

Zgodnie z zapowiedzią, doczekaliśmy się bardziej oficjalnych informacji dotyczących nowego interaktywnego renderera od mental images - iray, który wykorzystując moce graficznego procesora GPU ma pozwolić użytkownikom oszczędzić sporo czasu, który często przeznaczany jest na rendery testowe.

 

Więcej na stronie www.mentalimages.com/products/iray/

  • Odpowiedzi 12
  • Wyświetleń 2,7k
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

Napisano

Zastanawia mnie tylko, czy zostanie to dodane wraz z jakimś update obecnej wersji 3ds Max, czy zostanie nazwane głównym ficzerem kolejnej ;)...

Napisano

A jak Ci się wydaje...? ;)

Ciekaw jestem wydajności/jakości.

Napisano

Max jak max - mam nadzieje na Maye. W FAQ pisza tylko

 

"iray will be available to mental images’s OEM partners and we expect that they will make it available it in their applications in accordance with their own release plans."

Edytowane przez Nezumi

Napisano

pressenter - FAQ:

 

"...allowing interactive previewing on a single NVIDIA GPU, and scaling almost linearly on NVIDIA multi-GPU platforms."

Napisano

No wreszcie jakieś oficjalne informacje i filmik z prezentacji :) Uff.. no widać, że nie nudzili się w Mental Images.. super :)

Napisano

Stawiam kokosy przeciwko orzechom, że i tak pierwszy program jaki będzie mieć to na poważnie zaimplementowane to Blender.

Napisano

jakos predkosc nie powalila mnie na kolana :D he,he jak na tyle GPU ktore wsadzono na potrzeby

prezentacji

i tak swoja droga, moje 3 grosze i kolek osikowy dla tego rozwiazania miedzy żebra...

kilka kart z interfejsem CUDA i mocnymi GPU... kosztuje duzo, duzo wiecej niz

2-3 kompy z procesorami Quad Core - a predkosc jest niestety porownywalna.

Jesli to badziewie w koncu nie stanieje, to praktyczne zastosowanie i wielka popularnosc

sa zagrozone. Pamietacie karty PURE ? Ktos uzywa? Nie sprawdzilo sie? A bylo zajebiste....

To rozwiazanie tez jest super, bardzo mi sie podoba... ale ceny sa coraz bardziej z kosmosu.

Ja bym chcial te GPU zastosowac do renderingu produkcyjnego, takie lewe podglady mnie

nic nie obchodza i tu dochodzimy do sedna problemu.... zastosowanie roznych kart moze

spowodowac minimalne roznice w renderowanych klatkach i flickering pozniejszego materialu,

to jest dla mnie mega-problem, ktorego nikt nie rozwiaze... bo caly czas mowimy o interaktywnych

niby-podgladach, mniej wiecej podobnych do koncowego renderingu... a szkoda :(

Szkoda ze managerowie nie do konca uzywaja szarych komorek, namawiaja klienta

na zakup bardzo drogich kart.... zeby sobie renderowal podglady, a moglby za te kase renderowac

materialy produkcyjne.

Napisano
jakos predkosc nie powalila mnie na kolana :D he,he jak na tyle GPU ktore wsadzono na potrzeby

prezentacji

i tak swoja droga, moje 3 grosze i kolek osikowy dla tego rozwiazania miedzy żebra...

 

no wlasnie, te wszystkie tech-dema na gpu, ktorych ostatnio tyle, swiadcza tylko o tym, ze nadchodzi kres gpu. Wszystkie implementacje CUDA zakladaja przesiadkle na OpenCL i dlatego nikt nie traktuje ich jak produkt, tylko jako zajawke nowej technologii. To jest okres przejsciowy w oczekiwaniu na cpu o podobnych mozliwosciach wektorowych. Zreszta OpenCL pozwala nie zastanawiac sie nad tym, co zwyciezly i zajac sie algorytmami, a nie platforma hardwarowa.

 

To, co widzimy to prawdziwy kres renderowania DX/OpenGL na gpu. Epic na Siggraphie zapowiedzial, ze nastepny engine bedzie juz czysto softwareowy (a co zabawniejsze mikropoligonalny)... z pewnoscia ida zmiany, ale nie zupelnie takie, jak sie wydaje ;)

Napisano

w przyszlym roku maja pojawic sie 12sto i 16sto rdzeniowce . 2-3 takie kompy rozwiaza sprawe przynajmniej w domowych renderfarmach :)

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności