Skocz do zawartości

V-Ray 3.0 - sneak peak


adek

Rekomendowane odpowiedzi

  • Odpowiedzi 16
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

Top Posters In This Topic

Zachęcam do rzucenia okiem na artykuł.Wideo może faktycznie mogłem sobie darować bo widzę, że wprowadza w błąd. Ale często tak się robi, że wrzuca jako prywatne, a upublicznia później (data widoczna to data wgrania).

Odnośnik do komentarza
Udostępnij na innych stronach

Faktycznie warto szkoda link do video można było darować.

 

Kombatybilność z hair maya/max

Biblioteka materiałów do wizek.

Poprawiona kaustyka dużo szybciej? jeśli dobrze kminie

Brute force - klasa wyrenderowała się 2.66 raza szybciej.

Odnośnik do komentarza
Udostępnij na innych stronach

Bez szału, jak na vraya. Zwykły update z 2.0 do 2.3 zrobił większe wrażenie, niż to o czym tu mowa.

 

Jednak tym sie jaram:

Automatic asset transfer for DR – No more missing maps EVER!

Open Shading Language

Metaballs (isosurfaces)

Deep images and OpenEXR 2.0 support

Odnośnik do komentarza
Udostępnij na innych stronach

Bez szału, jak na vraya. Zwykły update z 2.0 do 2.3 zrobił większe wrażenie, niż to o czym tu mowa.

 

Jednak tym sie jaram:

Automatic asset transfer for DR – No more missing maps EVER!

Open Shading Language

Metaballs (isosurfaces)

Deep images and OpenEXR 2.0 support

 

Moim zdaniem przejście od fixed shading do OSL to jest jednak duża sprawa, choć rozumiem, że to będzie dodatkowa opcja. Isosurfaces też sporo wnoszą. Renderer nie ma za wiele pól do rozwoju, ma po prostu działać coraz szybciej :).

Odnośnik do komentarza
Udostępnij na innych stronach

Symek - dlatego też pisze, że się jaram tymi rzeczami. I tak, to nie przejście tylko dodatkowy support.

A co do rzeczy których brakuje w vrayu, to dielectric material. Coś co jest dedykowane do refrakcji, z wbudowanymi biasami - dla szybkości.

 

Damian - do póki pokazujesz swoje rzeczy na ekranie, to rendery gpu dają rade. Gorzej jak masz 30mln poly i masz wyrenderować coś na billboard. Ilość myków, faków, ułatwień, alternatyw jakie dają wieloletnie wypróbowane renderery, łyka każdą z tych zabawek jak piwko w upał.

Odnośnik do komentarza
Udostępnij na innych stronach

Poza tym programowanie silników renderujących na cpu jest dużo prostsze niż gpu. Do tego nie ogranicza nas gddr którego z reguły jest jak na lekarstwo w porównaniu z ddr. Oczywiście pojedyńcza karta graficzna będzie szybsza niż obecne cpu, ale są przecież stacje wieloprocesorowe czy też renderfarmy. Jakby tego mało intel wypuszcza xeon phi ( kooprocesor ~64 rdzeniowy do 128 jeśli się nie mylę ) ma być konkurentem dla Titana przy zachowaniu architektury x86. Moim zdaniem to technologia gpu jest ślepym zaułkiem jeśli chodzi o raytrace a nie cpu. Boost wydajności na gpu jest fajny ale na tym zalety się kończą . Ja bym szedł drogą jaką proponuje teraz intel czyli wielordzeniowe jednostki dla zastosowań profesjonalnych.

Odnośnik do komentarza
Udostępnij na innych stronach

Poza tym programowanie silników renderujących na cpu jest dużo prostsze niż gpu. Do tego nie ogranicza nas gddr którego z reguły jest jak na lekarstwo w porównaniu z ddr. Oczywiście pojedyńcza karta graficzna będzie szybsza niż obecne cpu, ale są przecież stacje wieloprocesorowe czy też renderfarmy. Jakby tego mało intel wypuszcza xeon phi ( kooprocesor ~64 rdzeniowy do 128 jeśli się nie mylę ) ma być konkurentem dla Titana przy zachowaniu architektury x86. Moim zdaniem to technologia gpu jest ślepym zaułkiem jeśli chodzi o raytrace a nie cpu. Boost wydajności na gpu jest fajny ale na tym zalety się kończą . Ja bym szedł drogą jaką proponuje teraz intel czyli wielordzeniowe jednostki dla zastosowań profesjonalnych.

 

wszystko fajnie tylko że za napewno nie małą cenę wielordzeniowych jednostek dla zastosowań profesjonalnych kupisz se całą farmę GPU..

 

Druga sprawa Nvidia Grid..

Odnośnik do komentarza
Udostępnij na innych stronach

wszystko fajnie tylko że za na pewno nie małą cenę wielordzeniowych jednostek dla zastosowań profesjonalnych kupisz se całą farmę GPU...

Z którą nadal nic sensowego nie zrobisz.

 

Poza tym programowanie silników renderujących na cpu jest dużo prostsze niż gpu.

Nie wiem, czy jest dużo prostsze, ale na pewno napisać na CPU kompletny renderer jest możliwe, a na GPU nikt tego jeszcze nie zrobił :).

 

Jakby tego mało intel wypuszcza xeon phi ( kooprocesor ~64 rdzeniowy do 128 jeśli się nie mylę ) ma być konkurentem dla Titana przy zachowaniu architektury x86.

Phi nie jest konkurentem dla Titana. Titan nie ma nic do powiedzenia w dziedzinie rozproszonych obliczeń i HPC. Jeśli już to Tesla. Rdzeni jest nietypowo 61.

 

Za chwilę wchodzą Phi drugiej generacji z opcją pracy jako host (bez PCIe).

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności