adek Napisano 1 Lipiec 2013 Napisano 1 Lipiec 2013 Podczas imprezy o nazwie End User Event w Utrechcie Vladimir “Vlado” Koylazov zaprezentował kilka nowości jakie pojawią się wraz z wydaniem nowej wersji jednego z najpopularniejszych silników renderujących - V-Ray'a. Pełna treść: V-Ray 3.0 - sneak peak
adek Napisano 1 Lipiec 2013 Autor Napisano 1 Lipiec 2013 Nie. Event zakończył się kilka dni temu (27-28 czerwca 2013).
Traitor Napisano 1 Lipiec 2013 Napisano 1 Lipiec 2013 Ale video jest opublikowane 6 marca. Hm, dziwne.
legomir Napisano 1 Lipiec 2013 Napisano 1 Lipiec 2013 Pewnie pracę trwają dłużej, a film był jako prywatny teraz upubliczniono.
Kramon Napisano 1 Lipiec 2013 Napisano 1 Lipiec 2013 hehe Blender ma to ale fajnie ze coraz więcej silników GPU :>
adek Napisano 1 Lipiec 2013 Autor Napisano 1 Lipiec 2013 Zachęcam do rzucenia okiem na artykuł.Wideo może faktycznie mogłem sobie darować bo widzę, że wprowadza w błąd. Ale często tak się robi, że wrzuca jako prywatne, a upublicznia później (data widoczna to data wgrania).
Kramon Napisano 1 Lipiec 2013 Napisano 1 Lipiec 2013 Faktycznie warto szkoda link do video można było darować. Kombatybilność z hair maya/max Biblioteka materiałów do wizek. Poprawiona kaustyka dużo szybciej? jeśli dobrze kminie Brute force - klasa wyrenderowała się 2.66 raza szybciej.
legomir Napisano 1 Lipiec 2013 Napisano 1 Lipiec 2013 Ciekawe, Mental Ray wprowadził fiutcher z Max Ray intensity wcześniej niż Vr :) Btw. nie wiem czy się nie mylę, ale wydaje mi się, że kiedy render jest pod viewportem to działa nieco szybciej?
maru Napisano 1 Lipiec 2013 Napisano 1 Lipiec 2013 -implementacja embree -max sample intensity -ulepszone material preview -VM To wszystko już od dawna jest w Coronie. :)
deshu Napisano 1 Lipiec 2013 Napisano 1 Lipiec 2013 Bez szału, jak na vraya. Zwykły update z 2.0 do 2.3 zrobił większe wrażenie, niż to o czym tu mowa. Jednak tym sie jaram: Automatic asset transfer for DR – No more missing maps EVER! Open Shading Language Metaballs (isosurfaces) Deep images and OpenEXR 2.0 support
SYmek Napisano 2 Lipiec 2013 Napisano 2 Lipiec 2013 Bez szału, jak na vraya. Zwykły update z 2.0 do 2.3 zrobił większe wrażenie, niż to o czym tu mowa. Jednak tym sie jaram: Automatic asset transfer for DR – No more missing maps EVER! Open Shading Language Metaballs (isosurfaces) Deep images and OpenEXR 2.0 support Moim zdaniem przejście od fixed shading do OSL to jest jednak duża sprawa, choć rozumiem, że to będzie dodatkowa opcja. Isosurfaces też sporo wnoszą. Renderer nie ma za wiele pól do rozwoju, ma po prostu działać coraz szybciej :).
damian85osg Napisano 2 Lipiec 2013 Napisano 2 Lipiec 2013 Moim zdaniem cały vray to przeżytek. Niech pójdą w ślady szybszego renderingu przez GPU jak Octane czy podobne mu silniki
deshu Napisano 2 Lipiec 2013 Napisano 2 Lipiec 2013 Symek - dlatego też pisze, że się jaram tymi rzeczami. I tak, to nie przejście tylko dodatkowy support. A co do rzeczy których brakuje w vrayu, to dielectric material. Coś co jest dedykowane do refrakcji, z wbudowanymi biasami - dla szybkości. Damian - do póki pokazujesz swoje rzeczy na ekranie, to rendery gpu dają rade. Gorzej jak masz 30mln poly i masz wyrenderować coś na billboard. Ilość myków, faków, ułatwień, alternatyw jakie dają wieloletnie wypróbowane renderery, łyka każdą z tych zabawek jak piwko w upał.
NV Napisano 4 Lipiec 2013 Napisano 4 Lipiec 2013 Poza tym programowanie silników renderujących na cpu jest dużo prostsze niż gpu. Do tego nie ogranicza nas gddr którego z reguły jest jak na lekarstwo w porównaniu z ddr. Oczywiście pojedyńcza karta graficzna będzie szybsza niż obecne cpu, ale są przecież stacje wieloprocesorowe czy też renderfarmy. Jakby tego mało intel wypuszcza xeon phi ( kooprocesor ~64 rdzeniowy do 128 jeśli się nie mylę ) ma być konkurentem dla Titana przy zachowaniu architektury x86. Moim zdaniem to technologia gpu jest ślepym zaułkiem jeśli chodzi o raytrace a nie cpu. Boost wydajności na gpu jest fajny ale na tym zalety się kończą . Ja bym szedł drogą jaką proponuje teraz intel czyli wielordzeniowe jednostki dla zastosowań profesjonalnych.
Kramon Napisano 4 Lipiec 2013 Napisano 4 Lipiec 2013 Poza tym programowanie silników renderujących na cpu jest dużo prostsze niż gpu. Do tego nie ogranicza nas gddr którego z reguły jest jak na lekarstwo w porównaniu z ddr. Oczywiście pojedyńcza karta graficzna będzie szybsza niż obecne cpu, ale są przecież stacje wieloprocesorowe czy też renderfarmy. Jakby tego mało intel wypuszcza xeon phi ( kooprocesor ~64 rdzeniowy do 128 jeśli się nie mylę ) ma być konkurentem dla Titana przy zachowaniu architektury x86. Moim zdaniem to technologia gpu jest ślepym zaułkiem jeśli chodzi o raytrace a nie cpu. Boost wydajności na gpu jest fajny ale na tym zalety się kończą . Ja bym szedł drogą jaką proponuje teraz intel czyli wielordzeniowe jednostki dla zastosowań profesjonalnych. wszystko fajnie tylko że za napewno nie małą cenę wielordzeniowych jednostek dla zastosowań profesjonalnych kupisz se całą farmę GPU.. Druga sprawa Nvidia Grid..
SYmek Napisano 4 Lipiec 2013 Napisano 4 Lipiec 2013 wszystko fajnie tylko że za na pewno nie małą cenę wielordzeniowych jednostek dla zastosowań profesjonalnych kupisz se całą farmę GPU... Z którą nadal nic sensowego nie zrobisz. Poza tym programowanie silników renderujących na cpu jest dużo prostsze niż gpu. Nie wiem, czy jest dużo prostsze, ale na pewno napisać na CPU kompletny renderer jest możliwe, a na GPU nikt tego jeszcze nie zrobił :). Jakby tego mało intel wypuszcza xeon phi ( kooprocesor ~64 rdzeniowy do 128 jeśli się nie mylę ) ma być konkurentem dla Titana przy zachowaniu architektury x86. Phi nie jest konkurentem dla Titana. Titan nie ma nic do powiedzenia w dziedzinie rozproszonych obliczeń i HPC. Jeśli już to Tesla. Rdzeni jest nietypowo 61. Za chwilę wchodzą Phi drugiej generacji z opcją pracy jako host (bez PCIe).
Rekomendowane odpowiedzi
Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto
Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.
Zarejestruj nowe konto
Załóż nowe konto. To bardzo proste!
Zarejestruj sięZaloguj się
Posiadasz już konto? Zaloguj się poniżej.
Zaloguj się