Skocz do zawartości

Nowy renderer w 3ds max 2011 Quicksilver


adek

Rekomendowane odpowiedzi

Interesująca wiadomość pojawiła się kilka dni temu w serwisie Autodesk Area. Informacja dotyczy nowości jaką zobaczymy już w 3ds Max 2011, a jest nią nowy renderer o nazwie "Quicksilver", który poprawi również jakość wyświetlania w obszarach roboczych. Jak na nowoczesny renderer przystało, oprócz mocy CPU wykorzysta również moc GPU.

 

Warto przeczytać czym ten renderer jest, a czym nie jest. Warto sprawdzić czy nasz sprzęt będzie z nim kompatybilny. Silnik ten ma pewne wymagania i ograniczenia.

 

Zachęcam do przeczytania pełnej informacji.

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 30
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

Nie zamienił bym mentala na coś takiego jakościowo na pewno przebija tego quicksilvera więc jeżeli w grę wchodzą duże projekty gdzie liczy się jakość na dużym wydruku ten nowy render nie sprawuje się dobrze.Widać sporą różnice w shadingu refleksach itp.

Odnośnik do komentarza
Udostępnij na innych stronach

Ja bym tego renderera nie skreślał z góry. W stilkach nie wygra, ale w niektórych animacjach, czy przy pracy nad animatikami to takie narzędzie może się bardzo przydać. Inna rzecz, że patrząc na rozwój różnych pomysłów ( mnie ostatnio ruszył ten:

) to myślę, że już niedługo rendering generalnie przestanie być wąskim gardłem jakiegokolwiek projektu.

 

 

salut

t.

Odnośnik do komentarza
Udostępnij na innych stronach

Dokładnie. Nie napisałem za dużo ale naprawde warto się wczytać. Post w Area jest naprawdę rzeczowy. Ten renderer nie ma zastepować VRay'a czy Quicksilver'a.

 

Wyjaśnia się tam czym ten renderer jest a czy mnie jest. Napisane jest wprost, że w zalezności od sprzętu i projektu scanline może okazać się w wielu sytuacjach lepszy. Jest to nowy renderer, nie jest to renderer, który ma zastąpić scanline'a.

 

No i na przykład czym on nie jest:

It is not a ray-tracing approach. If you have those kinds of needs, use mental ray or the scanline renderer or your favorite renderer. You can’t throw everything at Quicksilver and still expect it to render faster than anything else you have. It is very, very good at a class of problems and that class of problems is bigger with more powerful GPU hardware. There are many limitations in Quicksilver that may prevent you from applying it in your workflow.

Na dole jest też narzędzie, które pozwala przetestowac Was sprzęt pod kątem renderera:

http://area.autodesk.com/userdata/fckdata/197/file/GFXchecker.zip

Odnośnik do komentarza
Udostępnij na innych stronach

Baggins: Widziałem to wideo i zmiażdżyło mnie. Jeśli miałbym kasę na inwestycję poszedł bym tam bez wahania, poza tym wydaje mi się, że to i następne prezentacje z youtuba co najmniej powinny wylądować na starcie.

 

Odnośnik do komentarza
Udostępnij na innych stronach

Baggins: to o czym mowi koles na tym filmie jest mocno zblizone do tego co oferuja produkcyjne renderery takie jak Renderman, 3Delight czy Mantra. W skrocie chodzi i Reyes rendering http://en.wikipedia.org/wiki/Reyes_rendering w tych rendererach geometria jest dzielona na microplygony wielkosci piksela, przeliczany jest kolor przezroczystosc, chowane to czego nie widzimy

 

to tak w skrocie :)

Odnośnik do komentarza
Udostępnij na innych stronach

Johny: Masz rację jest zbliżone ale zarazem całkiem inne ;P Podobny sposób przedstawiania geometrii ale jeśli to działa tak jak oni mówią i ktoś się tym zajmie to może będzie to rewolucja w wyświetlaniu grafiki, to z ich strony "The Unlimited Detail tree will run on anything from a PC to a mobile phone and no special graphics cards are needed." bardzo chciałbym poznać jakieś szczegóły techniczne. Ale wtedy ludzie od lowpoly modeling pójdą z torbami ;/ Sory za oftopic

Edytowane przez hamek1990
Odnośnik do komentarza
Udostępnij na innych stronach

Baggins: to o czym mowi koles na tym filmie jest mocno zblizone do tego co oferuja produkcyjne renderery takie jak Renderman, 3Delight czy Mantra. W skrocie chodzi i Reyes rendering http://en.wikipedia.org/wiki/Reyes_rendering w tych rendererach geometria jest dzielona na microplygony wielkosci piksela, przeliczany jest kolor przezroczystosc, chowane to czego nie widzimy

to tak w skrocie :)

 

Reyes wciąż musi rasteryzować geometrię do mikropoligonów, dla których następnie oblicza potrzebne wartości (jak normalne czy opacity), i które to, właśnie dla oszczędności, nie rezydują w pamięci poza bucketami. Jak rozumiem, w przywołanym patencie, geometria jest przechowywana w całości jako gęsta chmura punktów a renderer wybiera je sobie zależnie od punktu widzienia. Przechowywanie kilkuset milionów punktów w pamięci, odnajdywania ich, sortowanie i wyświetlanie, to nie jest coś, co jakiemukolwiek rendererowi przychodzi obecnie łatwo. Reyesy używają do tego brickmap, które wyglądają raczej zabawnie w porównaniu z tym cudeńkiem.

 

Oczywiście wiele kwestii pozostaje otwartych, jak filtrować tekstury bez pochodnych, jak obliczać normalne, jak animować geometrię zdyskretyzowaną do punktów etc etc.

 

Niemniej wygląda na to, że taka będzie droga postępu. Już tutaj padało kilka razy, że następny engine Epica ma być czysto softwarowy i oparty z grubsza o algorytm reyes (a może właśnie point cloud rendering).

Odnośnik do komentarza
Udostępnij na innych stronach

Ale jest jeden baaaaardzo duży problem. A jeżeli niewiadomo o co chodzi to chodzi o kasę, po tym wszystkim Nvidia czy Ati nie miałyby już racji bytu, albo może spadli by do mniejszych firemek, bo nie było by sensu takiej gonitwy kart graficznych coś nie sądzę żeby któraś z tych firm chciała płacić za tego typu badania.

Ale patrzcie na możliwości, koniec z polymodelingiem i maskowaniem niedoskonałości (typu LOD) i pełen "zbrush" do wszystkiego.

Przy tego typu skryptach można już tworzyć całe "światy wirtualne", bez jakichkolwiek ograniczeń graficznych. Komputer i tak obliczy tylko tyle pikseli ile masz na monitorze.

Zajarałem się ;)

Odnośnik do komentarza
Udostępnij na innych stronach

Faktycznie jest roznica jakosci miedzy quicksilver, a mental rayem ale sadze ze renderer moze sie nadawac do bardzo wielu rzeczy ktore nie wymagaja super wysokiej jakosci np do czerstwych bajeczek dla dzieci ktorym jest zupelnie obojetne czy w kubku zajaczka odbija sie jego ucho czy nie. Takze roznego rodzaju gry online typu kasyna gdzie animki sa w niskiej rozdzielczosci i sa prerenderowane takie jak na 7red.com.

Mi renderer sie podoba. Zeby jeszcze mial guzik "Make Beautiful" to by bylo super.

Odnośnik do komentarza
Udostępnij na innych stronach

Ale patrzcie na możliwości, koniec z polymodelingiem i maskowaniem niedoskonałości (typu LOD) i pełen "zbrush" do wszystkiego.

Przy tego typu skryptach można już tworzyć całe "światy wirtualne", bez jakichkolwiek ograniczeń graficznych. Komputer i tak obliczy tylko tyle pikseli ile masz na monitorze.

Zajarałem się ;)

 

Jakoś nie mogę tego ogarnąć. Powiedzmy że każdy obiekt w grze zamiast kilku do kilku tysięcy poly ma ich miliony. Obiekty musiałyby być i tak zapisywane w podobnej formie jak teraz a taki kilku milionowy model z mapowaniem ładnie zajmuje.

Pomijając kwestię wyświetlania takiej grafiki, modele trzeba gdzieś zapisać i wczytać do pamięci po czym poddać jakiejś tam mega obróbce i filtracji. Sokoro sprzet ma się tu nie liczyć to ja nie ogarniam.

Odnośnik do komentarza
Udostępnij na innych stronach

Tomala: Nie opisali tego dokładnie pewnie żeby uniknąć kopii pomysłu, tam są 3 filmiki obejrzyj je bo rozumiem z tego tyle co widziałem te filmiki.

Może wystarczyło że ograniczyli opisanie 1 atomu (czy jak oni to tam nazwali)w kodzie, wyłącznie do położenia x,y,z. Nie wiem, nowsze czy bardziej rewolucyjne metody zwykle są zastosowywane z pomysłem odbiegającym od standardu logicznego w danym momencie. Porównali to tylko z googlami i zastanowieniem się jak to jest, że w ciągu sekundy wyszukują wśród wszystkich informacji na świecie, może to było weną do zmiany skryptu przetwarzania 3d. Pożyjemy zobaczymy.

Odnośnik do komentarza
Udostępnij na innych stronach

Ja nie potrafię zrozumieć o czym pisze kotisded. Z filmu nic takiego nie wynika. Opisują po prostu renderer który potrafi na bierząco szybko przeliczać preview wykorzystując do tego moc procesora i grafiki. Gdzie tam jakieś atomy czy inne jądra?

Odnośnik do komentarza
Udostępnij na innych stronach

Z Bloga

http://fairchild6.com/blog/?p=1814&preview=true

 

"In the most basic terms it’s a 3D search algorithm, that can scan by efficiently jumping through a large data set of little 3D atoms. Its job is to find one atom for every pixel on the screen and not touch any of the others, it took us 15 years to perfect the technique"

 

p.s.

warto poczytać

Odnośnik do komentarza
Udostępnij na innych stronach

Ja nie potrafię zrozumieć o czym pisze kotisded. Z filmu nic takiego nie wynika. Opisują po prostu renderer który potrafi na bierząco szybko przeliczać preview wykorzystując do tego moc procesora i grafiki. Gdzie tam jakieś atomy czy inne jądra?

 

Dac77 my tu mówimy o filmiku z linka bagginsa. Gość który to wszystko tłumaczy porównuje punkty z których jest tworzona geometria do atomów a liczba tych punktów wyświetlanych w jednej klatce jest zawsze ograniczona do ilości pixeli tworzących klatkę. Na tym polega cały bajer że choćby nie wiem jak gęsty był obiekt to i tak tych punktów będzie zawsze wyświetlanych stosunkowo mało- tyle ile pixeli tworzących obrazek a cały sęk tkwi w szybkim wyszukiwaniu tych punktów które mają być w danej chwili wyświetlane .

Odnośnik do komentarza
Udostępnij na innych stronach

To atomów czy vortexów?

[Edit]

Sorki pomyliłem nazwę, chodziło mi o voxele (zobaczyłem poprawną nazwę w poście empecka). Obliczanie atomów nie byłoby możliwe nawet dla obiektu tak małego jak ziarenko piasku.

Odnośnik do komentarza
Udostępnij na innych stronach

quicsilver bardzo ciekawy:)

 

To drugie cudo też świetne. Chociaż ciekawe jakby to szybko renderowało gdyby te wszystkie smoki były z chromu. Wtedy musiałby liczyć to co jest niewidoczne na ekranie i ciekawe jakby sobie poradził z taka scena,a do tego jakby jeszcze doszło opacity na materiale to abstrakcja. Ciekawe czy robili takie testy. Przyznam się, że wszystkich części nie widziałem:D.

 

 

Odnośnik do komentarza
Udostępnij na innych stronach

nikt tam nie mówi o liczeniu struktury atomowej obiektów, tylko porównanie takie zrobili. A co do odbić były na którymś filmiku tam przecież co taki ogród pokazują czy miasto. Tylko ciągle tam mówią o geometrii a nic o shaderach ciekawe jak z tym się sprawa ma jak to rozwiązali czy może to jest nie wiem obiekt który trzyma dane pikseli i punktów jakie położenie jasność barwa czy cos... ciekawe

Odnośnik do komentarza
Udostępnij na innych stronach

Quicksilver jak najbardziej fajny i przydatny. Przy coraz szybszych kartach i coraz większej ilości szybko liczacych się shaderów za dwa releasy będzie się nadawał do znacznie większej ilosci rzeczy niż tylko nieco ładniejsze prevki.

Natomiast co do tego filmiku, który Baggins zapodał to jak się pan w którymś wywiadzie przyznał odbicia z jednego z filmików były robione na zasadzie pokolorowania geometrii na niebiesko i flipnięcia, co oznacza, że z shaderami innymi niż zwykły blinn czy lambert może być problem, choć pewnie z czasem do rozwiązania.

Kilka tygodni temu na GT TV było jakieś demo silnika, który robił tesselację z displacementem co też dawało całkiem płynne zmiany obiektów w miarę przybliżania do kamery co przyznam, że na mnie robiło spore wrażnie bo eliminowało skoki przy zmianie LOD. Niestety nazwy silnika nie pamiętam.

Odnośnik do komentarza
Udostępnij na innych stronach

Kilka tygodni temu na GT TV było jakieś demo silnika, który robił tesselację z displacementem co też dawało całkiem płynne zmiany obiektów w miarę przybliżania do kamery co przyznam, że na mnie robiło spore wrażnie bo eliminowało skoki przy zmianie LOD. Niestety nazwy silnika nie pamiętam.

To zdaje się standardowy ficzer DX11:

Edytowane przez SYmek
Odnośnik do komentarza
Udostępnij na innych stronach

Hehehe i tak z wątku na temat Quicksilver zrobił się o Point Cloud (unlimited…tak z 10x razy jeszcze trzebaby powtórzyć:P). Tylko, że tu geometria generowana jest proceduralnie (sami to przyznali, a chyba ludzie jeszcze pamiętają, jakie perełki potrafili wytworzyć programiści scenowi, co innego wyliczyć roślinkę ciągiem fibonacciego a co innego wpakować n różnych modeli z animacją + symulacje – choć z drugiej strony, może to będzie rewolucja przy tworzeniu gier – typowy 3d artist pójdzie… a jego miejsce zastąpi programista. Ten wspaniały silnik pewnie nawet nie będzie słyszał o śledzeniu promieni (na takiej chmurze… to by było ciekawe), choć bardzo mnie ciekawi, jakie obejścia wymyślą – bo o tym, że już coś wymyślili (i nawet widać, że działa) to się już chwalą. W końcu prawie zawsze jest tak, że ogół sceptycznie mówi, że się nie da… do czasu, aż ktoś przyjdzie i pokaże, że się da :)

 

A co do quicksilver – ech jak bardzo maxa nie lubię, tak bardzo bym go chciał w xsi :P Do previz, i badziewi pod zblura jak marzenie :)

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności