Skocz do zawartości

motion blur w animacji - warto??


elimo

Rekomendowane odpowiedzi

Witam,

 

Mam pytanie do osób które zeby zjadly na animacji :)

Robie animacje w vray, dodajac motion blur nawet na niskich ustawieniach

czas renderu zwieksza sie znacznie (nawet do 100% czasu render jedej klatki).

Moje pytanie brzmi:

- renderujac na pojedynczym kompie warto uruchomic motion blura czy w postprodkcji dodac (after effects),

- jak czas ma sie do jakosci (vray vs. after FX

- które rozwiazanie czesciej stosujecie

 

pzdr

Elimo

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 36
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

Top Posters In This Topic

Hej, generalnie wszystko zalezy od tego ile masz czasu, ten vrayowski moblur daje rade ale tak jak piszesz zabija rendertime, pamietaj ze koniec końców moze go zwyczajnie nie być widać wiec ja polecam stosować przy jakiś ważniejszych ujeciach, w poscie bedziesz mial wiecej kontroli nad tym wszystkim

Odnośnik do komentarza
Udostępnij na innych stronach

serwus :)

wazny jest rodzaj ujecia . MB jest bardzo potyrzebny, wrecz konieczny przy ruchu.

Czesto mozesz go zrobic w poscie , wykorzystujac rendering do Velocity , a w afterku uzywasz blura lens i tam wciagasz te klatki. dobre sa tez pluginy do afterka - ree smart.

Przy niektorych rodzajach ujec i rtuchu te pluginy glupieja i trzeba renderowac parwdziwe MB.

 

 

pozdrawiam i zycze powodzenia :)

Odnośnik do komentarza
Udostępnij na innych stronach

Osobiście dodawałbym takie efekty w postprodukcji. Daje ci to większą możliwość późniejszych zmian i poprawek bez konieczności męczenia się z nowymi renderami.

Edytowane przez CzAk1
Odnośnik do komentarza
Udostępnij na innych stronach

serwus :)

generalnie tak, ale ja mowielm o pewnych specyficznych sytuacjach. Mam po prostu u siebie animacje z duża ilością plusków wody, gdzie rozpryski są w kazdą stronę i Afterek mi na tym głupiał.

Nasze rozważania są nieco teoretyczne , bo mysle że w tym przypadku kolega śmiało może postawic na MB z postpro, - ale u mnie się to nie sprawdziło :(

 

pozdrawiam i zyczę powodzenia :)

Odnośnik do komentarza
Udostępnij na innych stronach

oj bo Kannu nie miales vector field :D

jak masz wektory to kazdy nawet syfiasty plugin do postpro motion blur sobie poradzi,

nawet jak beda rozpryski w roznych kierunkach

Odnośnik do komentarza
Udostępnij na innych stronach

serwus :)

viking - o zym mowa ? o jakim vector field ?

renderowalem po prostu do velocity vector pass - i to wciagałem w afterku.

 

A jesli nawet syfiaste pluginy sobie radzą z motion blurem , to po jaką cholere firmy

renderują prawdziwe MB ?

 

 

pozrawiam i zycze powodzenia :)

Odnośnik do komentarza
Udostępnij na innych stronach

Dzięki wszystkim za odpowiedzi fachowe.

Pytanie jest troche spóżnione bo wyrenderowałem juz z MB - ale wiedzę istotną zdobyłem.

W trakcie czytania naszły mnie dodatkowe pytania. :)

 

- jak działa Velocity - czy to jest kolejny render elements, który można wykoźystać jak zdepth??

 

- kwestia którą poruszył kannu, jeżeli motion blur w programach do postprodukcji

w połączeniu z velocity vector działa idealnie to czy w profesjonalnych prodkach korzysta się z MB systemowego (3ds max, inne...)

 

- jakie znacie dobre pluginy MB do After FX

 

Niebawem pochwale się swoją 1 animacją :)

 

Pzdr

Elimo

Odnośnik do komentarza
Udostępnij na innych stronach

tjviking - no bez przesady. Jest sporo sytuacji gdzie postprocesowy motion blur po prostu nie daje rady i juz i wynik jego uzycia wyglada znaczaco gorzej niz mo-blura z renderera.

 

Obiekty poruszajace sie po nieliniowych trajektoriach, ktore sie mijaja.

Bardzo szybko poruszajace sie obiekty ( smigla, kola pojazdow )

Duze ilosci obiektow ( a juz w szczegolnosci chmury partikli - tutaj zysk z uzycia prawdziwego motion blura jest ogromny )

Przezroczyste obiekty.

Obiekty o skomplikowanej strukturze, geometrii. ( a jeszcze jak to ma jakis wewnetrzny ruch to juz masakra )

 

No i kombinacje tego. ( smiglo, nad szyba, w wykonujacym szybki obrot smiglowcu filmowane z sasiedniego smiglowca - taki Avatarowy shocik chociazby. )

 

Postprocesowy motion blur jest swietny, ale sprawdza sie tak naprawde moze w 50% przypadkow w zwyklej produkcji.

 

t.

  • Like 1
Odnośnik do komentarza
Udostępnij na innych stronach

serwus :)

no swietnie , ze sie Tomek odezwal , bo przez chwile zgłupiałem po poście Vikinga.

Właśnie takie sprawy renderowałem i własnie na tym mi sie to psuło - na pluskach wody

(rozpryski były w róznuych kierunkach, - ogólnie straszne zamieszanie wodne tam jest).

 

elimo - odnosnie pluginow , to szukaj pod haslem : re smart .

 

 

pozdrawiam i zyczę powodzenia :)

  • Like 1
Odnośnik do komentarza
Udostępnij na innych stronach

a ja chcialbym zobaczyc animacje w ktorej obiekty poruszaja sie tak szybko ze w jednej klatce czasu wykonuja takie ruchy jak ten trick z czajniczkiem

mylicie 2 pojecia, poprawnosc fizyczna a to co jest w stanie zobaczyc oko, skupiacie sie na jednej klatce, oczywiscie jak robimy stilla to wtedy fajnie to wyglada, ale skoro w animacji sa tak szybko poruszajace sie obiekty, to niezaleznie od tego jak bedzie liczony motion blur i tak cienko widze postrzegalnosc tych meandrow avioniki...

 

smart blur uzywa interpolacji pol wektorowych (vector field) wyliczonych z kanalu velocity i calkiem dobrze sobie radzi ze smiglami etc, gorzej jesli obiekty poruszaja sie naprawde szybko bo wtedy koherencja z klatki na klatke jest znikoma... ale nie oszukujmy sie wtedy po prostu zamiast ostrego

migniecia obiektu zobaczymy rozmazana plame w 1 klatce czasu... ot i wielka roznica

 

wnioski z tej dyskusji mialy byc takie ze skoro rendering MB trwa niestety bardzo dlugo, w wiekszosci

wypadkow daje sie zastosowac postprocessing z kanalem velocity, ktory renderuje sie gratis i

jest dosyc precyzyjna informacja o tym jak i w ktorym miejscu przemiescily sie piksele - nie wiem

dlaczego kojarzy sie wam postpro MB z rozmazywaniem? to nie do konca tak dziala, to

polaczenie pixel warp z alpha blendingiem na poziomie klatek - wiec dosyc dobrze zbliza sie

do oryginalnego algorytmu MB w rendererze

 

osobna sprawa jest jak programy 3D licza kanal velocity, otoz Max nie jest moze najlepszym przykladem gdyz wywala do kanalu velocity predkosc chwilowa.... a powinien usredniona w oknie

czasowym otwarcia migawki... i tu dochodzimy do sedna, jak mamy dupny kanal velocity,

nie oczekujmy cudow - pluginy ktore robia postpro MB "wiedza" ze ten kanal jest niestety chwilowy

i usiluja interpolowac pola wektorowe pomiedzy klatkami integrujac informacje ktore zostaly skwantowane w kazdej klatce bez usredniania czasem otwarcia migawki, jedne usiluja lepiej drugie gorzej - ogolnie wykombinowanie na podstawie wektorow o kierunkach 0st, +90st, +180st, +270st ze obrot nastepowal po okregu jest zadaniem nietrywialnym :D bo nie ma informacji o tym co dzieje sie

z wektorem w klatkach posrednich, ale i na to znaleziono sposob poprzez interpolacje wielomianem

cosinusowym, ktory pozwala zalozyc ze wiekszosc ruchow nastepuje po krzywych gladkich,

problem zacznie sie gdy nastepuja gwaltowne zmiany w ruchu pomiedzy 2ma klatkami, dlatego

nowoczesne pluginy takie jak np reel smart blur kombinuja jak wygladalo otoczenie wektora przed i po danej klatce i rowniez zaczyna to im wychodzic coraz lepiej

 

jeseli chodzi o fakeowany MB prym wioda 2 firmy: Cebas i Pixar

Odnośnik do komentarza
Udostępnij na innych stronach

tjviking - no bez przesady. Jest sporo sytuacji gdzie postprocesowy motion blur po prostu nie daje rady i juz i wynik jego uzycia wyglada znaczaco gorzej niz mo-blura z renderera.

 

glupota byloby twierdzic ze postpro MB bedzie kiedykolwiek wygladac lepiej

niz realny MB renderowany wprost przez renderer... no chyba ze

z Maxowego Scanlinea

 

No i kombinacje tego. ( smiglo, nad szyba, w wykonujacym szybki obrot smiglowcu filmowane z sasiedniego smiglowca - taki Avatarowy shocik chociazby. )

t.

 

oj Tomku, no taki przyklad to chyba dla dzieci na na ulicy,

przeciez kazdy kto sie zajmuje postpro wie, ze szyby nie ma, smiglo i

sasiedni helikopter bedzie na oddzielnych warstwach i do kazdej mozna

dodac osobny postpro MB...

i tak wszystko robi sie w kawalkach, a posiadanie obiektow na oddzielnych

warstwach rozwiazuje wszystkie tutaj opisane przez ciebie dylematy

 

skoro juz pchamy sie w jakies komplikowane dywagacje to moze dajmy przyklady

z Pixara, gdzie ujecie w kompozycji sklada sie ze kilkuset warstw i w kazdej

MB jest dobierany "na oko".. czyli czy juz razi czy jeszcze przejdzie

Odnośnik do komentarza
Udostępnij na innych stronach

a ja chcialbym zobaczyc animacje...
...ten przyklad to byl zart oczywiscie, na szybko zrobilem cos, czego vectorem zrobic sie raczej nie da, ale prawda, ze takich ujec nie ma. Co nie zmienia faktu, ze patenty typu reelsmart zajmuja sie regularnie psuciem obrazka i naprawde trzeba miec szczescie, zeby to przeszlo "bez kosztow".

 

i tak wszystko robi sie w kawalkach, a posiadanie obiektow na oddzielnych

warstwach rozwiazuje wszystkie tutaj opisane przez ciebie dylematy

 

skoro juz pchamy sie w jakies komplikowane dywagacje to moze dajmy przyklady

z Pixara, gdzie ujecie w kompozycji sklada sie ze kilkuset warstw i w kazdej

MB jest dobierany "na oko".. czyli czy juz razi czy jeszcze przejdzie

 

Tego troche nie rozumiem. Komfortem pixara jest to, ze motion blur dostaja prawie za free (potrafi przyspieszyc rendering ,a nie zwolnic), wiec sie go uzywa bez wyjatku zamiast fake'ow, ktore nawet jesli dzialaja, zabieraja strasznie duzo czasu w skomplikowanej scenie.

 

Kontroluje sie oczywiscie dlugosc shutera czy wartosc velocity na obiekach, ale poza tym dof i motion blur piecze sie razem z obrazkiem, z marszu, zgodnie z wartosciami kamery, bo dzieki temu mamy refleksy, cienie i GI jak rowniez wlosy i inne "problemy" prawidlowo zblurowane na wstepie, a zrobienie tego w poscie, na poziomie jakosci obrazka, na ktorym operuje pixar jest po prostu niemozliwe (lub pracochlonne).

 

Gdyby pod moimi czajnikami byl ich cien, bylby rownie rozmyty, co czajniki, bo to jest trojwymiarowy motion blur. Im wiecej obiektow w scenie, odbic, cieni, szczegolow, tym trudniej odtworzyc to w post-produkcji (nie mowiac nawet o jakosci efektu, ktora pozostawia wiele do zyczenia). Dlatego wciaz uzywa sie "prawdziwego" motion bluru, ktorym nikt nie zawracalby sobie juz glowy, gdyby istnialy praktyczne zamienniki.

 

:)

Odnośnik do komentarza
Udostępnij na innych stronach

tutaj dokument do poczytania, pokazuje porownanie starej wersji reel sb z nowymi algorytmami, ktore

de facto weszly do nowych wersji reel sb, pokazane na przykladzie animacji poklatkowej :D

gdzie nie moze byc mowy o jakims usrednianiu informacji... bo jej po prostu nie ma i nie bylo

 

http://www.cc.gatech.edu/cpl/projects/blur/MotionBlur_BrostowEssa_SIGGRAPH01.pdf

Odnośnik do komentarza
Udostępnij na innych stronach

Tego troche nie rozumiem. Komfortem pixara jest to, ze motion blur dostaja prawie za free (potrafi przyspieszyc rendering ,a nie zwolnic), wiec sie go uzywa bez wyjatku zamiast fake'ow, ktore nawet jesli dzialaja, zabieraja strasznie duzo czasu w skomplikowanej scenie.

 

90% ujec w Pixarze uzywa fake'owanego motion blura, czytaj nie generowanego przez

renderer tylko poprzez rendering w passach, renderuja oddzielnie velocity pass (taki prawdziwy (usredniony po czasie trwania klatki) - nie to co w maxie) a potem maja shader postpro, ktory zaleznie od

zyczenia rezysera steruje natezeniem motion blura

 

tak jest latwiej i nie trzeba ponownie renderowac bardzo skomplikowanych klatek

zeby zmienic natezenia efektu MB, mozna o tym poczytac w kazdym publicznie

dostepnym materiale na temat kolejnych filmow Pixara - patrz materialy z Siggraph

 

pomimo ze PR Renderman dorobil sie raytracingu, GI, true motion blur, true DOF,

nadal sie stosuje fake'i - bo tak jest prosciej z punktu widzenia produkcyjnego,

latwiej jest zregenerowac sekwencje gdy masz kilka sekund na klatke niz 30 godzin

na klatke - a tyle renderuja sie klatki "najciezszych" ujec Pixara

Odnośnik do komentarza
Udostępnij na innych stronach

 

oj Tomku, no taki przyklad to chyba dla dzieci na na ulicy,

przeciez kazdy kto sie zajmuje postpro wie, ze szyby nie ma, smiglo i

sasiedni helikopter bedzie na oddzielnych warstwach i do kazdej mozna

dodac osobny postpro MB...

i tak wszystko robi sie w kawalkach, a posiadanie obiektow na oddzielnych

warstwach rozwiazuje wszystkie tutaj opisane przez ciebie dylematy

 

skoro juz pchamy sie w jakies komplikowane dywagacje to moze dajmy przyklady

z Pixara, gdzie ujecie w kompozycji sklada sie ze kilkuset warstw i w kazdej

MB jest dobierany "na oko".. czyli czy juz razi czy jeszcze przejdzie

 

tjviking - ojojoj. Nieprawda. Nie zawsze, nie wszystko. A juz przyklad z Pixara, to podaj pliz zrodlo, bo Stefan jak do nas wpadl mowil, ze jest dokladnie odwrotnie i z renderera wychodzi obrazek gotowy na 95%. Przynajmniej jeszcze przy ratatuju i wall-e tak bylo.

 

Komputery sa mocniejsze niz to drzewiej bywalo i renderowany motion blur nie jest juz taka olaboga jak kiedys. Z iloscia warstw sie nie przesadza. I ta dodatkowa jakosc, ktora sie dostaje w tej chwili jest wystarczajaca pokusa. Oszczednosc czasu na fejkowaniu w ciezkich przypadkach jest zadna.

 

Taki przyklad jak podalem jak najbardziej sie lapie i jak najbardziej NIE DA SIE zrobic rownie dobrze, ani nawet blisko dobrze jak renderowany motion blur bez duzej i upierdliwej roboty w kompozycji - na tyle duzej i na tyle upierdliwej, ze szybciej jest to przeliczyc po prostu z renderera.

 

Warstwy na przezroczystosciach z duzym motion blurem - toz to caly nowy zestaw problemow, czesc z nich bez lekarstwa.

 

Zreszta przyklad podany przez Kannu jest prostszy niz moj i tez wyjdzie znacznie gorzej z vectorow niz z renderera.

Tak jak byle jaki, pierwszy z brzegu zestaw szybko poruszajacych sie w roznych kierunkach i po zakrzywionych sciezkach partikli.

 

Nie neguje postprocesowego motion blura. Tak samo jak defocusa. To bardzo wygodne narzedzia, ale w bardziej skomplikowanych przypadkach, przy takim wzroscie mocy procesorow i szybkosci renderu z jaka mamy do czynienia w ostatnich latach, to szybciej, ladniej i wygodniej jest motion blur sobie policzyc i miec z bani.

 

Daruje sobie dodawanie "ze przeciez kazdy kto zajmuje sie post-pro to wie" . ;-)

 

salut

t.

Odnośnik do komentarza
Udostępnij na innych stronach

.

Tego troche nie rozumiem. Komfortem pixara jest to, ze motion blur dostaja prawie za free (potrafi przyspieszyc rendering ,a nie zwolnic), wiec sie go uzywa bez wyjatku zamiast fake'ow, ktore nawet jesli dzialaja, zabieraja strasznie duzo czasu w skomplikowanej scenie.

 

cos takiego nie istnieje, na skutek rozmazania obrazu moga sie zmniejszyc wymagania

odnosnie shading rate, ale motion samples... zawsze zwiekszaja czas renderingu,

oczywiscie w najmniejszym stopniu rigid objects, potem particles/riCurves (fur/hair)

a najgorzej jest z displacementami... tutaj czasy wlaczonego MB moga zmasakrowac

kazdy projekt

 

poczytaj sobie jak renderowano wlosy w Ratatoiulle, trzeba bylo zastosowac taka

game fakekow, bo wlosy sie ruszaly niezaleznie od wektorow postaci i proste tricki

zawiodly

Odnośnik do komentarza
Udostępnij na innych stronach

tjviking - ojojoj. Nieprawda. Nie zawsze, nie wszystko. A juz przyklad z Pixara, to podaj pliz zrodlo, bo Stefan jak do nas wpadl mowil, ze jest dokladnie odwrotnie i z renderera wychodzi obrazek gotowy na 95%. Przynajmniej jeszcze przy ratatuju i wall-e tak bylo.

 

no wlasnie materialy na temat raratuja mowia co innego (Siggraph), wiec albo Stefan

cos nazmyslal, albo publikuja zafalszowane materialy ze niby sie tak napracowali,

a tu wszystko za nich sam PRMan wyrenderowal :P

nie sadze zeby to drugie bylo prawdziwe, bo kilka osob napisalo przy tych produkcjach doktoraty z algorytmow fake'owania ktore byly tam uzyte

 

Komputery sa mocniejsze niz to drzewiej bywalo i renderowany motion blur nie jest juz taka olaboga jak kiedys. Z iloscia warstw sie nie przesadza. I ta dodatkowa jakosc, ktora sie dostaje w tej chwili jest wystarczajaca pokusa. Oszczednosc czasu na fejkowaniu w ciezkich przypadkach jest zadna.

 

no tutaj tez zrodla na temat produkcji dla Disneya (siggraph) mowia jasno ze warstw jest od metra

i ciut ciut - moze zle Stefana zrozumiales, wszystko wychodzi z renderera ale

w ulubiony dla Pixara sposob, w passach, renderuja jakis element, np pole wektorowe,

albo chmure punktow i uzywaja tego zamiast prawdziwych obliczen,

w ten sposob czesto fake'uja GI i ambient occlusion - a na koncu wychodzi pojedynczy

render, oczywiscie, tylko np. shadow mapy sa policzone oddzielnie, passy dla GI

odzielnie, jakas ulubiona postac rezysera oddzielnie itd, statystyki na temat

ilosci tych passow i elementow ktore sa oddzialnie przeliczane sa ogromne,

+ nowe mechanizmy tekstur wolumetrycznych, ktore automatycznie dopasowuja

sie do obiektow ale wymagaja oddzielnych passow przeliczania

 

Daruje sobie dodawanie "ze przeciez kazdy kto zajmuje sie post-pro to wie" . ;-)

 

to byl akurat branzowy zarcik, mam nadzieje ze nie urazilem :P

 

reasumujac, ja tez chcialbym miec kilka tysiecy procesorow do renderingu,

wtedy bym sie wogole nie zaglebial w takie pierdoly jak fakeowanie takich

oczywistosci... tylko prosze powiedz mi dlaczego tak duze firmy,

dysponujace tak duzym zapleczem sprzetowym i softwareowym.. fake'uja.

 

odpowiedzi bedzie kilka: brak czasu, elastycznosc, wolnosc artystyczna

Odnośnik do komentarza
Udostępnij na innych stronach

90% ujec w Pixarze uzywa fake'owanego motion blura, czytaj nie generowanego przez

renderer tylko poprzez rendering w passach, renderuja oddzielnie velocity pass (taki prawdziwy (usredniony po czasie trwania klatki) - nie to co w maxie) a potem maja shader postpro, ktory zaleznie od

zyczenia rezysera steruje natezeniem motion blura

 

tak jest latwiej i nie trzeba ponownie renderowac bardzo skomplikowanych klatek

zeby zmienic natezenia efektu MB, mozna o tym poczytac w kazdym publicznie

dostepnym materiale na temat kolejnych filmow Pixara - patrz materialy z Siggraph

 

pomimo ze PR Renderman dorobil sie raytracingu, GI, true motion blur, true DOF,

nadal sie stosuje fake'i - bo tak jest prosciej z punktu widzenia produkcyjnego,

latwiej jest zregenerowac sekwencje gdy masz kilka sekund na klatke niz 30 godzin

na klatke - a tyle renderuja sie klatki "najciezszych" ujec Pixara

 

Cholera, a jednoczesnie Ci kolesie napisali 30 lat temu najszybszy na ziemi algorytm motion blur, ktorego do dzisiaj uzywa pol swiata do produkcji filmow, ciekawe dlaczego..?

 

Chyba pamietam taki paper, i pamietem rowniez mase technologii, ktorych sensem jest to, zeby renderowac je z motion blurem od razu, prosto z renderera, bo inaczej ich rozmycie staje sie problematyczen (wlosy, czasteczki, GI). Znam rowniez na przyklad to: http://www.rhythm.com/~ivan/pdfs/sketch2007.pdf, i probki motion bluru postprocesowego z mentala i sadze, ze zadna z dostepnym nam technologii nie daje efektow zblizonych do renderowanego bluru w 3d.

 

Nie wierze, ze Pixar fakuje motion blur w 90% i mam ku temu powody. To jest troche jak z genialnymi patentami* do relightingu w ILM, duzo sie o nich pisze, a prawda jest taka, ze uzyli ich pod koniec produkcji... a jedna z ich podstawowa zalet, nomem omen jest to, ze pracuja na motion blurze z renderara, a nie fake'u...) ;) Wiesz moze po co ILM renderuje motion blur w rendermanie, skoro moze zrobic to vectorami?

 

Mozemy sie oczywisie spierac niewiadomo dokad o to, jak to robia wielcy tego swiata, o czym przygodnie wiele wiedziec nie mozemy, ale prawda jest taka, ze nie widzialem dobrego motion bluru zrobionego w poscie, poza najprostszymi ujeciami prawo->lewo. Tym czasem moj zart z postu wyzej renderuje sie 15 sekund i widac go w odbiciach i cianiach, co dla znajacych temat (to jest skaladajacych do kupy duze sceny) ma znaczenie. period :)

 

* - http://people.csail.mit.edu/jrk/lightspeed/

Odnośnik do komentarza
Udostępnij na innych stronach

a najgorzej jest z displacementami... tutaj czasy wlaczonego MB moga zmasakrowac

 

Wybacz, ale to jest jawny falsz. W przypadku czystego algorytmu reyes, motion blur doskonale laczy sie z displacementem. Jedno nie ma zadnego wplywu na drugie. Dziala szybko i przyjemnie. Problemem jest dowolny ray tracing, ktory wymaga kopii geometrii (poza dicingiem potrzebnym reyesowi), i przez ktory predkosc mb i disp. biora w leb. Stad point based GI oraz deepshadows...

 

Powyzsze, jak i przyspieszenie z powodu wlaczonego motion bluru latwo jest udowodnic. Wystarczy sytuacja, w ktorej koszt shadera jest wiekszy niz koszt generowania geometrii. Reyes nie uzywa time samples do czasu wlaczenie ray tracingu. Caly shading odbywa sie na poczatku otwarcia migawki. Dopiero ray tracowane cienie, occlusion itp generuja dodatkowe sample. dla MB.

Odnośnik do komentarza
Udostępnij na innych stronach

tjviking - poniewaz ja mam na imie Tomasz, a ten jak wiadomo jest niewierny, to samo haslo "Siggraph" to dla mnie jednak nieco zbyt ogolne zrodlo. Nie masz aby tych linkow pod reka? Byc moze roznie interpretujemy podobne informacje, a i bede mial podkladke zeby spytac u zrodla.

Co to za fejkowanie, ktore polega na przeliczeniu znaczaco wiekszej ilosci danych niz sam render .

 

Ale, ale nie zaprzatajmy tu Pixara. Bo wiesz, Pixar ma swoje cuda wianki, atomowe pola wektorowe, a Weta ma jeszcze inne, a ILM pewnie jeszcze inne, a wujek Henryk jeszcze lepsze i w ogole liczy wypas moblur na liczydlach, ale my tu mierzymy sie z real world situations i na razie przyklady przeze mnie wymienione sa niestety poza zasiegiem postprocesowego motion blura dostepnego dla Polaka-szaraka.

 

Jestem wielkim oredownikiem fake'owania, jestesmy przeciez z podobnego pokolenia, ( ktorego mlodziez przyzwyczajona do przywalania GI i SSS zaraz na starcie i czekania przez tydzien na render kulki na kompie o mocy naszej dawniejszej calej renderfarmy nigdy nie zrozumie ) , wiec ja sie nie chce klocic. Po prostu z moich obserwacji w mniej wiecej 50% przypadkow, fake'owany motion blur wyglada albo znaczaco gorzej, albo wymaga znaczaco wiekszych nakladow pracy niz przeliczenie motion blura z renderu ( ktore w koncu srednio kosztuje 3-krotnosc czasu potrzebnego na render bez blura, wiec tez nie przesadzajmy ze jest tak znowu straszne ).

Pozostaje cale 50% kiedy fake blur jest git i cacy.

 

salut

t.

Odnośnik do komentarza
Udostępnij na innych stronach

Cholera, a jednoczesnie Ci kolesie napisali 30 lat temu najszybszy na ziemi algorytm motion blur, ktorego do dzisiaj uzywa pol swiata do produkcji filmow, ciekawe dlaczego..?

 

wymyslili Reyesa a nie Motion Blur,

do Reyesa mozna napchac duzo roznych fragmentow zwanych dices, z

roznych okresow czasu w ten sposob powstaje MotionBlur i oddaje dokladnie

sciezke ruchu obiektu - stad wrazenie ze cos wymyslono, czy ze jest to najszybsze

gdyby to bylo najszybsze to nie uzywanoby kombinacji ze splattingiem chmur

punktow ktore sie szybciej renderuja niz standardowa geometria

 

ostatnie rozszerzenie z powoli zamykajaca sie migawka to nic innego jak

zmiana rozkladu prawdopodobienstwa tych fragmentow w klatce czasu - no ba,

ale dzieki temu mozna uzyskac bardziej realistyczne efekty i dzieki temu mozna nadal

handlowac starym produktem jakim jest PRMAN

 

z mojej obserwacji wynika ze wszelkie pomysly na fake'i ktore powstaja podczas

ich walki z projektami w nastepnych wersjach wchodza do produktu jako nowy

feature - i dobrze, dzieki temu mozna lepiej wykorzystac produkt, miec jakies

opcje do wyboru podejmujac decyzje czas vs jakosc

 

Mozemy sie oczywisie spierac niewiadomo dokad o to, jak to robia wielcy tego swiata, o czym przygodnie wiele wiedziec nie mozemy, ale prawda jest taka, ze nie widzialem dobrego motion bluru zrobionego w poscie, poza najprostszymi ujeciami prawo->lewo. Tym czasem moj zart z postu wyzej renderuje sie 15 sekund i widac go w odbiciach i cianiach, co dla znajacych temat (to jest skaladajacych do kupy duze sceny) ma znaczenie. period :)

 

no i sie ciesze ze ci sie tyle renderuje :D

nikt sie nie chce spierac co jest lepsze, bo ciezko porownywac w tych samych

kategoriach FAKE do precyzyjnego renderingu, ktory oddaje wszystkie zawilosci

interakcji obiektu z cieniami, GI etc

 

troche zaluje ze rozkopalem ten temat, bo widze ze nie bylo sensu,

sens pojawi sie gdy Morphe bedzie chcial swoje bajkowe osiedle wyrenderowac

z motion blurem :P powiedzmy 20000 klatek, w takich momentach niejeden padal juz

na kolana i wracal do starych harcerskich metod postpro

Odnośnik do komentarza
Udostępnij na innych stronach

serwus :)

tjviking : mi sie podobało w jaki sposób wytłumaczyłes naszemu poczatkującemu koledze kwestie motion blura. Dobrze że zanegowałes to co mu poradziłem , ale jest problem bo jakoś do reszty też nie trafia to co piszesz.

To dobrze że piszesz o kwantowaniu danych i o tym że " znaleziono sposob poprzez interpolacje wielomianem cosinusowym " . Ostatecznie naszego poczatkującego kolege przekonają do Twojej teorii podpowiedzi że właściwie to max "jest dupny " jak to ujałes i mysle że odsyłanie do Pixarowskich algorytmów i PRmana mogłeś zawrzeć juz w pierwszym poście - bo to nas wszystkich przekonuje. Od rana czekają nas rewolucje w studiach postprodukcyjnych w Polsce. Tylko zdradź prosze - skąd to wiesz i dlaczego reszta tego nie wiedziała ?

A uzywałes tego w praktyce o czym piszesz ?

W każdym razie gratuluje .

 

pozrawiam i życze powodzenia :)

Odnośnik do komentarza
Udostępnij na innych stronach

tjviking - poniewaz ja mam na imie Tomasz, a ten jak wiadomo jest niewierny, to samo haslo "Siggraph" to dla mnie jednak nieco zbyt ogolne zrodlo. Nie masz aby tych linkow pod reka? Byc moze roznie interpretujemy podobne informacje, a i bede mial podkladke zeby spytac u zrodla.

Co to za fejkowanie, ktore polega na przeliczeniu znaczaco wiekszej ilosci danych niz sam render .

 

no to niewirny imienniku, tutaj lista odnosnie renderingu w ratatuju, glownie ze wzgledu na wlosy,

sporo fakeow zastosowali, w tym oddzielnie liczony motion blur na wszystkich

szczurach, myszach etc

 

http://graphics.pixar.com/library/

 

PDFy odnosnie futra, symulacji boundingboxow i symulowanego motion blura i

symulacji crowds

 

i opisy wszystkich fakeow w historii filmow ze stajni Pixara

 

 

jesli nie wierzysz ze stosuja inne fake'i, to polecam PDFy z Cars i Monsters, cala kupa

fake'ow z globalnym oswietleniem z czego nie wszystko weszlo do nowego PRMANa

jako opcje, niestety czesc z nich jest zbyt trudna zeby je zautomatyzowac,

wiec tylko grupa Shader Technikow jest w stanie te dane posrednie poskladac

do kupy w finalnym passie

 

i oczywiscie im starsze filmy tym tych trickow bylo wiecej

 

Jestem wielkim oredownikiem fake'owania, jestesmy przeciez z podobnego pokolenia, ( ktorego mlodziez przyzwyczajona do przywalania GI i SSS zaraz na starcie i czekania przez tydzien na render kulki na kompie o mocy naszej dawniejszej calej renderfarmy nigdy nie zrozumie ) , wiec ja sie nie chce klocic. Po prostu z moich obserwacji w mniej wiecej 50% przypadkow, fake'owany motion blur wyglada albo znaczaco gorzej, albo wymaga znaczaco wiekszych nakladow pracy niz przeliczenie motion blura z renderu ( ktore w koncu srednio kosztuje 3-krotnosc czasu potrzebnego na render bez blura, wiec tez nie przesadzajmy ze jest tak znowu straszne ).

Pozostaje cale 50% kiedy fake blur jest git i cacy.

 

no zgadzam sie, ale czasem po prostu sie nie daje, dlatego nawet najwieksi

czesto oszukuja nasze oczy i to publicznie, w kinie - stosujac zasade,

skoro nikt nie zauwazyl roznicy to po co przeplacac,

jak poogladasz stopklatki z Avatara to zobaczysz jaka tam

"wolna amerykanka" w postprodukcji odchodzi... i tak tego nikt nie zauwazy,

no chyba ze "nasi z forum" na stopklatkach z ripa HD :D w nich cala nadzieja

Odnośnik do komentarza
Udostępnij na innych stronach

wymyslili Reyesa a nie Motion Blur

Wymyslili stochastic sampling, ktory jest wstepem do szybkiego renderowania mb i dofa w mikropoligonach. A bylo to na tyle odkrywcze, ze az to opatentowali ;)

 

stad wrazenie ze cos wymyslono, czy ze jest to najszybsze

gdyby to bylo najszybsze to nie uzywanoby kombinacji ze splattingiem chmur

punktow ktore sie szybciej renderuja niz standardowa geometria

 

O ile wiem, renderery mikropoligonalne dysponuja najszybszym algorytmem motion bluru w grafice komputerowej. Jesli mozesz wskazac jakas alternatywe, chetnie poslucham!

 

 

nikt sie nie chce spierac co jest lepsze, bo ciezko porownywac w tych samych

kategoriach FAKE do precyzyjnego renderingu, ktory oddaje wszystkie zawilosci

interakcji obiektu z cieniami, GI etc

 

Stracilem rachube, czy fakiem nazywasz reelsmart, czy reyesa (ktory technicznie rzeczy biorac jest fakiem) i ktory wygenerowal w 3d ten obrazek.

 

w takich momentach niejeden padal juz

na kolana i wracal do starych harcerskich metod postpro

 

Nie, o ile uzywal reyesa... jak pixar... :)

 

 

sie ma!

skk.

Odnośnik do komentarza
Udostępnij na innych stronach

serwus :).

To dobrze że piszesz o kwantowaniu danych i o tym że " znaleziono sposob poprzez interpolacje wielomianem cosinusowym " . Ostatecznie naszego poczatkującego kolege przekonają do Twojej teorii podpowiedzi że właściwie to max "jest dupny " jak to ujałes i mysle że odsyłanie do Pixarowskich algorytmów i PRmana mogłeś zawrzeć juz w pierwszym poście - bo to nas wszystkich przekonuje. Od rana czekają nas rewolucje w studiach postprodukcyjnych w Polsce. Tylko zdradź prosze - skąd to wiesz i dlaczego reszta tego nie wiedziała ?

 

no bo ja Kannu jestem programista, taki zboczuch co sie jara tym jak sie wektory

obracaja i jak faluje pole wektorowe w kanale velocity

 

slaby ze mnie edukator, naprawde sie staram, ale czasem nie potrafie niektorych

rzeczy po ludzku wytlumaczyc :(

 

wy czytacie newsy na cgchannel.com a ja na acm.org stad mnie jaraja troche inne

zabawy z grafika, bardziej od strony renderingu i shaderow i techniczne aspekty

renderingu i dla mnie predkosc PRMANa jest grubo przereklamowana, strasznie

duze naklady sprzetowe i ludzkie ida na to zeby ten PIPELINE wogole mogl zaistniec,

ale dzieki temu ze tamten produkt sie rozwija i musi konkurowac z VRAYem,

MENTALEM, Cebasem i cala kupa darmowych rendererow - cos sie dzieje,

ludzie zaczynaja sie zastanawiac jak cos obliczyc szybciej albo lepiej albo

bardziej elegancko, tak zeby dawalo sie tego uzyc w malej firmie

i dzieki temu z roku na rok jest coraz lepiej :D

 

nie gloryfikujmy tu mojej osoby, bo jak juz napisalem mam odmienne przekonania,

troche wykrecone przez wiedze na temat algorytmow i nie chce nikomu

nic na sile wciskac - tylko pokazuje ALTERNATYWNE ROZWIAZANIA, ktore sie stosuje, ktorych wady i zalety sa znane

Odnośnik do komentarza
Udostępnij na innych stronach

stochastic sampling to Arystoteles wymyslil :P

 

Wymyslili stochastic sampling, ktory jest wstepem do szybkiego renderowania mb i dofa w mikropoligonach. A bylo to na tyle odkrywcze, ze az to opatentowali ;)

 

wiesz Symek, przejdzmy z dyskusja gdzies na priva, bo juz ladnie zasmiecilem ten watek, a mialo byc na temat motion blur a my juz jestesmy na etapie dupy Maryny :D

Odnośnik do komentarza
Udostępnij na innych stronach

Panowie,

 

Dziękuje za odpowiedzi - wykład przekroczył moje potrzeby, ale jest nieoceniony - pojawiło się w nim tyle nieznanych mi pojęć z zakresu moich zainteresowań, że najbliższy czas będe szukał wyjaśnień :)

 

Reasumując z punktu widzenia osoby nie szczególnie zaawansowanej majacej do dyspozycji jedego kompa :)

- warto używać MB w Post jeżeli ruchy objektów się są szczególnie skompliwane, ich wektory ruchu nie są przecistawne, etc., nie pojawia się transparencja

- jeżeli zależy na idelanym odwzorowaniu ruchu i ma się czas, bądż z powodów technicznych się nie da, używamy MB z renderera

- warto wyrenderować na próbę bez MB i dodać w post, przy trudniejszych klatkach renderować z MB

 

Takie dla mnie wnioski na tę chwilę :)

 

Dziękuje bardzo za zaangażowanie

tjviking

kannu

Baggins

symek

 

Pzdr

Elimo

Odnośnik do komentarza
Udostępnij na innych stronach

tjviking, a nie jest tak przypadkiem, że w dużej mierze, w takich firmach jak Pixar, fake'i zarówno MB jak i relightingowe to wynik stosowania potężnego pipeline'u w którym powrót z kompo do 3D nie jest tak prosty jak szepnięcie koledze obok, żeby puścił ponownie render, i maksymalnie się tej zwrotnej ścieżki unika. Że to nie sama jakość efektów postowych i nie wystrzelone w kosmos algorytmy analiz fourierowskich wąsów chomika są najważniejsze, tylko to jak szybko dane przechodzą przez pipeline w przeciwnym kierunku bez tworzenia czkawki. W ikea, jak ktoś zrobi otwór w drzwiach szafy nie z tej strony co trzeba, to najpierw szpachluje zanim zgłosi się po następne drzwi. Efekt taki sobie, ale czas, kasa, itp... :)

 

ten ich pipeline jest strasznie pokrecony, generalnie kazde ujecie sklada sie

z dziesiatek tysiecy dupereli, ktore sa policzone i liczyly sie okrutnie dlugo,

ale poskladanie ich do kupy nie trwa tak dlugo jak zregenerowanie wszystkiego od

nowa - w takim ukladzie zmiana parametrow natezenia GI w jakims passie nie

powoduje koniecznosci renderingu calej reszty i taki zabieg robi sie w kilka minut

a nie godzin i mozna podgladac efekty w czasie rzeczywistym na jakiejs

klatce czy fragmencie ujecia

 

generalnie Pixar i ILM prawie nie dotykaja narzedzi do postpro, to co tutaj nazwalem

postpro to specjalnei spreparowane scenki, w ktorych sa tylko prymitywy w postaci

np. plane'a z nalozonym shaderem, ktory dokonuje kompozycji, i zmiana

juz samych parametrow przekazywanych do tego shadera daje mozliwosc dowolnego

sterowania compositingiem koncowym

 

jest to niemalze taka idea jakbysmy w Maxie wyrenderowali wszystko na oddzielnych

warstwach a potem zrobili pusta scenke z VideoPost i poskladali wszystko do kupy,

dodajac jeszcze odpowiednie efekty do niektorych warstw

Odnośnik do komentarza
Udostępnij na innych stronach

Musiala minac doba, bo oczywiscie sie zaparlem i zapytalem u zrodla - tj. w Pixarze.

Wiekszosc zainteresowanych ta dyskusja czyta po angielsku wiec po prostu wklejam co mi Stefan napisal. Kluczowe wydaje mi sie tu ostatnie zdanie. ;-)

 

"We do "real" in-camera/in-renderer motion blur generally, and sometimes

we fake it in 2D, and yes we have some nice blur nodes in our

compositing libraries for doing so.

 

At render time, since you can compute sub-frame motion, you can do more

realistic blur, such as multisegment motion blur (more than one motion

path allowed per shutter-open interval) for nonlinear motion paths (a

canonical example is the airplane propeller )

 

Doing that in 2D using a radial blur is appropriate and looks good in

some cases (like the propeller -- for some definition of "looks good"),

but may also not be all that easy in cases where the path is not

radial. A 2D "path blur" algorithm could be created, and extra

sub-frame images rendered to get the correct paths, and motion vectors

extracted (say, using a tracker), but often that is more annoying than

just letting the renderer do it.

 

Why and where we fake it is situational, but the reasons would be that

you want to iterate a lot on the blur, and you're in a situaton where

it's sufficiently subtle and/or linear that faking it in 2D looks good.

We do also iterate on 3D blur parameters to fine-tune a look, of course.

 

It's always situational, we certainly use both, but we certainly

in-renderer motion blur more frequently than fake 2D blur.

 

Plus, who cares what Pixar does? Whatever looks best for your shot

using the tools you have at hand for the budget you've got for the

project is what you should do.

 

Stephen Bugaj

"

 

salut

t.

Odnośnik do komentarza
Udostępnij na innych stronach

Plus, who cares what Pixar does? Whatever looks best for your shot

using the tools you have at hand for the budget you've got for the

project is what you should do.

 

Amen

To powinno zakończyć tą dyskujsę, chociaż trochę szkoda w sumie by było bo fajnie sie czyta ;)

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności