Skocz do zawartości

Blue Umbrella - pierwszy fragment z nowego shortu Pixara


CzAk1

Rekomendowane odpowiedzi

  • Odpowiedzi 49
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

Oprócz tego przetestowano również technikę o nazwie "deep compositing", która daje twórcom lepszą kontrolę nad wyglądem filmu, a widzom wrażenie większej głębi.

 

Cały pomysł na fotorealizm, żeby ratować prmana przed Arnoldem jest zabawny, ale powyższe zdanie to po prostu komedia.

Odnośnik do komentarza
Udostępnij na innych stronach

Liczyli 30 godzin na klatke, zeby osiagnac super-duper-mega-wypas realizm (ktorego nie widac ale moze trzeba miec super nowoczesne gogle jakies) a potem dodali na to wszystko buzki jak z czasow pierwszych myszek Mickey? :/

Edytowane przez Nezumi
Odnośnik do komentarza
Udostępnij na innych stronach

Tak po prawdzie, to zdziwilibyście się, ile liczą się Wasze klatki (w każdym razie powstające w studio na farmie), kiedy policzy się ich całkowity koszty cpu ( czyli czas renderu razy ilość corów) zsumowane dla każdej warstwy finalnego obrazka - bo takiej miary używa profesjonalny render wrangler (czasami normalizuje się ten wynik także dla 1Ghz, kiedy na farmie są maszyny różnej generacji). To jest jedyna miara, które daje jakiś ogląd sytuacji.

 

Jeśli klatka HD reklamy liczy się 40 minut na pierwszy plan + 15 minut na drugi lub na dymiki/efekty na standardowej 8 rdzeniowej maszynie, to już mamy 7 godzin... ta-daa..!

Odnośnik do komentarza
Udostępnij na innych stronach

Straszny spam tutaj odchodzi. Jak nie macie nic do napisania na temat to prosiłbym o nie zaśmiecanie wątku.

 

Tak ogólnie to jesteście też niesamowicie rozeznani w temacie po obejrzeniu 30 sekundowego klipa.

Przy okazji...w Transformersach 2 czas renderingu dochodził do 36 godzin. A tam przecież ledwo jakieś parę planów, śrubek i kółek do wklejenia na taśmę filmową. W Transformersach 3 ponoć było jeszcze gorzej...

Odnośnik do komentarza
Udostępnij na innych stronach

@Lis... a co nie oglądałeś...:)))

Madagaskar liniowo liczyłby się 7200 lat... to dużo czy mało...???.. za chwilę będzie jak z telewizorami i telefonami nie ważne jaki prezentują obraz... ważniejsza jest ich grubość....:))).

Marketing robi z Wami co chce... pobudka...!!!... czas przestać być robotem...:)))

Odnośnik do komentarza
Udostępnij na innych stronach

jak nie widać i nie słychać... to gdzie ta technologia.... w tym wątku jest tekst marketingowy i materiały z których wiele nie wynika.... bicie piany przed kupieniem piwa... i to jest właśnie marketing.... bogatego stać żeby w byle tyłek wbić trzy pawie pióra i wmawiać że ma pawia.... i co najgorsze.... to działa....:)))

Odnośnik do komentarza
Udostępnij na innych stronach

dziadku to powiedz mi czym się różni micropologon od większości ray-trace rendererów. I czy realistyczne GI i path tracing jest możliwy w rendermanie a możemy rozpocząć jako taką dyskusje. W zasadzie shortach pixara czasem historia jest dodatkiem do pewnego zadania technicznego i to może być imponujące, że chce sie im zrobić nie jakieś suche techniczne demo ale animacje, którą może oglądać wielu a potem papierki, które mogą przeczytać wybrani, którzy chcą. Takie jest moje zdanie na temat tego shorta.

Odnośnik do komentarza
Udostępnij na innych stronach

Może mi ktoś objaśnić sytuację? Rozumiem że takie kadry jak ten wrzucony przez Czakiego liczą się 30 ghzhour czy jak to tam mówią na płatnych farmach. Pomijając te komiczne buźki to chyba nie jest taki zły wynik?

 

A ten deep compositing to jest coś nowego poza nazwą? wiadomo coś?

Odnośnik do komentarza
Udostępnij na innych stronach

Deep compositing jest dla mnie trochę enigmatyczne. Ogólnie z tego co znalazłem, to chodzi o umieszczanie elementów filmu na warstwach, w stos...z wykorzystaniem przestrzennych danych zamiast dwuwymiarowych. :F

Myślę, że to jakiś sposób kompozycji, ale zamiast płaskich materiałów i nagrań, wykorzystuje się albo...hmm, materiały przestrzenne... <.>

Odnośnik do komentarza
Udostępnij na innych stronach

Z tego co się orientuje to mantra wykorzystuje dane deep do microvoxel renderingu? SYmku może to objaśnim nam trochę ;)

 

Chyba render wypuszcza w buforze dane dotyczące głębokości danego Pixela w przestrzeni, więc pixel ma de facto dane X,Y,Z. Jest to chyba bardziej wygodne od position passa i w zasadzie można na tym oprzeć relighting np. Ale snuje przypuszczenia, więc nie wiem na ile to wiarygodne.

Odnośnik do komentarza
Udostępnij na innych stronach

@legomir... skończ ten bełkot....!!!... załóżmy, że jesteśmy tu w trójkę Pixar, Ty i ja.... otwieramy karty... i co widzimy.... no słyszymy tylko bełkot niepełnionego materialnie.... no i mój rechot... Pixar Ciebie i mnie nie zauważy....:))))))))))))

Odnośnik do komentarza
Udostępnij na innych stronach

legomir-wypuszcza glebokosc pixela w kadrze, podobnie jak zetka. dodatkowo jezeli pixel jest polprzezroczysty to wypuszcza glebokosc nastepnego pixel i tak dalej. co daje nam mozliwosc kontolowac glebie w ktorej dany obiekt sie znajduje bez martwienia sie o AA. mozemy np ustawic cos za danym obiektem bez wypluwania masek. mozemy wkomponowac w chmury samolot bez najmniejszego problemu. Niby nic ale stwarza to ogromne mozliwosci przy np nieliniowej pracy nad projektem, gdzie mozemy doliczyc cos bez obawy ze black hole (mate) nie bedzie pasowal. Badz rozdzielic prace na pare osob.

 

Nie wiem tylko jak to wychodzi w praktyce bo juz kolor nastepnego pixela nie jest przechwycony. a testowalem tylko w nuku bo zaden renderer dla plebsu tego nie wypluwa.

 

dziadek, sio- ta dyskusia Ciebie nie dotyczy :) to rozmowa podlotkow ktorzy (jakby to powiedzeic w dziadkowym jezyku) ucza sie dobrze mieszac farby :)

 

czirs

  • Like 1
Odnośnik do komentarza
Udostępnij na innych stronach

No, jako tech demo to spoko - zwyczajnie durnowaty kawalek pokazali bo z tego co widze na sceenie nizej (tym z ludzmi i ulica) to juz konkretniej jest.

Tylko niech juz zacznie sie dziac cos konkretnego w animacjach 3D bo chocby z mega technologia to na sequel sequela do prequela do drugiej czesci znanego filmu nie chce sie chodzic do kina.

Edytowane przez Nezumi
Odnośnik do komentarza
Udostępnij na innych stronach

Dzięki za wyjaśnienie. Przy samym renderingu deep data przydają sie do czegoś?

 

o ile sie orientuje to nie. co innego deep shadow, ktory dziala na bardzo podobnej zasadzie, tylko ze na cieniach, cien udeze w polprzezroczysty pixel i czesc jego leci dalej.

Odnośnik do komentarza
Udostępnij na innych stronach

Nie wiem co pixar próbuje przeforsować i szczerze "wisi-mi-to" ale world space coordinate passy już "dobry" czas goszczą pod strzechami. Dla chcących się dokształcić polecam jeden z epizodów fxguide >>> http://www.fxguide.com/fxguidetv/fxguide-125-anonymous/

A dla zielonych link do tutka >>> http://www.disopolis.com/wordpress/2012/xyzwpp-pass-tutorial/

  • Like 1
Odnośnik do komentarza
Udostępnij na innych stronach

Deep compositing jest dla mnie trochę enigmatyczne. Ogólnie z tego co znalazłem, to chodzi o umieszczanie elementów filmu na warstwach, w stos...z wykorzystaniem przestrzennych danych zamiast dwuwymiarowych. :F

Myślę, że to jakiś sposób kompozycji, ale zamiast płaskich materiałów i nagrań, wykorzystuje się albo...hmm, materiały przestrzenne... <.>

 

poza tym co napisal tadek, deep compositing w akcji mozna obejrzec tutaj:

Odnośnik do komentarza
Udostępnij na innych stronach

No i okazuje się że nie jest to takie śmieszne;) Ciekawe, ale chciałbym zobaczyc jak wygląda w praktycznej pracy;)

 

 

Deep compositing nie jest śmieszny, jest genialny! Śmieszne jest reklamowane tego w 2013 roku jako testowanie nowej technologii, która daje widzom wrażenie większej głęb (!!!)i. Przecież ich własny PRman wypluwa pliki typy deep od jakiś 5 lat, podobnie jak Mantra Houdiniego, a nawet Vray od jakiegoś czasu. Pół Avatara zrobiono tą metodą i kilka innych filmów.

 

 

Pliku typu deep zachowują wszystkie sample, które posiada renderer w trakcie liczenia, czyli nie są to jakieś nowe dane, ale dokładnie te same, których używa renderer kiedy komponuje finalny obraz z sampli rozrzuconych z przestrzeni. (pro forma: sample to miejsca w które trafił promień i dla których wykonał się już shader przypisany do danej powierzchni)

 

Te sample nie są w jednej płaszczyźnie (płaszczyźnie poligona), bo niektóre promienie, szczególnie na krawędziach obiektu, nie trafiają w niego (albo przechodzą przez obiekt, jak w przypadku dymu), więc za finalny kolor pixela odpowiada chmura punktów rozrzucone nie tylko na szerokość i długość pixela, ale również w głąb. Tylko w ten sposób renderer może poprawnie skomponować finalny obraz i wygładzić krawędzie różnych obiektów.

 

Właśnie dlatego, że plik finalny (jpeg/png/exr) zostaje "spłaszczony" programy kompozycyjne nie są w stanie wykonać pewnych operacji, DOF w post-produkcji wygląda fatalnie, komponowanie włosów to koszmar, wkładanie czegoś w dym wymaga rysowanie ręcznie masek. Dzięki plikom deep wszystkie te problemy znikają. Możecie policzyć płonący obiekt oddzielnie od ognia i spokojnie go z nim skomponować. Jest to zaawansowana kompozycja wykorzystaniem kanału głębi (możne też passy oddalać od kamery, przenikać ze sobą obiekty w osi Z bez błędów na krawędziach).

 

Ta elastyczność okupiona jest rozmiarem plików, który dla klatki HD z łatwością przekracza gigabajt (deep pixels w half float i kilka deep rasterów). Jedna sekwencja w filmie może zająć terabajt i więcej. Dlatego zaleca się składanie w ten sposób tylko trudnych ujęć. Jakby nie było deep compositing to był hot topic dwa lata temu, bo wszyscy zaczęli tego używać, więc wiele do testowania tutaj nie ma.

 

pozdrawiam,

skk.

 

[edit]

 

Nie wiem tylko jak to wychodzi w praktyce bo juz kolor nastepnego pixela nie jest przechwycony.

 

Przechowywane są wszystkie wartości dla wszystkich pixeli w wszystkich deep plane'ach - czyli każdy pixel ma kilka kolorów w głąb. To, o czym wspominasz (dopiero teraz doczytałem wszystkie posty, sorry za powtarzanie po Tobie), czyli zapis tylko kilku wartości z-etki dotyczy maxowego RPFa o ile się nie mylę...

 

a testowalem tylko w nuku bo zaden renderer dla plebsu tego nie wypluwa.

 

?

Edytowane przez SYmek
  • Like 1
Odnośnik do komentarza
Udostępnij na innych stronach

Symek, dwa lata temu to wszyscy może zaczęli tego używać, ale na siggraphie 2012 nadal to był mega hot topic i wszystkie duże studia pokazywały przykłady z deepem, bo to nie chodzi o samą technologię, tylko o kolejne levele, na które można z tym wejść. Zresztą w branży ludziki nadal nie czają tej prostej idei i nie chce im się np. w nuku niebieskich węzełków (nomen omen) zgłębiać. A i nie było łatwo do tej pory. Piszesz, że wszędzie można było renderować, a sam przecież uczestniczyłeś aktywnie w wątku u sidefx-ów dotyczącym Cortexa i DTEX-a, bo nuke tylko to czytał, a dopiero od Nuke 7 jest obsługa OpenExr 2.0. Zresztą exr to dobra analogia, bo też dużo się o tym trąbiło, ale i tak wszyscy jechali na płaskich plikach, a na wielokanałowe exr-y patrzyło się jak na czarną magię. Czyż nie? :) Ale tekst o deep compositingu w tej notce pixarowej to faktycznie ma się tak do istoty sprawy jak deep throat mniej więcej.

A Pixar jak widać leje na wszystkich.

Edytowane przez Rotomonks
Odnośnik do komentarza
Udostępnij na innych stronach

Symek, dwa lata temu to wszyscy może zaczęli tego używać, ale na siggraphie 2012 nadal to był mega hot topic i wszystkie duże studia pokazywały przykłady z deepem, bo to nie chodzi o samą technologię, tylko o kolejne levele, na które można z tym wejść.

 

Uśmiechnąłem się na tekst o nowince, która zwiększa wrażenie głębi u widza :). Ani to nowinka, ani głębia u widza. Tylko tyle.

 

Zresztą w branży ludziki nadal nie czają tej prostej idei i nie chce im się np. w nuku niebieskich węzełków (nomen omen) zgłębiać. A i nie było łatwo do tej pory. Piszesz, że wszędzie można było renderować, a sam przecież uczestniczyłeś aktywnie w wątku u sidefx-ów dotyczącym Cortexa i DTEX-a, bo nuke tylko to czytał, a dopiero od Nuke 7 jest obsługa OpenExr 2.0.

 

Owszem, bo w większości przypadków nie jest potrzebne, za to bardzo obciążające. Wątek Cortexa dotyczył konwersji Rat do Dtex, aby komponować w Nuke'u, czyli ktoś to musiał renderować :) (ale komponować mógł tylko w Houdinim, o ile nie napisał sobie własnego pluga, co wielu zrobiło).

 

Zresztą exr to dobra analogia, bo też dużo się o tym trąbiło, ale i tak wszyscy jechali na płaskich plikach, a na wielokanałowe exr-y patrzyło się jak na czarną magię. Czyż nie? :).

 

No, nie chcę się spierać, ale generalnie nie :), nie wszyscy, tylko Ci, którzy nie mogli, bo Maya (bez rendermana), XSI, nie wspominając Maxa, mają solidne wsparcie dla deep rasterów od skandalicznie niedawna. :)

 

 

pozdro,

skk.

 

ps tak sobie piszę trochę dla sportu ;)

Odnośnik do komentarza
Udostępnij na innych stronach

Uśmiechnąłem się na tekst o nowince, która zwiększa wrażenie głębi u widza :). Ani to nowinka, ani głębia u widza. Tylko tyle.

Wiem wiem, mnie to też rozbawiło. A Głębia dobry film, też z wodą. :)

Ja się generalnie nie sprzeczam, po prostu trochę ubolewam, że takie rzeczy wchodzą dość ślamazarnie do powszechnego użytku. A wątek rat->DTEX śledziłem i chwała Ci za to co tam pisałeś, bo jednak wolę Nuka od COPsów. :)

Odnośnik do komentarza
Udostępnij na innych stronach

Drobny update. Widziałem ten film na FMX i totalnie mi się nie podobał. Technicznie wyżyny, ktoś zainteresowany oświetleniem, renderingiem pewnie doceni stronę warsztatową, natomiast cała reszta leży i kwiczy. Historia przede wszystkim. Ładnie wyrenderowane g... Pewnie niedługo będzie można zobaczyć w necie.

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności