CzAk1 Napisano 7 Styczeń 2013 Napisano 7 Styczeń 2013 (edytowane) Pomiędzy kroplami deszczu w rozśpiewanym mieście, dwie parasolki - jedna niebieska, jedna nie - zapadają w wielką miłość. Pełna treść wiadomości znajduje się na stronie głównej serwisu pod adresem: http://www.max3d.pl/news.php?id=2739 Edytowane 7 Styczeń 2013 przez CzAk1
narwik Napisano 7 Styczeń 2013 Napisano 7 Styczeń 2013 Świetnie wygląda oświetlenie kropel na niebieskiej parasolce, ale 20-30hrs na klatkę to już rozpusta.
olaf Napisano 7 Styczeń 2013 Napisano 7 Styczeń 2013 Jedziemy kolejke jak wyrenderuje się klatka. A nie bez sensu...
SYmek Napisano 7 Styczeń 2013 Napisano 7 Styczeń 2013 Oprócz tego przetestowano również technikę o nazwie "deep compositing", która daje twórcom lepszą kontrolę nad wyglądem filmu, a widzom wrażenie większej głębi. Cały pomysł na fotorealizm, żeby ratować prmana przed Arnoldem jest zabawny, ale powyższe zdanie to po prostu komedia.
dziadek3D Napisano 7 Styczeń 2013 Napisano 7 Styczeń 2013 marketingowcy od filmu zaczynają już gadać jak Gomułka onego czasu.... może 56-ty już blisko....:))))))))))
ptaszek Napisano 7 Styczeń 2013 Napisano 7 Styczeń 2013 Ja tam w tej animacji nic takiego wypas nie widze niestety.. a 30h na ramke to chyba na core 2 duo :/
czaps Napisano 7 Styczeń 2013 Napisano 7 Styczeń 2013 Zgadzam się z Ptaszkiem . 30 H na klatke to hmm troszkę antyreklama nawet dla Pixara... pozdro czaps
Traitor Napisano 7 Styczeń 2013 Napisano 7 Styczeń 2013 Jak dla mnie to jakis bełkot marketingowy. Klatka ladna, ale to nadal stylizacja odbiegajaca od realizmu. Jak by ktos w robocie takie cos liczyl 30 godzin, to by zostal wywalony na kopach:) "deep compositing" - DOFa odkryli?;)
Nezumi Napisano 8 Styczeń 2013 Napisano 8 Styczeń 2013 (edytowane) Liczyli 30 godzin na klatke, zeby osiagnac super-duper-mega-wypas realizm (ktorego nie widac ale moze trzeba miec super nowoczesne gogle jakies) a potem dodali na to wszystko buzki jak z czasow pierwszych myszek Mickey? :/ Edytowane 8 Styczeń 2013 przez Nezumi
CzAk1 Napisano 8 Styczeń 2013 Autor Napisano 8 Styczeń 2013 (edytowane) Zaktualizowałem wiadomość. Edytowane 8 Styczeń 2013 przez CzAk1
olaf Napisano 8 Styczeń 2013 Napisano 8 Styczeń 2013 Zaktualizowałem wiadomość. nom, wyrenderowala sie kolejna klatka :D
ttaaddeekk Napisano 8 Styczeń 2013 Napisano 8 Styczeń 2013 mozna tez deep compositing wykorzystac przy polskich filmach fabularnych, im tez przydala by sie wieksza glebia ;)
norden Napisano 8 Styczeń 2013 Napisano 8 Styczeń 2013 Bedzie bardzo ciezko sie identyfikowac z glownymi bohaterami cos czuje.
SYmek Napisano 8 Styczeń 2013 Napisano 8 Styczeń 2013 Tak po prawdzie, to zdziwilibyście się, ile liczą się Wasze klatki (w każdym razie powstające w studio na farmie), kiedy policzy się ich całkowity koszty cpu ( czyli czas renderu razy ilość corów) zsumowane dla każdej warstwy finalnego obrazka - bo takiej miary używa profesjonalny render wrangler (czasami normalizuje się ten wynik także dla 1Ghz, kiedy na farmie są maszyny różnej generacji). To jest jedyna miara, które daje jakiś ogląd sytuacji. Jeśli klatka HD reklamy liczy się 40 minut na pierwszy plan + 15 minut na drugi lub na dymiki/efekty na standardowej 8 rdzeniowej maszynie, to już mamy 7 godzin... ta-daa..!
dziadek3D Napisano 8 Styczeń 2013 Napisano 8 Styczeń 2013 mnie się w tej chwili renderuje najcięższa klatka w filmie....10 min 05 sek... i nie mam żadnej farmy....:))) tylko scyzoryk i5
Lis Napisano 8 Styczeń 2013 Napisano 8 Styczeń 2013 Tylko że dziadku, twoich klatek nikt nie chce oglądać.
olaf Napisano 8 Styczeń 2013 Napisano 8 Styczeń 2013 Nie ma co gadac, jutro jak pokaza nastepną klatkę będzie mozna przeanalizować całość na dłuższej 3-klatkowej sekwencji :P
CzAk1 Napisano 8 Styczeń 2013 Autor Napisano 8 Styczeń 2013 Straszny spam tutaj odchodzi. Jak nie macie nic do napisania na temat to prosiłbym o nie zaśmiecanie wątku. Tak ogólnie to jesteście też niesamowicie rozeznani w temacie po obejrzeniu 30 sekundowego klipa. Przy okazji...w Transformersach 2 czas renderingu dochodził do 36 godzin. A tam przecież ledwo jakieś parę planów, śrubek i kółek do wklejenia na taśmę filmową. W Transformersach 3 ponoć było jeszcze gorzej...
dziadek3D Napisano 8 Styczeń 2013 Napisano 8 Styczeń 2013 @Lis... a co nie oglądałeś...:))) Madagaskar liniowo liczyłby się 7200 lat... to dużo czy mało...???.. za chwilę będzie jak z telewizorami i telefonami nie ważne jaki prezentują obraz... ważniejsza jest ich grubość....:))). Marketing robi z Wami co chce... pobudka...!!!... czas przestać być robotem...:)))
CzAk1 Napisano 8 Styczeń 2013 Autor Napisano 8 Styczeń 2013 Marketing tu nie ma nic do rzeczy. Chodzi o technologię i możliwości jakie daje.
narwik Napisano 8 Styczeń 2013 Napisano 8 Styczeń 2013 SYmek, to jest ciekawe co napisałeś. Przy takiej interpretacji, 20-30 GHz*hr wydaje się dosyć szczupłym budżetem. Lis, daruj sobie osobiste wycieczki.
Traitor Napisano 8 Styczeń 2013 Napisano 8 Styczeń 2013 Stephen King od jakiegos czasu stosuje taktyke na ilosc kartek a nie jakosc ksiazki:)
dziadek3D Napisano 8 Styczeń 2013 Napisano 8 Styczeń 2013 jak nie widać i nie słychać... to gdzie ta technologia.... w tym wątku jest tekst marketingowy i materiały z których wiele nie wynika.... bicie piany przed kupieniem piwa... i to jest właśnie marketing.... bogatego stać żeby w byle tyłek wbić trzy pawie pióra i wmawiać że ma pawia.... i co najgorsze.... to działa....:)))
CzAk1 Napisano 8 Styczeń 2013 Autor Napisano 8 Styczeń 2013 Tekst marketingowy, a tekst informacyjny to odrębne gatunki dziennikarskie. Nie myl ich ze sobą.
dziadek3D Napisano 8 Styczeń 2013 Napisano 8 Styczeń 2013 nie ma tekstów informacyjnych nie marketingowych... obudź się....!!!!..... żyjesz w Matrixie...:)))
legomir Napisano 8 Styczeń 2013 Napisano 8 Styczeń 2013 dziadku to powiedz mi czym się różni micropologon od większości ray-trace rendererów. I czy realistyczne GI i path tracing jest możliwy w rendermanie a możemy rozpocząć jako taką dyskusje. W zasadzie shortach pixara czasem historia jest dodatkiem do pewnego zadania technicznego i to może być imponujące, że chce sie im zrobić nie jakieś suche techniczne demo ale animacje, którą może oglądać wielu a potem papierki, które mogą przeczytać wybrani, którzy chcą. Takie jest moje zdanie na temat tego shorta.
Lucek Napisano 8 Styczeń 2013 Napisano 8 Styczeń 2013 Może mi ktoś objaśnić sytuację? Rozumiem że takie kadry jak ten wrzucony przez Czakiego liczą się 30 ghzhour czy jak to tam mówią na płatnych farmach. Pomijając te komiczne buźki to chyba nie jest taki zły wynik? A ten deep compositing to jest coś nowego poza nazwą? wiadomo coś?
CzAk1 Napisano 8 Styczeń 2013 Autor Napisano 8 Styczeń 2013 Deep compositing jest dla mnie trochę enigmatyczne. Ogólnie z tego co znalazłem, to chodzi o umieszczanie elementów filmu na warstwach, w stos...z wykorzystaniem przestrzennych danych zamiast dwuwymiarowych. :F Myślę, że to jakiś sposób kompozycji, ale zamiast płaskich materiałów i nagrań, wykorzystuje się albo...hmm, materiały przestrzenne... <.>
legomir Napisano 8 Styczeń 2013 Napisano 8 Styczeń 2013 Na szybko znalazłem tylko to: http://www.deepimg.com/examples/ i inf, że wypuszczono tą opcje w rendermanie pro server 16.0
Lucek Napisano 8 Styczeń 2013 Napisano 8 Styczeń 2013 Kompozycja przed renderem;) ? Tylko Pixary to wiedzą;) legomir: No i okazuje się że nie jest to takie śmieszne;) Ciekawe, ale chciałbym zobaczyc jak wygląda w praktycznej pracy;)
legomir Napisano 8 Styczeń 2013 Napisano 8 Styczeń 2013 Z tego co się orientuje to mantra wykorzystuje dane deep do microvoxel renderingu? SYmku może to objaśnim nam trochę ;) Chyba render wypuszcza w buforze dane dotyczące głębokości danego Pixela w przestrzeni, więc pixel ma de facto dane X,Y,Z. Jest to chyba bardziej wygodne od position passa i w zasadzie można na tym oprzeć relighting np. Ale snuje przypuszczenia, więc nie wiem na ile to wiarygodne.
dziadek3D Napisano 8 Styczeń 2013 Napisano 8 Styczeń 2013 @legomir... skończ ten bełkot....!!!... załóżmy, że jesteśmy tu w trójkę Pixar, Ty i ja.... otwieramy karty... i co widzimy.... no słyszymy tylko bełkot niepełnionego materialnie.... no i mój rechot... Pixar Ciebie i mnie nie zauważy....:))))))))))))
ttaaddeekk Napisano 8 Styczeń 2013 Napisano 8 Styczeń 2013 legomir-wypuszcza glebokosc pixela w kadrze, podobnie jak zetka. dodatkowo jezeli pixel jest polprzezroczysty to wypuszcza glebokosc nastepnego pixel i tak dalej. co daje nam mozliwosc kontolowac glebie w ktorej dany obiekt sie znajduje bez martwienia sie o AA. mozemy np ustawic cos za danym obiektem bez wypluwania masek. mozemy wkomponowac w chmury samolot bez najmniejszego problemu. Niby nic ale stwarza to ogromne mozliwosci przy np nieliniowej pracy nad projektem, gdzie mozemy doliczyc cos bez obawy ze black hole (mate) nie bedzie pasowal. Badz rozdzielic prace na pare osob. Nie wiem tylko jak to wychodzi w praktyce bo juz kolor nastepnego pixela nie jest przechwycony. a testowalem tylko w nuku bo zaden renderer dla plebsu tego nie wypluwa. dziadek, sio- ta dyskusia Ciebie nie dotyczy :) to rozmowa podlotkow ktorzy (jakby to powiedzeic w dziadkowym jezyku) ucza sie dobrze mieszac farby :) czirs 1
legomir Napisano 8 Styczeń 2013 Napisano 8 Styczeń 2013 Dzięki za wyjaśnienie. Przy samym renderingu deep data przydają sie do czegoś?
Nezumi Napisano 8 Styczeń 2013 Napisano 8 Styczeń 2013 (edytowane) No, jako tech demo to spoko - zwyczajnie durnowaty kawalek pokazali bo z tego co widze na sceenie nizej (tym z ludzmi i ulica) to juz konkretniej jest. Tylko niech juz zacznie sie dziac cos konkretnego w animacjach 3D bo chocby z mega technologia to na sequel sequela do prequela do drugiej czesci znanego filmu nie chce sie chodzic do kina. Edytowane 8 Styczeń 2013 przez Nezumi
ttaaddeekk Napisano 8 Styczeń 2013 Napisano 8 Styczeń 2013 Dzięki za wyjaśnienie. Przy samym renderingu deep data przydają sie do czegoś? o ile sie orientuje to nie. co innego deep shadow, ktory dziala na bardzo podobnej zasadzie, tylko ze na cieniach, cien udeze w polprzezroczysty pixel i czesc jego leci dalej.
Bilay Napisano 9 Styczeń 2013 Napisano 9 Styczeń 2013 Nie wiem co pixar próbuje przeforsować i szczerze "wisi-mi-to" ale world space coordinate passy już "dobry" czas goszczą pod strzechami. Dla chcących się dokształcić polecam jeden z epizodów fxguide >>> http://www.fxguide.com/fxguidetv/fxguide-125-anonymous/ A dla zielonych link do tutka >>> http://www.disopolis.com/wordpress/2012/xyzwpp-pass-tutorial/ 1
Pionier Napisano 9 Styczeń 2013 Napisano 9 Styczeń 2013 Deep compositing jest dla mnie trochę enigmatyczne. Ogólnie z tego co znalazłem, to chodzi o umieszczanie elementów filmu na warstwach, w stos...z wykorzystaniem przestrzennych danych zamiast dwuwymiarowych. :F Myślę, że to jakiś sposób kompozycji, ale zamiast płaskich materiałów i nagrań, wykorzystuje się albo...hmm, materiały przestrzenne... <.> poza tym co napisal tadek, deep compositing w akcji mozna obejrzec tutaj:
SYmek Napisano 9 Styczeń 2013 Napisano 9 Styczeń 2013 (edytowane) No i okazuje się że nie jest to takie śmieszne;) Ciekawe, ale chciałbym zobaczyc jak wygląda w praktycznej pracy;) Deep compositing nie jest śmieszny, jest genialny! Śmieszne jest reklamowane tego w 2013 roku jako testowanie nowej technologii, która daje widzom wrażenie większej głęb (!!!)i. Przecież ich własny PRman wypluwa pliki typy deep od jakiś 5 lat, podobnie jak Mantra Houdiniego, a nawet Vray od jakiegoś czasu. Pół Avatara zrobiono tą metodą i kilka innych filmów. Pliku typu deep zachowują wszystkie sample, które posiada renderer w trakcie liczenia, czyli nie są to jakieś nowe dane, ale dokładnie te same, których używa renderer kiedy komponuje finalny obraz z sampli rozrzuconych z przestrzeni. (pro forma: sample to miejsca w które trafił promień i dla których wykonał się już shader przypisany do danej powierzchni) Te sample nie są w jednej płaszczyźnie (płaszczyźnie poligona), bo niektóre promienie, szczególnie na krawędziach obiektu, nie trafiają w niego (albo przechodzą przez obiekt, jak w przypadku dymu), więc za finalny kolor pixela odpowiada chmura punktów rozrzucone nie tylko na szerokość i długość pixela, ale również w głąb. Tylko w ten sposób renderer może poprawnie skomponować finalny obraz i wygładzić krawędzie różnych obiektów. Właśnie dlatego, że plik finalny (jpeg/png/exr) zostaje "spłaszczony" programy kompozycyjne nie są w stanie wykonać pewnych operacji, DOF w post-produkcji wygląda fatalnie, komponowanie włosów to koszmar, wkładanie czegoś w dym wymaga rysowanie ręcznie masek. Dzięki plikom deep wszystkie te problemy znikają. Możecie policzyć płonący obiekt oddzielnie od ognia i spokojnie go z nim skomponować. Jest to zaawansowana kompozycja wykorzystaniem kanału głębi (możne też passy oddalać od kamery, przenikać ze sobą obiekty w osi Z bez błędów na krawędziach). Ta elastyczność okupiona jest rozmiarem plików, który dla klatki HD z łatwością przekracza gigabajt (deep pixels w half float i kilka deep rasterów). Jedna sekwencja w filmie może zająć terabajt i więcej. Dlatego zaleca się składanie w ten sposób tylko trudnych ujęć. Jakby nie było deep compositing to był hot topic dwa lata temu, bo wszyscy zaczęli tego używać, więc wiele do testowania tutaj nie ma. pozdrawiam, skk. [edit] Nie wiem tylko jak to wychodzi w praktyce bo juz kolor nastepnego pixela nie jest przechwycony. Przechowywane są wszystkie wartości dla wszystkich pixeli w wszystkich deep plane'ach - czyli każdy pixel ma kilka kolorów w głąb. To, o czym wspominasz (dopiero teraz doczytałem wszystkie posty, sorry za powtarzanie po Tobie), czyli zapis tylko kilku wartości z-etki dotyczy maxowego RPFa o ile się nie mylę... a testowalem tylko w nuku bo zaden renderer dla plebsu tego nie wypluwa. ? Edytowane 9 Styczeń 2013 przez SYmek 1
Rotomonks Napisano 9 Styczeń 2013 Napisano 9 Styczeń 2013 (edytowane) Symek, dwa lata temu to wszyscy może zaczęli tego używać, ale na siggraphie 2012 nadal to był mega hot topic i wszystkie duże studia pokazywały przykłady z deepem, bo to nie chodzi o samą technologię, tylko o kolejne levele, na które można z tym wejść. Zresztą w branży ludziki nadal nie czają tej prostej idei i nie chce im się np. w nuku niebieskich węzełków (nomen omen) zgłębiać. A i nie było łatwo do tej pory. Piszesz, że wszędzie można było renderować, a sam przecież uczestniczyłeś aktywnie w wątku u sidefx-ów dotyczącym Cortexa i DTEX-a, bo nuke tylko to czytał, a dopiero od Nuke 7 jest obsługa OpenExr 2.0. Zresztą exr to dobra analogia, bo też dużo się o tym trąbiło, ale i tak wszyscy jechali na płaskich plikach, a na wielokanałowe exr-y patrzyło się jak na czarną magię. Czyż nie? :) Ale tekst o deep compositingu w tej notce pixarowej to faktycznie ma się tak do istoty sprawy jak deep throat mniej więcej. A Pixar jak widać leje na wszystkich. Edytowane 9 Styczeń 2013 przez Rotomonks
SYmek Napisano 10 Styczeń 2013 Napisano 10 Styczeń 2013 Symek, dwa lata temu to wszyscy może zaczęli tego używać, ale na siggraphie 2012 nadal to był mega hot topic i wszystkie duże studia pokazywały przykłady z deepem, bo to nie chodzi o samą technologię, tylko o kolejne levele, na które można z tym wejść. Uśmiechnąłem się na tekst o nowince, która zwiększa wrażenie głębi u widza :). Ani to nowinka, ani głębia u widza. Tylko tyle. Zresztą w branży ludziki nadal nie czają tej prostej idei i nie chce im się np. w nuku niebieskich węzełków (nomen omen) zgłębiać. A i nie było łatwo do tej pory. Piszesz, że wszędzie można było renderować, a sam przecież uczestniczyłeś aktywnie w wątku u sidefx-ów dotyczącym Cortexa i DTEX-a, bo nuke tylko to czytał, a dopiero od Nuke 7 jest obsługa OpenExr 2.0. Owszem, bo w większości przypadków nie jest potrzebne, za to bardzo obciążające. Wątek Cortexa dotyczył konwersji Rat do Dtex, aby komponować w Nuke'u, czyli ktoś to musiał renderować :) (ale komponować mógł tylko w Houdinim, o ile nie napisał sobie własnego pluga, co wielu zrobiło). Zresztą exr to dobra analogia, bo też dużo się o tym trąbiło, ale i tak wszyscy jechali na płaskich plikach, a na wielokanałowe exr-y patrzyło się jak na czarną magię. Czyż nie? :). No, nie chcę się spierać, ale generalnie nie :), nie wszyscy, tylko Ci, którzy nie mogli, bo Maya (bez rendermana), XSI, nie wspominając Maxa, mają solidne wsparcie dla deep rasterów od skandalicznie niedawna. :) pozdro, skk. ps tak sobie piszę trochę dla sportu ;)
Rotomonks Napisano 10 Styczeń 2013 Napisano 10 Styczeń 2013 Uśmiechnąłem się na tekst o nowince, która zwiększa wrażenie głębi u widza :). Ani to nowinka, ani głębia u widza. Tylko tyle. Wiem wiem, mnie to też rozbawiło. A Głębia dobry film, też z wodą. :) Ja się generalnie nie sprzeczam, po prostu trochę ubolewam, że takie rzeczy wchodzą dość ślamazarnie do powszechnego użytku. A wątek rat->DTEX śledziłem i chwała Ci za to co tam pisałeś, bo jednak wolę Nuka od COPsów. :)
SYmek Napisano 10 Styczeń 2013 Napisano 10 Styczeń 2013 bo jednak wolę Nuka od COPsów. :) http://code.google.com/p/rat4nuke ja też :)
deshu Napisano 11 Styczeń 2013 Napisano 11 Styczeń 2013 A dla zielonych link do tutka >>> http://www.disopolis.com/wordpress/2012/xyzwpp-pass-tutorial/ Ten link to niezbyt aktualny, bo od SP5 jest SamplerInfo pass, rednerujący ppp.
Rotomonks Napisano 29 Kwiecień 2013 Napisano 29 Kwiecień 2013 Drobny update. Widziałem ten film na FMX i totalnie mi się nie podobał. Technicznie wyżyny, ktoś zainteresowany oświetleniem, renderingiem pewnie doceni stronę warsztatową, natomiast cała reszta leży i kwiczy. Historia przede wszystkim. Ładnie wyrenderowane g... Pewnie niedługo będzie można zobaczyć w necie.
Rekomendowane odpowiedzi
Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto
Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.
Zarejestruj nowe konto
Załóż nowe konto. To bardzo proste!
Zarejestruj sięZaloguj się
Posiadasz już konto? Zaloguj się poniżej.
Zaloguj się