Skocz do zawartości

Animacja i composting - kilka pytan


Rekomendowane odpowiedzi

Napisano

Czesc wszystkim!

Dawno tu nie zagladalem. Ostatnio postanowilem wrocic do tego co mnie najbardziej interesuje, czyli 3D maxa, i stworzyc shorta "troche" bardziej skomplikowanego, niz ten sprzed kilku lat (moze niektorzy pamietaja ;) How Vader Lost His Hand). Troche potrwa zanim przysiade do wytezonej pracy przy tym projekcie, ale jako ze jestem w fazie napisanego scenariusza, zaczetego storyboardu i praktycznie skonczonych concept artow, uzbrajam sie w teoretyczna wiedze, zeby wykorzystac maksymalnie wydajnie czas spedzony przy komputerze. Mam kilka pytan a propos maxa, compositingu i ogolnie zoorganizowania sobie pracy. Mam dostep do licencjonowanego Maxa 5.1 SP1 wiec pytania raczej dotycza tej wersji, chociaz pewnie zbyt duzych roznic nie bedzie w stosunku do nowych wersji.

 

1. Czy mozna "skonfigurowac" prosty obiekt typu Cylinder, aby byl swiatlem? Chodzi mi o to zeby oswietlal scene cala swoja powierzchnia. Swiatla typu Omni swieca z jednego punktu i niezbyt mi to odpowiada. Polowiczne rozwiazania typu self ilumination danego obiektu na max i rzad swiatel przy nim nie zabardzo mi odpowiadaja....

2. Mam w jednym pliku .max zaanimowany obiekt. Dla uproszczenia przyjmijmy ze jest to poruszający skrzydłami ptak lub idacy czlowiek (jedno poruszenie skrzydel lub jeden krok). Po zaimportowaniu go do glownej sceny, ktora bedzie renderowana, chcialbym, aby ten ruch skrzydel czy tez nog byl zapetlony. Czy da sie jakos ustawic loop? I jesli tak jak to zrobic?

 

Teraz troche z compositingu i organizacji pracy.

3. Czy aby dodac DOF (depth of field) wystarczy ze bede renderowal zwyczajne klatki + pliki z z-depth (2 pliki na klatke)? I tu jeszcze jedno pytanie, czy pliki z-depth moga byc gifami lub jpg? Same "glowne" klatki nieskompresowane beda sporo zajmowac, wiec fajnie by bylo zaoszczedzic troche miejsca chociaz na tych plikach z z-depth.

4. W jednej ze scen bohaterowie rozmawiaja przy oknie. Obraz za oknem bede chcial "dostawic" w programie do kompozycji. Jak przygotowac scene do renderingu, aby najlatwiej pozniej dostawic widok za oknem? Wykorzystac alpha channel dla przezroczystosci (to co za oknem) czy zrobic niebieskie tlo za oknem? Czy jeszcze jakos inaczej?

5. Jedyny compositing jaki bede robil to rzeczy opisane w powyzszych punktach + ewentualne zmiany kolorow, jasnosci, kontrastu itd, czyli nic skomplikowanego. Nie wiem czy wybrac Combustion czy adobe affter effect? W ktorym z nich bedzie mi latwiej i szybciej dodac DOF itd. Aha, znam dosc dobrze Premiere, czy bede go potrzebowal do zmontowania scen w ostateczna wersje filmu? Czy combustion i after effect w zupelnosci do tego wystarcza?

6. Combustion/affter effect/premiere, czy wersje demonstracyjne tych programow posiadaja wszsytkie opcje pelnych produktow i sa ograniczone jedynie 30 dniami "uzywalnosci"?

 

Uh, troche tego wyszlo :O

Z gory dzieki za wszelka pomoc!

 

Goraco pozdrawiam,

Kalais

  • Odpowiedzi 18
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

Top Posters In This Topic

Napisano

1. Tak da się ale robi się to zależnie od renderera.

3. Wydaje mi się że jeżeli pojedyncze klatki będą eksportowane np. do tiffa toz-depth będzie na osobnym kanale (jak alpha)

4. Kanal alpha jest niezłym rozwiązaniem jeżeli będą widoczne odbicia. Ale wtedy za oknem daj chociaż podobny kolor do tla które dostawisz.

5. After Effects powinno wystarczyc. Robiłbym wszystko w jednym środowisku a combustion nie znam

6. Chyba tak. nie wiem jak z combustion

Napisano

1. zazwyczaj sluzy do tego odpowiedni material, ktory nalozysz na obiekt

2. W curve editorze wybierasz sciezke ktora ma sie loopowac i wybierasz: controller>out of range types > loop

3. moga spokojnie byc jpegami tylko oczywiscie za bardzo ich nie przekompresuj

4. nie rob zadnej imitacji bluescreen tylko ustaw tak alpha channel zeby wszystko za oknem bylo czarne a reszta biała

5.jesli znasz premiere to pewnie latwiej bedzie CI w afterfx

6.produkty adobe maja 30dniowy okres testowy, w ktorego czasie dostepne sa wszystkie opcje (rowniez zapisu)

 

ahoj

Napisano

halo, halo!

 

Z-depth channel NIE może być jpegiem, bo powinien mieć 32 bity - jeśli jego wartości mają odpowiadać scenie. Także zakres możliwych odległości, jakie może przybrać z-depth w 8 bitach wydaje się trochę za mały... będziesz miał wszędzie brzydkie artefakty, gradienty itp.

Może w renderze do internetu to przejdzie, ale nie w porządnej jakości animacji.

 

Pomijam już sprawę, że dobry DOF można dodać w kompozycji tylko w przypadku niektórych ujęć. Dużo nachodzących na siebie obiektów nigdy nie będzie wyglądać dobrze. 2-3 wyraźnie oddzielone od siebie plany. To się uda.

 

pozdr.,

 

PS poszukaj wątku na temat książki "Cyfrowe oświetlenie i rendering" i może zainwestuj trochę grosza w tę lekturę zanim zaczniesz film. Zaoszczędzisz sobie trochę stresów.

Powodzenia.

 

EDIT;

http://www.max3d.pl/forum/showthread.php?t=41835

Napisano

kamil.ochel, .jacek, SYmek - dzieki za szybkie odpowiedzi!

 

ta ksiazka rzeczywiscie wydaje sie interesujaca

 

co do moich pytan:

1. w scanline sie da cos takiego zrobic? z tym materialem to rozumiem ze przy GI moze odpowiednio mocno odbijac swiatlo... ale jesli chce renderowac bez GI to da sie jakos to zrobic? sam material nie ma chyba wlasciwosci oswietlania sceny?

 

3. pojawily sie rozne odpowiedzi, wiec nie jestem pewien kto ma racje :P ogolnie DOF bede uzywal wlasnie tylko do oddzielenia planow, a ten dodawany w programie do kompozycji wydaje mi sie szybszy. Rendery z dofem w maxie strasznie dlugo u mnie sie licza

 

4. czyli po prostu renderowac tiffy z kanalem alpha? (.tiff ma kanal alhpa? , czy do odzielnego pliku musze renderowac alphe?) tam gdzie bedzie okno automatycznie zapisze sie przezroczystosc i program do compositingu bedzie widzial ta "dziure"? Pod warstwe z tifami wloze warstwe z widokiem za oknem i osiagne zamierzony efekt. Tak to powinno wygladac?

 

Pozdrawiam!

Napisano
1. w scanline sie da cos takiego zrobic? z tym materialem to rozumiem ze przy GI moze odpowiednio mocno odbijac swiatlo... ale jesli chce renderowac bez GI to da sie jakos to zrobic? sam material nie ma chyba wlasciwosci oswietlania sceny?

 

Takie rzeczy da się robić tylko za pomocą GI czy fotonów. Nie wiem, co potrafi scanline w Maxie, ale mam przeczucie, że tego nie potrafi.

 

3. pojawily sie rozne odpowiedzi, wiec nie jestem pewien kto ma racje :P ogolnie DOF bede uzywal wlasnie tylko do oddzielenia planow, a ten dodawany w programie do kompozycji wydaje mi sie szybszy. Rendery z dofem w maxie strasznie dlugo u mnie sie licza

 

DOF postprodukcyjny rzeczywiście jest dużo szybszy. Mówiłem tylko, że jego użyteczność jest ograniczona. Niektóre ujęcia wyglądają dobrze, inne źle. A jeszcze inne bardzo źle.

 

A co do racji, to sam się przekonasz...

 

Może sprawdź, czy nie mógłbyś swojego filmu zrobić na 3delight lub innym "mikropoligonie" - znacznie lepiej sprawdzają się przy animacji. DOF, motion blur, AA, filtrowanie tekstur - wszystko szybciej i ładniej. Tylko trochę się napracujesz na początku nad setupem i shaderami. Mówiąc inaczej, ja bym tak na pewno zrobił. Poszukałbym darmowego renderera, który napisano do pracy przy animacji i filmach a nie zabawkę.

 

4. czyli po prostu renderowac tiffy z kanalem alpha? (.tiff ma kanal alhpa? , czy do odzielnego pliku musze renderowac alphe?) tam gdzie bedzie okno automatycznie zapisze sie przezroczystosc i program do compositingu bedzie widzial ta "dziure"? Pod warstwe z tifami wloze warstwe z widokiem za oknem i osiagne zamierzony efekt. Tak to powinno wygladac?

 

Dokładnie tak jak piszesz. Alfa zostanie zapisana w tiffie. Tiff zapisuje alfę. Nie ma też ograniczeń co do głębi pixela, ilości platów. Możesz mieć w jednym tiffie kilka RGB, potem A, potem Z, i co tam jeszcze Ci potrzeba, w 8, 16 lub 32 bitach. Z kompresją lub bez. Jedynym ograniczeniem jest implementacja tiffa w programie. O Maxie nic w tej sprawie nie wiem...

 

Program kompozycyjny zobaczy tę "dziurę" (dobre! ;) ), o ile alfa będzie pomnożona przez RGB. Pre-multiply to się nazywa. Przy imporcie do AFX masz opcję "Interpret Footage".

 

Powodzienia!

skk.

  • Like 1
Napisano

hej SYmek nie wiedzialem, ze kanal Z powinien byc 32bitowy - czlowiek uczy sie cale zycie;)

 

a co do pytania 1 - wiem, ze w nowyszych wersjach maxa scanline jest troche bardziej robudowany (zbadaj zakladke advanced lighting) - ale nie gwarantuje, ze da rade zrobic to czego szukasz - najlepiej obadac helpa.

 

ahoj

Napisano

oj uczy się, uczy... właśnie próbuję zrozumieć jak policzyć anisotropic specular bez referencji kierunku... no i nie wiem, jak to zrobić... ;)

 

 

Chodzi o to, że 32 bity to float, a tylko we float można zapisać liczbę dowolnej wielkości (no nie dowolnej, ale zostawmy szczegóły). Wyobraź sobie 1000 metrowe boisko, którego głębie zapisano w tylko 256 liczbach. To znaczy, że obiekty stojące o 4 metry od siebie w osi Z będą dla komputera w tym samym miejscu. Tego nie chcemy...

 

Oczywiście w ramach oszczędności można by zapisać Zdepth do 16bit float, ale musiałbyś renderować do OpenEXR albo Houdini PIC...

 

pozdr.,

skk.

Napisano

co to pierwszego pytania to wydaje mi sie ze da sie to jakos zrobic, bo pamietam ze nawet w któryms z maxow byl taki sampel, z oswietleniem generowanym przez obiekty a nie swiatla

 

zaraz spróbuje oblukać

Napisano

Co do zbufera to 16 bit najczęściej wystarcza a i softy do kompo się łatwiej w 16 niż 32 odnajdują. Można do rpf renderować ( o ile max5 obsługuje ), jest jeszcze kodakowy cineon zapisujący w 10 czy 12 bitach.

 

Co do świecenia w scanlinie z maxa 5 - kilka omni podlinkowanych do obiektu - jeśli to miecz świetlny to problem jest banalny, w przypadku bardziej skomplikowanego obiektu są skrypty podpinające światła różnego typu pod werteksy.

Napisano
Co do zbufera to 16 bit najczęściej wystarcza a i softy do kompo się łatwiej w 16 niż 32 odnajdują. Można do rpf renderować ( o ile max5 obsługuje ), jest jeszcze kodakowy cineon zapisujący w 10 czy 12 bitach.

 

Owszem, może i wystarcza o ile zwrócisz uwagę jak Ci się obrazek znormalizuje... ideałem jest 16bit float. Wielkość ta sama, a możliwości jakby więcej ;).

Napisano

Wielkie dzieki za odpowiedzi! :)

 

Co do zbufera to 16 bit najczęściej wystarcza a i softy do kompo się łatwiej w 16 niż 32 odnajdują. Można do rpf renderować ( o ile max5 obsługuje ), jest jeszcze kodakowy cineon zapisujący w 10 czy 12 bitach.
Max 5 obsluguje formaty RPF i RLA. Pogooglowalem chwile i widze, ze chyba warto renderowac w tych formatach ( http://www.fxguide.com/fxtips-114.html ) . Combustion obsluguje te pliki, AfterEffects tez?

 

W mental ray'u bez problemu to zrobisz w scanline chyba się nie da. Problem w tym że w maxie 5 nie ma chyba mental ray'a.
W maxie 5 nie ma mental raya :/

 

Mówiąc inaczej, ja bym tak na pewno zrobił. Poszukałbym darmowego renderera, który napisano do pracy przy animacji i filmach a nie zabawkę.
Szukalem na szybko darmowych renderer'ow, nic nie znalazlem ciekawego, sa ograniczone wersje komercyjnych - brazila np, ale max rozdzialke renderowania ma 512x386...

Jest indigo,ale dziala od max6 w gore...

 

Mysle, ze zostane przy scanline, znalazlem ciekawy free plugin wspolpracujacy ze scanline do tworzenia obiektow swiecacych - Lightmesh. Biglebowsky, pewnie o czyms takim mowiles.

 

Wykorzystuje on taka sztuczke - naklada na kazdy vertex swiatlo, omni lub direct (do wyboru), ustawia kolor swiatel na podstawie tekstur na danym vertexie, koloru difuse materialu i/lub kolorze obiektu i ma sporo ustawien tych swiatel, szybko dziala.

 

Pobawilem sie chwile, mysle ze mozna z niego wyciagnac zadowalajacy efekt do animacji. Na obu obrazkach walec jest jedynym zrodlem swiatla na scenie.

 

lightmeshty7.jpg

 

1. Z uzyciem omni

 

lightmesh2zl8.jpg

 

2. Z uzyciem direct light

Napisano

Tak naprawdę w zabawie z takim światłem nie tyle chodzi o światło ile o cienie. Dopóki nie wykorzystujesz funkcji bsdf, taki walec nie ma wpływy na wygląd Twojej powierzchni, ma wpływ na wygląd cienia, bo de facto renderujesz multum cieni w trybie raytrace (bądź z-depth) - nie wiem, czego używa scanline. W każdym razie, przy kilku takich światłach czasy w Twojej scenie poszybują w niebo, bo obliczenia cieni tym sposobem jest bardzo powolne.... Krótko mówiąc kiepski pomysł...

 

Oświetlenie sceny a "ocienienie" jej to są dwie różne sprawy. Mam wrażenie, że to, co Ci się podoba w tym sposobie to cienie a nie światło. Rozumiem to, bo miękkie cienie są dużo ładniejsze od zwykłych. Nawet jeśli dojdziesz do wniosku, że chcesz swoje cienie generować w ten sposób, to wcale nie znaczy, że powinieneś tak oświetlać scenę.

 

Jeśli znasz dobrze scanline - to pewnie jest to dobry pomysł, żeby przy nim zostać. Prostota bywa atutem. Oczywiście o ile nie będziesz chciał renderować motion bluru, displacementa, DOFa, ciężkich tekstur, nie wspominając o GI ;) (z którego ja na Twoim miejscu bym nie korzystał). Bo wtedy pożałujesz swojej decyzji...

 

Ale gwoli formalności:

 

www.3delight.com - jest darmowy na pojedynczy komputer, REYES.

www.nvidia.com/page/gz_home.html - Gelato, wersja darmowa, REYES wspomagany GPU.

pixie.sourceforge.net - darmowy jak powietrze, REYES.

sunflow.sourceforge.net - nawet bardziej darmowy, raytracer (GI te sprawy).

 

Indigo i tak nie nadaje się do animacji, więc nie ma o czym rozmawiać.

 

www.yafray.org - darmowy, raytracer.

www.sidefx.com - Mantra kosztowałaby Cię razem z programem do animacji 99$. Ale musiałbyś zrezygnować z Maxa..., REYES.

 

do wyboru, do koloru!

 

 

pozdr.,

skk.

Napisano

AE łyka RPF bez problemu, i nawet można tak kamerę zaimportować do aftera.

 

Co do światła to dokładnie takie coś miałem na myśli - takich skryptów było zresztą więcej, efekt bardzo fajny i powinno się liczyć w czasach zadowalających. swoją drogą to był chyba mental na maxa 5, tylko jako osobny plugin - conector. Wtedy jeszcze MR nie stanowił zintegrowanego renderera. Jednak ten wczesny mental pod maxa jest dużo wolniejszy i mniej przyjazny w użytkowaniu niż ten obecny dlatego jak Symek mowi - chyba lepiej zostać przy scanlinie, z którego nadzwyczaj dużo da się wyciągnąć.

Napisano

To wszystko też nabierze większego sensu, jak zrobisz konkretne testy. Bo rozwiązania, które będą pasowały jak ulał w jednym ujęciu, w innym mogą się okazać mocnym niewypałem. Wszystko zależy od scenariusza i tego, co tam się będzie działo/świeciło/animowało.

 

W razie czego śmiało pytaj. Na pewno doradzimy jak najlepiej.

Napisano

Dzieki za jak zawsze profesjonalne i pomocne odpowiedzi! :)

 

SYmek - oczywiscie chodzi o cienie, i nie zamierzam w ten sposob oswietlac calych scen, to tylko pomysl do jednej konkretnej sceny. Jak mowilem wczesniej chce po prostu wszystko miec przygotowane na papierze i od strony teoretycznej, zeby pozniej gdy juz zaczne prace nad animka, nie latac po tutkach i innych, tylko rzemieslniczo wykonywac swoja prace :P

 

Przy maxie i scanline na pewno zostane, mam w nich jako takie doswiadczenie i bardzo mi odpowiada praca w tym srodowisku, DoF dodam w compositingu, GI nie bede uzywal, jedynie symulowal rozlozonymi omni przy obiektach/scianach itp a motion blur - moze gdzies tam w tle sie przewinie. Z doswiadczenia wiem, ze nie zabiera to jakis strasznych ilosci czasu scanlinowi jesli obiekt jest w miare prosty/maly.

 

biglebowsky - i tak wlasnie zrobie, zostaje przy scanline :)

 

Kris_R - dokladnie tak! To tylko jedna scena, gdzie chcialem uzyc obiektu jako zrodla swiatla. Po prostu obmyslam wszystko co i jak ma byc, zanim usiade do maxa. Bede pytal :) Jeszcze troche to potrwa pewnie zanim cos tu trafi, bo wczoraj dodalem jeszcze jedna scene do scenariusza, co wiaze sie z ubraniem tego w slowa w scenopisie, dorysowaniem na papierze nowej lokacji... no i storyboard mi idzie troche powoli... ale coz, tak to jest jak trzeba pracowac, pisac magisterke i takie tam ;)

 

Dzieki za wszelka pomoc!

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności