Skocz do zawartości

Realizacja ujęć efektowych


magdzik

Rekomendowane odpowiedzi

Witam!

 

Powoli próbuję zaznajomić się workflow'em pracy przy kompozycji ujęć efektowych w filmie. Mam bardzo namieszane w głowie stąd proszę o wyjaśnienie kilku kwestii :)

 

1. Załóżmy, że muszę wkomponować postać nagrywaną na greenscreenie w scenografie 3d wygenerowaną w komputerze

- jeżeli owa scenografia będzie zawierała konkretne ruchy kamery to jedynym rozwiązaniem aby wszystko się ze sobą "kleiło" jest użycie systemu motion control przy realizacji ujęć na zielonym tle ?

- jeżeli będzie odwrotnie a więc do zaplanowanych ujęć realnej kamery będe musiał zbudować scenografie 3d wystarczy przesledzić i odwzorować ruch wirtualnej kamery na podstawie realnej ? Jak w tym wypadku powinienem przygotować plan filmowy, do czego służą te czarne kwadraciki/krzyżyki (trackery?) znajdujące się w pewnych odstępach, konieczne jest wykonywanie jakichś pomiarów, zapisanie ustawień kamery ?

Na co jeszcze powinienem zwrócić szczególną uwage?

 

2. Teraz konkretny przypadek :)

Mogę prosić o w miarę szczegółowe wyliczenie kroków jakie powinieniem podjąć przy reazliacji ujęcia w którym będzie konieczność podmiany jakiegoś elementu scenografii na obiekt cyfrowy ? Np. kamera wchodzi (przenika) tyłem z zewnątrz do pomieszczenia przez zamknięte okno a więc trzeba wygenerować cyfrowe okno które zastąpi to realne :)

 

Na koniec chciałbym zapytać czy matchmoving a camera tracking to jest to samo? I jakich programów najczęściej używacie do operacji związanych z kamerami? :)

Jeżeli macie jakieś materiały niekoniecznie tutoriale, ale nagrania video, które prezentują prace supervisiorów i były by pomocne aby zrozumieć to i owo - był bym wdzięczny :) Sorry jeżeli chaotycznie popisałem.

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 23
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

1.

Tak, trackery pomagają (są wręcz wymagane) w odczytaniu ruchu prawdziwej kamery.

Dodatkowo, oprócz spisania parametrów kamery, można nagrać planszę do korekcji zakrzywień obiektywu (krateczka[?]), można też nagrać planszę z bielą i kolorami podstawowymi - idąc tym tropem, można zapisać sobie jak najwięcej danych z planu - np. położenie świateł względem "punktu 0" i ich temperaturę.

Warto też dla spokoju zrobić foto pod HDR.

 

Mam nadzieję że wypowiedzą się tu ludzie z Branży, może to być okazja do podzielenia się cenną wiedzą praktyczną.

Odnośnik do komentarza
Udostępnij na innych stronach

Hmm.. widzisz. Każde ujęcie rozpatruje się dość indywidualnie - pogadamy zatem o tym co tu napisałeś.

 

Green Screen... jeśli kręcisz materiał na greenie ruchomą kamerą, to trackery/markery będą potrzebne. Właśnie po to, żeby później odtworzyć ruch kamery z planu filmowego w 3d. Dzięki temu można do ujęcia dorzucić dowolne elementy 2d/3d i będą siedziały gdzie trzeba. Technik oczywiście jest kilka, markerów też kilka typów. Trochę to kwestia gustu ale nie do końca. Podobnie jest z doborem koloru green czy blue.. niby wsio ryba ale nie do końca :)

Najbardziej powszechne programy, które służą do trackowania (tak - trackowanie i match moving to to samo) to między innymi Boujou, PFtrack, Matchmover.. czasami moduł Maya live daje radę.. maxowego trackera nie polecam - innych osobiście nie znam.

 

Scenariusz z szybą: jeżeli chcesz wlecieć do samochodu czy mieszkania przez zamkniętą szybę, to oczywiście wlatujesz przez otwór i potem wstawiasz szybę cyfrowo. Ale to akurat przypadek szczególny bo przeważnie szyba jest takim płaskim prostokątem.. szyby samochodowe czasami ciut inaczej się traktuje - ale taka okienna to zwykły track 3d - posprodukcyjny corner pin by wystarczył...

 

inny przypadek... filmujesz swój pokój. Masz nakręcone ujęcie. I potem masz ochotę trochę zmienić scenografię. Dodać fotel w kącie, fazon przy oknie, obrazek na ścianie itp.

 

krok 1: wrzucasz ujęcie do jakiegoś trackera (Boujou dajmy na to) - nie potrzebujesz markerów jeśli tło jest wystarczająco bogate i kontrastowe - program sam znajdzie punkty, które nadają się do śledzenia i się do nich przyczepi... z takiego programu dostaniesz w efekcie końcowym wirtualną kamerę, ruszającą się identycznie jak ta, którą kręciłeś ujęcie w pokoju. Eksportujesz do swojej ulubionej aplikacji 3d.

 

krok 2: już w programie 3d dostawiasz elementy, którymi chcesz uzupełnić ujęcie. Można dodawać.. można też odejmować, demolować, wymazywać itp - wiadomo.

 

krok 3: oświetlenie - dobrze jest mieć możliwość pobrania póbki otoczenia (HDRI probe) - dzięki temu można precyzyjnie odwzorować oświetlenie w pokoju w aplikacji 3d. To zaoszczędza sporo czasu i kłopotów - niekiedy jest wręcz niezbędne. Jeśli tego nie masz, technik jest kilka. Robienie zdjęć piłkom pingpongowym lub innym gładkim (najlepiej matowym i szarym) - można później odczytać kierunek i kolor światła w danym punkcie pokoju, analizując zdjęcia. Inne rozwiązanie to oświetlanie "na oko" - też można.

 

krok 4: render passy - renderujesz obraz w kilku przebiegach separując poszczególne właściwości materiałów - przeważnie cienie osobno, refleksy osobno, specular osobno, diffuse osobno, Zdepth osobno.. itp - zależnie od potrzeb w danym ujęciu, silnika renderującego itp.

 

krok 5: złożenie warstw w aplikacji do kompozycji (After FX, Digital Fusion, Nuke... teraz XSI, Maya, Max, Blender i nie wiem co tam jeszcze mają swoje małe moduły do kompositingu i można sobie świetnie tam podziałać jak chodzi o zwykłe składanie warstw. Niektóre scenariusze compositingu bywają jednak dość hardcorowe i wymagają bardzo specjalistycznych narzędzi. Oczywiście na tym etapie też odbywają się korekcje koloru, spasowanie kontrastu, balansu bieli i oczywiście dopasowanie ziarna.. tak aby materiał 3d jak najmocniej się zintegrował z materiałem video.

 

 

Tyle na rozgrzewkę i pobieżnie - temat jest głęboki i szeroki.

Pozdrawiam

  • Like 2
Odnośnik do komentarza
Udostępnij na innych stronach

Niestety nie :p z resztą .. sam doskonale o tym wiesz :)

 

Ale idąc dalej tym tropem - klienci czasami myślą, że to właśnie wszystko samo się dzieje. Jedno kliknięcie i reklama gotowa :) Niestety często bywa tak, że ile ujęć, tyle scenariuszy.. każdy z etapów pracy - czy to będzie kluczowanie z green screena, czy trakowanie kamery w boujou może spędzić sen z powiek.

 

Scenariusz:

 

Wyobraźmy sobie ujęcie efektowe. Aktor uciekający przez las przed goniącym go tygrysem szablozębnym. Ujęcie ma być bardzo dynamiczne.

 

Operator podejmuje decyzję z reżyserem (często już na etapie storyboardu/animatiku - choć zależy od reżysera - niekiedy można poszaleć już na samym planie zdjęciowym - to już zależy od osoby) aby kręcić to z ręki.

 

Na planie aktor ucieka, a operator z kamerą na ramieniu goni go przez las.. zbiegają z górki.. aktor się ogląda za siebie w panice, potyka, łapie równowagę, biegnie dalej.. cięcie.

 

Do zadań zespołu fx należy dodanie goniącego aktora tygrysa.

 

Niby wszystko jasne. Jednak przy takim biegu po nierównym podłożu z górki pojawiają się już na etapie trackowania pewne problemy - bardzo duży motion blur w ujęciu, tracki gubione przez program, przysłaniane przez migające drzewa itp.

Tutaj już na początku nie wystarczy jedno kliknięcie. Konieczny jest tak zwany nadzorowany tracking. Punkt po punkcie pomagamy komputorowi przebrnąć przez trudne momenty, gdy gubi tracking i daje nam nieporządane rezultaty. Proces się wydłuża, potrzeba sporo korekt i cierpliwości.

 

Powiedzmy, że mamy już track, mamy tygrysa, mamy animację tygrysa.. zaczynamy renderować - trzeba odwzorować nierówne podłoże, aby wyłapać na nim cienie od biegnącego tygrysa. Innym problemem jaki się pojawi będzie rotoscoping. To proces polegający na tworzeniu masek dla różnych elementów materiału filmowego. Jeśli chcemy wyciąć postać z zielonego ekranu, sprawa jest zdecydowanie prostsza, niż gdy chcemy wyciąć postać z tła jakim jest las. Obrysowujemy biegnącego aktora klatka po klatce. Na szczęście są na rynku programy wspomagające ten żmudny proces (np. Mocha od Imagineer Systems, czy najnowszy Adobe After FX CS5 i nowy rotoBrush). Postać chcemy oddzielić od tła aby nałożyć na nią oddzielą korekcę kolorów. Dodatkowo wydzielić trzeba będzie niektóre drzewa tak, aby wyrenderowany tygrys mógł przebiec ZA nimi, a nie PRZED. Biegnąc przez las na pewno od czasu do czasu pojawi się drzewo, które będzie chciało przesłonić tygrysa. Możemy to osiągnąć właśnie poprzez wydzielenie takiego drzewa i nałożenie na tygrysa.

 

Mam wrażenie, że cały workflow efektowy może być umiarkowanie łatwy bądź szalenie trudny na każdym z poszczególnych etapów - zależnie od scenariusza i konkretnego ujęcia. Bywa przyjemnie lecz bywa też hardkorowo. Tak czy siak należy spodziewać się niespodzianek na każdym etapie - niewątpliwie ciekawa praca.

 

Bardzo dużo zależy od samego supervisora - każde ujęcie można ugryźć na kilka sposobów. Tu akurat podałem rozwiązanie z tygrysem 3d, ale wiadomo - nie jest to jedyna opcja. Więc ucz się ładnie ucz drogi Magdziku... potrzeba dobrych ludzi od fx w naszym kraju. Najbliższe lata mogą coś pozmieniać w temacie.

 

Pozdrawiam

Odnośnik do komentarza
Udostępnij na innych stronach

Dodam do tego, że później ekipa od vfx jest w napisach końcowych zaraz po Pani Ewie od Kawusi i gromadce pomocników oświetlaczy.

 

A supervisor na planie czas na zrobienie zdjęcia referencyjnego czy HDR ma niecałe 2 min. Bo panowie oświetlacze/aktorzy/masa kręcących się ludzi ma właśnie coś pilnego do zrobienia i patrzą na Ciebie jak na kolesia chcącego pocykać fotosiki z planu, czy ponaklejać sobie te takie śmieszne pomarańczowe kawałeczki taśmy do tego zielonego.

 

Słowem: zlać supervisora, zlać vfx... przecież są komputery i samo się tam to robi!

 

Sorki ale po ostatnim planie i sesji w 2 minutki trochę szlag mnie trafia :]

Odnośnik do komentarza
Udostępnij na innych stronach

Dodam do tego, że później ekipa od vfx jest w napisach końcowych zaraz po Pani Ewie od Kawusi i gromadce pomocników oświetlaczy.

 

A supervisor na planie czas na zrobienie zdjęcia referencyjnego czy HDR ma niecałe 2 min. Bo panowie oświetlacze/aktorzy/masa kręcących się ludzi ma właśnie coś pilnego do zrobienia i patrzą na Ciebie jak na kolesia chcącego pocykać fotosiki z planu, czy ponaklejać sobie te takie śmieszne pomarańczowe kawałeczki taśmy do tego zielonego.

 

Słowem: zlać supervisora, zlać vfx... przecież są komputery i samo się tam to robi!

 

Sorki ale po ostatnim planie i sesji w 2 minutki trochę szlag mnie trafia :]

 

znajomy opowiadał, ze ostatnio udało im się zamieścić zapis w umowie, że "zdjęcia z planu, nie zaakceptowane przez supervisora od VFX będą wyceniane po skońćzeniu prac nad nimi"... coś w tym stylu w każdym razie. I faktycznie, pierwszy raz onsetsupervisor był słuchany na planie i poszło dosyć sprawnie. Finał był taki, że post kosztował troszkę mniej niż w budżecie zapisali...

Odnośnik do komentarza
Udostępnij na innych stronach

no dobra sytuacja nie jest strasznie tragiczna, ale do zdjęć referencyjnych i HDR do reklamy Duracell dostałem jakieś 15 min w przerwie pomiędzy zmianą świateł. Ból był później taki, że HDR nie zawsze nadawało się do świecenia a jedynie do reflectionów a referencje na szczęście udało się obejść do minimum. Chociaż i tak był fuckup z kilkoma rzeczami, których na bank można było uniknąć gdyby supervisor miał więcej czasu na wszystko :]

 

Ot taki polski światek ;)

Odnośnik do komentarza
Udostępnij na innych stronach

Hej panowie mam prośbę.. Piszecie tutaj o programie "3dtrack" chciałem go sobie wypróbować ale za cholerę nie mogę go znaleźć w necie:/

Macie może jakiś link do strony, z której można go ściągnąć?

Odnośnik do komentarza
Udostępnij na innych stronach

Nooo było by fajnie:) Ja ostatnio sprawdzałem voodoo camera tracker ale coś się ślizgał i dlatego szukam dalej czegoś darmowego..

 

Może macie jakieś doświadczenia z tego rodzaju softem? Najlepiej darmowym:D

Odnośnik do komentarza
Udostępnij na innych stronach

Że też zacytuję sam siebie z kilku postów wyżej..

 

"Najbardziej powszechne programy, które służą do trackowania (tak - trackowanie i match moving to to samo) to między innymi Boujou, PFtrack, Matchmover.. czasami moduł Maya live daje radę.. maxowego trackera nie polecam - innych osobiście nie znam"

 

I aktualizacja.. bo pisałem, że innych osobiście nie znam a kłamałem :) Zapomniałem o całkiem mocnym trackerze w NukeX.

Odnośnik do komentarza
Udostępnij na innych stronach

A magdzik założył wątek - zapytał - i zniknął :D

... i wreszcie przypomniał sobie o tym temacie ;D

 

Kris_R: pozwól, że pociągnę Cię za słowo. Pisałeś, że jest kilka typów markerów do trackowania - mógłbyś rozwinąć myśl? Oraz od czego zależy dobór koloru green lub blue tła (zakładając, że na planie nie ma żadnych elementów w tych kolorach) ?

 

Kolejna rzecz, którą pragnę abyś rozwinął: "Niektóre scenariusze compositingu bywają jednak dość hardcorowe i wymagają bardzo specjalistycznych narzędzi." Od czego może zależeć ta 'hardkorowość' ?

 

I dzięki za fajny opis scenariusza z tygrysem :)

Odnośnik do komentarza
Udostępnij na innych stronach

przed wszystkim green powinien być jednolity. to podstawa: im więcej czasu poświęcisz na przygotowanie planu zdjęciowego tym mniej roboty później z kluczowaniem postaci i rotomaskami. gładkie tło powzoli ci praktycznie ładnie i szybko je wyeliminować kilkoma kliknięciami.

 

markery/trackery to zależy: od rozmiarów planu zdjęciowego od defocusa, od kąta padania kamery, od ruchu kamery etc.

 

Ciężko to dzielić ale może jakoś to mi się uda posegregować. Dla nas trakcery to po prostu czasami kawałek taśmy albo nawet daleko rzucona ścierka czy inne syfki ;)

 

duże plastikowe checkery - tam gdzie set jest wielgachny i w kamerze wyjdą jako kilka pikselków w obrazie (z reguły przy dużych produkcjach i ogromnych setach greenowych)

 

średnie czyli np: kontrastowa taśma - u nas z reguły pomarańczowa taśma naklejana w formie krzyża czy prostokąta na green

 

małe - kontrastowe punkty które umieszczasz na bliskim planie (często są to czarne kamyczki lub małe kawałeczki taśmy monterskiej) najczęściej używane przy półzbliżeniach i zbliżeniach a napewno przy małej głębi ostrości.

przyklejane - na greenie

 

perspektywiczne - rozstawia się często tyczki z przyczepionymi trackerami. dzięki temu wiesz jak zmienia się perspektywa podczas jazdy kamery i program może to jakoś odwzorować. bez tego będzie dość ciężko przy jazdach czy kranie.

 

Taki oto nasz prosty set greenowy z "Grunwaldu":

 

green.jpg

 

Są tutaj trackery na greenie w tle, są i tyczki stojące dla perspektywy, a jak widzisz jest jazda kamery w przód i w tył.

 

Zasadniczo ważne jest aby punkt był na tyle wyraźny w kamerze, żeby było go widać potem na klatce przy obróbce i na tyle mały, żeby łatwo go można było potem usunąć. tutaj nie ma złotego środka - praktyka i testy ;) Trackery to tylko dane dla programu trackującego. Trackerem może byćcały twój pokój, kamienica czy ulica. Jest tam masa kontrastowych punktów, które wystarczą Ci za 100 profesjonalnych filmowych trackerów ;)

 

Scenariuszy compositingu jest multum. Każdy projekt zasadniczo wymaga innego podejścia. Czasami trzeba rozwijać green'a a czasami wystarczy tylko kawałek zielonej tkaniny rozpiętej na dwóch statywach. Czasami trzeba robić mapy odbić i oświetlenia a czasami robi się to "na oko". Wszystko zależy od scenariusza filmu i od tego co potem się z tym będzie robić.

 

Pozdrawiam

  • Like 1
  • Confused 2
Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności