Skocz do zawartości

Lucasfilm zastosuje silniki z gier w swoich filmach


adek

Rekomendowane odpowiedzi

Interesujący artykuł opublikowany został na łamach The Inquirer. W artykule pojawia się krótki wywiad z Kimem Libereri, dyrektorem technologicznym ILM, który jest zdania, że w ciągu najbliższej dekady coraz popularniejsze będzie wykorzystanie w kinematografii silników znanych z gier komputerowych.

 

Pełna treść: Lucasfilm zastosuje silniki z gier w swoich filmach

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 53
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

Najnowsze silniki juz spokojnie moga zastapic tradycyjny rendering do robienia filmow animowanych. Paranoja dla mnie jest robienie filmu animowanego w 2013 roku za pomoca normalnego renderingu.

 

Ja juz sobie darowalem tradycyjny rendering. Jeszcze w Modo cos tam czasem wyrenderuje ale poza tym nie na moje nerwy czekanie po kilka godzin na efekty. Od kilku miesiecy swoj workflow zmieniam i wykorzystuje narzedzia typowo robione/najczesciej spotykane w firmach produkujacych gry. Jak dodam do tego ze moge w ciagu pieciu sekund wywalic obrazek w 8K z jakoscia ktorej aby dorownac normalnie musialbym zaprzac wsoj sprzet na caly dzien to szkoda gadac.

 

BTW. Jesli przez przypadek przegapiliscie pokaz Activision to zerknijcie na te slajdy http://www.iryoku.com/stare-into-the-future w ktorych opisuja swoje realtimowe osiagniecie dokladniej.

Edytowane przez mantragora
Odnośnik do komentarza
Udostępnij na innych stronach

Czym to się różni od tego co już było wcześniej już w avatar mieli podgląd na modele postaci poruszające się w realtime według ruchów z mocapa we władcy pierścieni też tak mieli z tego co pamiętam. Jedyne co widzę to tylko to że wizualnie to lepiej wygląda ale nie wydaje mi sie żeby to chodziło na silniku z gry prędzej sami napiszą silnik który będzie dobrze zoptymalizowany pod większą ilość kart graficznych i będzie miało znacznie większe możliwości niż silnik z gry który często z 2 kartami sobie już nie radzi.

Odnośnik do komentarza
Udostępnij na innych stronach

Patrze na Happy Feet i widze film ktory jest do uciagniecia przez aktualne karty graficzne. Jak chcesz symulowac na tym miliony ziarenek piasku plus 20 tys ginacych ludzi to jasne ze ci nie pojdzie, ale tej wielkosci filmy jak ToyStoy sa do ogarniecia.

 

Poza tym czy mi sie tylko wydaje czy branza 3D leci na skladaniu scen w programach typu Nuke? Mysle ze spokojnie 60-70 procent rzeczy mozna bez ciecia na czesci robic a reszte podzielic i zlozyc. Ilosc oszczedzonego czasu jest tego warta.

Odnośnik do komentarza
Udostępnij na innych stronach

Robi to duże wrażenie. I na pewno jest to przyszłość gier czy filmów animowanych. Natomiast jeśli to ma być przyszłość filmów to robi mi się smutno. Post-produkcję można też wyeliminować w inny sposób. Zamiast zatrudniać całe studio do zrobienia postaci w 3D a następnie kolejne studio do compositingu... może lepiej wynająć speców którzy stworzą tą postać naprawdę.

 

jxQuh9l.jpg

 

Jeśli możesz to dotknąć to nie może być już bardziej interactive ;)

Odnośnik do komentarza
Udostępnij na innych stronach

mantragora rozumiem ale oni mają sprzęt pod cpu renderering i problemu że coś się renderuje cały dzień raczej nie mają. Tutaj nie chodzi o wykorzystanie silnika z gry dosłownie w filmie tylko w podglądzie który ma reżyser i sprawdza czy jego wizja pokrywa się z tym co chce widzieć na ekranie np. mówi aktorowi wiesz super zagrałeś tak jak chce ale musisz bardziej się pochylić bo postań wychodzi z kadru.

Odnośnik do komentarza
Udostępnij na innych stronach

Libreri pokazuje to od ponad roku na różnych konferencjach i opowiada te same historie. To w sumie wygląda nawet przekonująco, ale imo sprawdzi się tylko w niektórych produkcjach, np. telewizyjnych serialach sf, w których jest z grubsza ten sam set i nie ma czasu na post. W filmach będzie raczej tylko jako narzędzie previzowe i choć*funkcje tegoż i rola w pipelinie trochę się rozwinęła w ciągu ostatnich lat, to jakoś ostatnio temat przyhamował. Nawet w The Third Floor przycichło, ale może coś tam dłubią... :)

Odnośnik do komentarza
Udostępnij na innych stronach

mantragora rozumiem ale oni mają sprzęt pod cpu renderering i problemu że coś się renderuje cały dzień raczej nie mają. Tutaj nie chodzi o wykorzystanie silnika z gry dosłownie w filmie tylko w podglądzie który ma reżyser i sprawdza czy jego wizja pokrywa się z tym co chce widzieć na ekranie np. mówi aktorowi wiesz super zagrałeś tak jak chce ale musisz bardziej się pochylić bo postań wychodzi z kadru.

 

"We think that computer graphics are going to be so realistic in real time computer graphics that, over the next decade, we'll start to be able to take the post out of post-production; where you'll leave a movie set and the shot is pretty much complete,"

 

Oni robia dokladnie to o czym ja mowie. Chca miec problem postprodukcji z glowy.

Odnośnik do komentarza
Udostępnij na innych stronach

Hair and Fur? W grach nadal się używa tekstur z maskami, a przy filmie to nie przejdzie.

 

W grach takze nadal nie uzywa sie montion blura i dof'a z prawdziwego zdarzenia, co nie przeszkodzilo jednemu smialkowi http://cryenginefilmtools.blogspot.com zrobic sobie wlasna implementacje tego w cryengine.

 

Wlosy w realtime juz byly pokazywane przez chyba Nvidie. To naprawde nie jest juz problem jakiejs implementacji tylko checi zbrania tego w jedna calosc w jednym silniku z zalozeniem wykorzystania nie tylko do gier.

Odnośnik do komentarza
Udostępnij na innych stronach

Najnowsze silniki juz spokojnie moga zastapic tradycyjny rendering do robienia filmow animowanych. Paranoja dla mnie jest robienie filmu animowanego w 2013 roku za pomoca normalnego renderingu.

 

Ja juz sobie darowalem tradycyjny rendering. Jeszcze w Modo cos tam czasem wyrenderuje ale poza tym nie na moje nerwy czekanie po kilka godzin na efekty. Od kilku miesiecy swoj workflow zmieniam i wykorzystuje narzedzia typowo robione/najczesciej spotykane w firmach produkujacych gry. Jak dodam do tego ze moge w ciagu pieciu sekund wywalic obrazek w 8K z jakoscia ktorej aby dorownac normalnie musialbym zaprzac wsoj sprzet na caly dzien to szkoda gadac.

 

BTW. Jesli przez przypadek przegapiliscie pokaz Activision to zerknijcie na te slajdy http://www.iryoku.com/stare-into-the-future w ktorych opisuja swoje realtimowe osiagniecie dokladniej.

 

Szkoda, że nie miałeś szansy oświecić ludzi z Pixara czy Dr.D, żeby sobie nie zawracali głowy renderowaniem na CPU. Wystarczyłoby przecież, żebyś pokazał coś, co sam zrobiłeś, żeby im uświadomić ile czasu i pieniędzy marnują. Masz jakiś gorszy dzień, czy coś..? Nie chcę się nad Tobą znęcać, ale gadasz po prostu głupoty.

 

A tak poważnie to wszystkie przykłady na jakie się powołujecie są prototypami, które zajęły więcej czasu na wymyślenie i napisanie, niż suma czasu wszystkich rdzeni na renderfarmie, które wykonałaby to na CPU.

 

Wszystkie bajery możliwe dziś na GPU: path tracing, out-of-core rendering ciężkiej geometrii, włosy, sss, displacement, gigabajty tekstur, rozmycie ruchu i dof (oraz wolumetryka, deep compositing, geometria proceduralna, programowalny shading) etc etc, muszą się znaleźć w jednym filmie, czasem jednej klatce, zrobione w jednym rendererze (albo dwóch) i w czasie mniej więcej jednego roku (i nie, nie zawsze da się je rozdzielić, szczególnie nie w czasach renderingu poprawnego fizycznie).

 

Filmy już dziś powstają na silnikach gier, tyle że są na tyle złej jakości, że są albo intrami do gier, albo filmami niskobudżetowymi. Blockbustery zaczną powstawać na GPU dokładnie wtedy, kiedy będzie to możliwe technicznie, czyli jeszcze nie teraz, bo teraz żadna ramka, która liczy się na GPU w czasie zbliżonym do realtime'u nie wytrzymuje porównania z wysokiej jakości klatką CPU liczoną godzinami przez Arnolda czy PRMana/3delighta. Ludzie odpowiedzialni za te sprawy w dużych studiach naprawdę wiedzą, co robią i bynajmniej nie są w zmowie z Intelem czy Amd. Zresztą wkład różnych technologii GPGPU w produkcje filmów stale rośnie - vide Panta Ray Wety, symulacje w MPC, system previzu Pixara etc. Dokładnie nie tyle stać teraz GPU, ale z całą pewnością nie stać go na rendering w jakości offline.

 

Ray tracing zaczął być używany w filmach wtedy, kiedy było to możliwe, a nie wtedy, kiedy jeden czy drugi zapaleniec amator renderujący kulki w domu dziwił się, że jeszcze tego durnie w wielkich studiach nie wymyślili*.

 

 

skk.

 

* - mówi to zapaleniec amator, który ad 2000 dziwił się, dlaczego ILM nie używa Radiocity w LW - chociaż DD przynajmniej raz je użyło w 1999 roku.

Edytowane przez SYmek
Odnośnik do komentarza
Udostępnij na innych stronach

Szkoda, że nie miałeś szansy oświecić ludzi z Pixara czy Dr.D, żeby sobie nie zawracali głowy renderowaniem na CPU. Wystarczyłoby przecież, żebyś pokazał coś, co sam zrobiłeś, żeby im uświadomić ile czasu i pieniędzy marnują. Masz jakiś gorszy dzień, czy coś..? Nie chcę się nad Tobą znęcać, ale gadasz po prostu głupoty.

 

Duze studia z dnia na dzien nie wywala calego swojego pipelinu. Zreszta nie rozumiem czemu podajesz te studia za wzor? Sa to wszystko firmy ktore bazuja na rozwiazaniach z z epoki gdy w grafice realtime szczyytem mozliwosci byly postacie niewiele rozniace sie od szescianu. A czasy sie zmienily. Czy mi sie wydaje czy Pixar dodal raytracying do rendermana ledwo ze dwie edycje temu podczas gdy inne silniki milay go juz dawno i byly normalnie wykorzystywane w produkcji? Czemu wiec Pixar mialby byc jakimkolwiek wzorem tutaj?

 

Wspominasz tylko o Pixarze a przyjrzyj sie filmom dla dzieci jakie leca na dobranocke, chcesz mi powiedzie ze nie da sie tego zrobic w realtime? W takim razie sam gadasz bzdury. Na normalne filmy typu starwars moze nie jest to jeszcze gotowe ale animacja moze byc spokojnie robiona za pomoca tych technik. Toy story od poczatku do konca jest mozliwe do zrobienia w RealTime. Nie ma w tym filmie ani miliardow polygonow ani tony symulacji ktore wymagalyby masywnych renderfarm.

 

To ze nie robi tego Pixar to ich problem nie moj. Oni zarabiaja na sprzedarzy Rendermana ktory nie jest realtime. To tak jak z Microsoftem i Ballmerem wysmiewajacym iPhona, sami jeszcze nie maja implementacji to i beda sie zapierac ze jeszcze sie nie da tego uzywac i nikt tego nie kupi.

 

PS.Przejrzales link do slajdow Activision ktory podalem w moim pierwszym poscie tu? Patrze na to i porownuje z FinalFantasy Spirits Within i wydaje mi sie ze wytrzymuje porownanie bez problemu.

PS2. Ja caly czas mowie ze jest to gotowe na animacje, nie na normalne filmy krecone kamera.

Edytowane przez mantragora
Odnośnik do komentarza
Udostępnij na innych stronach

Duze studia z dnia na dzien nie wywala calego swojego pipelinu. Zreszta nie rozumiem czemu podajesz te studia za wzor? Sa to wszystko firmy ktore bazuja na rozwiazaniach z z epoki gdy w grafice realtime szczyytem mozliwosci byly postacie niewiele rozniace sie od szescianu. A czasy sie zmienily. Czy mi sie wydaje czy Pixar dodal raytracying do rendermana ledwo ze dwie edycje temu podczas gdy inne silniki milay go juz dawno i byly normalnie wykorzystywane w produkcji? Czemu wiec Pixar mialby byc jakimkolwiek wzorem tutaj?

 

Oj... Renderman ma raytracing od daaawna strzelam, że od 02' do 04' od 2. lat to on jest domyślnym algorytmem renderingu przedtem był to REYES o tym, że sie zmienia nawet w PIXARZe zabunkrowanym na RenderManie świadczy to, że w Monsters University większość shaderów było PBR, a obecna wersja rmana ma path tracing dodany np. ;) Zresztą renderman stara się być od pierwszych carsów wykorzystywać GPU na możliwym poziomie przykłady masz w dostępnych papierach na stronie Pixar Resarh Gruop

 

Ale faktycznie może się coś zmieniać skoro część powstających teraz gier ma fizyczne shadery podobne do tych stosowanych nie w grach ;)

Odnośnik do komentarza
Udostępnij na innych stronach

Ale faktycznie może się coś zmieniać skoro część powstających teraz gier ma fizyczne shadery podobne do tych stosowanych nie w grach ;)
Siedzę teraz trochę przy pisaniu shaderów i powiem wam że można cuda zrobić. Główne problemy to kaustyka, miękkie cienie (teraz są na maxa badziewiaste) i realtimowy GI. Dlatego na razie żadne studio nie zamieni pipelineu tylko na realtimeową grafe.

Z ciekawych rzeczy: Crytek wyciąga rękę do filmowców ze swoim CineBoxem.

 

Octane to coś innego, bo to po prostu unbiasedowy renderer który robi obliczenia na karcie, także bym tego nie porównywał do silników gier. Natomiast można by wykorzystać niektóre obliczenia z takich rendererów do gier. Np w Nvidia Optix policzyć GI, kaustykę i skleić z passem realtimowym. Tylko na to trzeba jeszcze trochę poczekać, bo jednak karty są jeszcze za słabe na takie zabawy.

Odnośnik do komentarza
Udostępnij na innych stronach

Mozliwosci sa juz tak gigantyczne ze mozna zrobic rewelacyjny film jesli ma sie pomysl (cinebox jest na razie w produkcji ale wyglada genialnie). Szczegoly pewnie sa niemozliwe ale przy dobrej historii i fajnych ujeciach mozna spokojnie zrobic niezly kawalek filmu. Juz wczesniej sugerowalem takie rozwiazanie pewnemu niezaleznemu, zbanowanemu tworcy co to popelnil pol godzinne dzielo o drzewie. Mogloby to lepiej wygladac i nie musialby czekac miesiacami na render. Inna sprawa ze nie zmieniloby to pretensjonalnej historii ale zaoszczedziloby sporo czasu.

Odnośnik do komentarza
Udostępnij na innych stronach

Podaje przykład Pixara i Dr.D, bo sam się odniosłeś do Happy Feet, a nie dobranocek w TV. Rozmawiamy o jakiejkolwiek animacji, czy animacji która wytrzyma porównanie z z Happy Feet, co zdajesz się twierdzić powyżej? Jeśli mówisz o jakiejkolwiek animacji, to owszem, Twoje twierdzenie jest nie tylko prawdziwe, jest także trywialne.

 

Renderman posiada ray tracing od ponad 10 lat. Pixar nie musiałby przepisywać pipeline'u, wystarczy zmienić renderer. Właśnie to niemal zrobili (podobnie jak ILM), bo nowy PRMan ma zupełnie nowe bebechy, nową metodologią, shadery, światła itd. Dr.D (przywołane przez Ciebie) powstało od zera na potrzeby Happy Feet i również musiało kupić rendermana, bo po prostu nie da się jeszcze zrobić animacji na poziomie Happy Feet w silniku gry.

 

Przed GPU nie stoją zresztą wyłącznie problemy jakości czy skomplikowania scen. Żyjemy w czasach poprawność fizycznej, to jest normalny krok do przodu, kiedy po latach fake'owania ludzie oczekują jakości. W tych warunkach oczekiwanie, że silniki gier, które opierają się od A do Z na oszustwach podbiją serca ludzi, którzy przesiedli się właśnie z szybkiego PRMana na wolnego jak diabli Arnolda, tylko dlatego, żeby mieć fizyczne mięso w pikselach, jest grubą naiwnością. To tak jakby sądzić, że ktoś przejmie się real-time'owymi riggami na GPU w czasach, gdzie ludzie w ogóle odchodzą od riggów i zaczynają symulować kości, mięśnie i skórę.

 

A że da się robić filmy animowane w silnikach realtimowych to wiadomo, tylko jak one wyglądają? Jak Final Fantasy, film sprzed 13 lat.

 

edit: na marginesie, większość technik GPU jest rozwijana do realiów produkcji gier. W praktyce należałoby najpierw sprawdzić, jak taka metoda się sprawdzi, kiedy ilość poligonów zmienia się ze 100K do 100M. No i są to poligony, nie trójkąty..., no i tekstury są 16float, no i 8K, i nie mogą być sprytnie popakowane, bo wciąż się na nich pracuje, nadpisuje etc a patent GI powinien działać także dla dymu, nie tylko siatek.

 

Innymi słowy "w nadchodzącej dekadzie" a nie "2013".

Edytowane przez SYmek
Odnośnik do komentarza
Udostępnij na innych stronach

@Creator: Dlaczego to ma być niby realtime GI? Lub ogólniej... dlaczego ktokolwiek tu zakłada tak nielogiczną rzecz jak wykorzystanie silnika gier = rendering realtime? Rendering gier musi być realtime, ale rendering filmów na takim silniku nie musi się tak odbywać i można z wysoka jakością zrobić rendering z GI tracingiem Voxeli (chociaż to robią już realtime silniki gier ;p)... można też w silniku rasteryzującym (gier) użyć Point-Based Global Illumination tak jak robi to na CPU ILM czy Pixar (co więcej właśnie Pixar przeniosło to do swojego podglądu realtime (w niskiej jakości, bo to podgląd - jakość można podbić, kiedy liczy się jakość), a ILM pewnie właśnie chce przenieść i o tym mówi). Caustykę i dokładniejsze miękkie cienie też da się pogodzić z silnikiem gier... co najśmieszniejsze najcięższym do pogodzenia jest rzecz naturalnie prosta dla raytracerów czyli fizycznie poprawne odbicia od obiektów i bardzo problematyczne odbicia obiektu w sobie samym.

 

Śmieszy mnie trochę podawanie Pixara przez niektórych jako firmy która woli raytracing. Ich RenderMan faktycznie masę rzeczy robi raytracingiem (podobnie jak gry od lat - nawet proste relief mapping/parallax occlusion mapping/cone step mapping... polegają właśnie na raytracingu, już nie mówiąc właśnie o raytracingu voxeli w obecnych silnikach). Pixarowy RenderMan do renderer hybrydowy - robi część rasteryzacją (jak OpenGL/DirectX), a część raytracing (gry robią to w shaderach albo w CUDA/OpenCL). Pixar sposobem renderowania (podobnie jak ILM) przypomina właśnie silniki gier (tylko, że nie ogranicza tak mocno jakości, ilości sampli w próbkowaniu raytracingu... no właśnie w tym sęk, że silniki gier też tego nie robią najczęściej, a jedynie do gier dostosowuje się tak rendering, aby działało realtime - do renderingu filmów nie trzeba się tak ograniczać na tym samym silniku) - zaletą RenderMana w stosunku do innych silników jest to, że skutecznie on oszukuje i nie ma w nim mowy o poprawności fizycznej (sama idea GI opartego o chmurę punktów przeczy zupełnie poprawności fizycznej - za to jest dobrym oszustwem o super wydajności).

Odnośnik do komentarza
Udostępnij na innych stronach

Podaje przykład Pixara i Dr.D, bo sam się odniosłeś do Happy Feet, a nie dobranocek w TV. Rozmawiamy o jakiejkolwiek animacji, czy animacji która wytrzyma porównanie z z Happy Feet, co zdajesz się twierdzić powyżej? Jeśli mówisz o jakiejkolwiek animacji, to owszem, Twoje twierdzenie jest nie tylko prawdziwe, jest także trywialne.

 

Smiem twierdzic ze Pixar ma takie pojecie o robieniu grafiki RealTime jak SESI ktore od dwoch lat meczy sie z viewportem w Houdym. Z tego powodu przywolywanie tych firm jako wzor, ze skoro one nie wykorzystuja to sie nie da, jest bzdura. To firmy pokroju Activision pokazuja przelomowe papiery w RealTime a nie Pixar.

 

Porownywanie z animacjami zrobionymi przez nich jest jak najbardziej na miejscu bo pokazuje uplyw czasu i postep techniki.

 

 

PS. nie watpie w to ze Pixar moga robic juz testy lub pracowac nad RealTimowa wersja Rendermana ale to nie zmienia faktu ze sa nikim w porownaniu do CryTek'a lub Activision, maja zero znaczocych osiagniec na tym polu. W tydzien nie zrobia z siebie potegi w Realtime jesli nne firmy dekade R&D maja za soba w tym temacie.

 

A że da się robić filmy animowane w silnikach realtimowych to wiadomo, tylko jak one wyglądają? Jak Final Fantasy, film sprzed 13 lat.

 

No to przejrzyj sobie kazdego Shrecka i Toy Story wydane do tej pory, bedziesz mial porownanie z nowszymi filmami. Obejrzyj sobie render Arnolda z Terminatora 4 i porownaj go z tym renderem Activision z tych slajdow ktore zalinkowalem. Nadal wytrzymuje porownianie.

 

Renderman posiada ray tracing od ponad 10 lat. Pixar nie musiałby przepisywać pipeline'u, wystarczy zmienić renderer. Właśnie to niemal zrobili (podobnie jak ILM), bo nowy PRMan ma zupełnie nowe bebechy, nową metodologią, shadery, światła itd.

 

Sorry, o Path Tracing mi chodzilo ;)

 

Dr.D (przywołane przez Ciebie) powstało od zera na potrzeby Happy Feet i również musiało kupić rendermana, bo po prostu nie da się jeszcze zrobić animacji na poziomie Happy Feet w silniku gry.

 

Musialo kupic bo pipeline na RealTime nie byl gotowy i bylo to w czasach gdy RealTime jeszcze nie oferowal takich mozliwosci.

 

Ale teraz mamy 2013 rok a nie 2007/2011. W 2007 Microsoft smial sie z iPhona, w 2013 sprzedarz desktopow spada z kwartalu na kwartal i Microsoft trzesie sie na nogach. To samo jest z RealTime i normalnymi renderami.

Edytowane przez mantragora
Odnośnik do komentarza
Udostępnij na innych stronach

@Creator: Dlaczego to ma być niby realtime GI? Lub ogólniej... dlaczego ktokolwiek tu zakłada tak nielogiczną rzecz jak wykorzystanie silnika gier = rendering realtime?

 

Dokladnie. Jak wspomnialem w pierwszym poscie, moge wypuscic klatke w 8K co 5-10 sekund, natomiast zeby zrobic ta klatke w tej samej jakosci i rozdzielczosci normalnie to musze swoja stacje zaprzadz do roboty na caly dzien. Nie mam renderfarm za plecami.

Odnośnik do komentarza
Udostępnij na innych stronach

Dokladnie. Jak wspomnialem w pierwszym poscie, moge wypuscic klatke w 8K co 5-10 sekund, natomiast zeby zrobic ta klatke w tej samej jakosci i rozdzielczosci normalnie to musze swoja stacje zaprzadz do roboty na caly dzien. Nie mam renderfarm za plecami.

 

Przyszło Ci do głowy, że nie masz bladego pojęcia o tym, jak przebiega proces renderowania wysokobudżetowego filmu, więc trudno jest Ci ocenić, czy techniki obecnie używane w KAŻDYM dużym studio animacyjnym na świecie dają się czy też nie dają się zamienić na silniki gier?

 

Jeśli chodzi o TWOJE potrzeby to oczywiście wiesz lepiej. Nawet w nodepadzie można w realtime wygenerować obrazek.

 

Tyle. Szczerze mówiąc, szkoda mi czasu na tę rozmowę.

 

pozdr.

skk.

Odnośnik do komentarza
Udostępnij na innych stronach

Porównując tylko te dwa filmiki:

Demo Samaritan -

Cinematic do Prey2 -

(chyba najlepszy możliwy przykład, bo podobieństwa są uderzające - roboty na końcu - WTF?)

Oba to rok 2011. Widać różnicę jakości (na korzyść Prey oczywiście), ale nie jest to coś kolosalnego. A od tego czasu technologia poszła do przodu - i w całkowitym realtime'ie można by już lepsze rzeczy robić. Silniki gier w kinematografii to dla mnie żadne zaskoczenie- raczej logiczne usprawnienie istniejącego już pipeline'u.

Odnośnik do komentarza
Udostępnij na innych stronach

Bo nie masz nic do powiedzenia sensownego i zapychasz caly topik bzdurami o wielkich studiach ktore malo kogo interesuja. Skup sie na rynkach gdzie nie ma firm liczacych 500+ osob i bedziesz mial inna sytuacje.

 

Rozchmurz sie Symek ;). Jak ci szkoda czasu to po co wypowiadasz sie w topiku realtime o ktorym nie masz pojecia?

 

Pozdrawiam

Odnośnik do komentarza
Udostępnij na innych stronach

Bo nie masz nic do powiedzenia sensownego i zapychasz caly topik bzdurami o wielkich studiach ktore malo kogo interesuja. Skup sie na rynkach gdzie nie ma firm liczacych 500+ osob i bedziesz mial inna sytuacje.

 

 

Rozchmurz sie Symek ;). Jak ci szkoda czasu to po co wypowiadasz sie w topiku realtime o ktorym nie masz pojecia?

 

 

Pozdrawiam

 

 

To rzeczywiście kończy rozmowę.

Odnośnik do komentarza
Udostępnij na innych stronach

A się taka ładna wymiana ciosów szykowała. Po tym jak poleciał Dziadek to mało emocji na forum, a tu już krew zaczynała krążyć i już koniec? :)

 

Żeby jeszcze wypowiedzieć się w temacie. Tak - realtime się rozrasta i będzie rozrastać, bierze choćby we władanie obszar zaawansowanego pre-vizu ( nota-bene to właśnie o tym jest artykuł o Lucas filmie ) , ale zakładanie, że w najbliższym czasie wyprze tradycyjne renderery jest na razie czystą fantazją. I to nie jest jakieś tam moje widzimisie. Po prostu różnice między prerenderem i silnikiem siegają samej filozofii pracy, a to się szybko nie zmieni. Przy pre-renderze ma się mimo wszystko dużo mniej ograniczeń. Czas renderu schodzi na dalszy plan, kiedy najważniejsza jest absolutna wolność kreacyjna. Drugą, może jeszcze ważniejszą sprawą jest jakość techniczna. Do dziś ( a minęły już długie lata ) nie udało się pozbyć niektórych specyficznych ograniczeń/artefaktów rendererów z silnika. To są drobiazgi, pierdółki w rodzaju artefaktów w DoF, wyglądu motion-blura, włosów, przezroczystości, prawdziwej wolumetryki i całej listy drobnych zagadnień z antialiasingiem włącznie. Drobiazgi, ale te drobne błedy na tych polach, praktycznie uniemożliwiają pracę na poziomie profesjonalnym. I piszę to jako fan rozwiązań tego typu, który śledzi z uwagą wszystko co się na ten temat pojawia. To są jeszcze długie lata, a potem kolejne długie lata zanim stanie się to rozwiązaniem popularnym . Dlugo by pisać. Zauważcie, że nawet tu w tym wątku w podanym wyżej przykładzie jest powiedziane, że render z silnika jest "prawie" tak dobry jak render zwykły. Sęk w tym, że cały obecny pościg jakościowy dzieje się w obszarze tych dodatkowych 10 procent jakości, które dzieli pracę dobrą od bardzo dobrej. To jest to "prawie" , które ma znaczenie.

 

No i zobaczcie. Zgodziłem się z Symkiem. Świat się kończy :)

 

t.

Odnośnik do komentarza
Udostępnij na innych stronach

A jest jakiś silnik do gier który wspiera ptex?

Do tej pory nie, bo nie było dobrych narzędzi edycyjnych, ale już 2 lata temu na Siggraph 2011 Nvidia pokazywała jak to zrobić w realtime na GPU https://developer.nvidia.com/siggraph-2011 zaraz później AMD wydała "AMD Leo Demo", które korzysta z PTex i wykorzystuje nowe rozwiązanie AMD Partially resident textures (PRT) do tego http://developer.amd.com/resources/documentation-articles/samples-demos/gpu-demos/amd-radeon-hd-7900-series-graphics-real-time-demos/ a w tym roku Nvidia pokazała jak zrobić to optymalniej, jednak bez tak specyficznych rozwiązań https://developer.nvidia.com/sites/default/files/akamai/gamedev/docs/Borderless%20Ptex.pdf ... chociaż ze względu na to, że rozszerzenie OpenGL do PRT od AMD stało się normą ARB i jest dostępne w sterownikach Nvidii OpenGL 4.4 dla kart od serii Fermi (wszystkie z tesselacją) http://www.opengl.org/registry/specs/ARB/sparse_texture.txt, a ta funkcjonalność weszła do DirectX 11.2 (Direct3D Tiled Resources) więc można wykorzystać rozwiązanie AMD, bo już specyficznym one-vendor nie jest.

 

Nie ma, bo chyba i tak musiałbyś to bakeować do zwykłych kwadratowych tekstur + UV, coby użyć ich w shaderze.

PTex to zwykłe kwadratowe tekstury - po prostu ich dużo (dlatego korzysta się z tablic tekstur lub sparse texture - zależy od implementacji - w drugiej opcji textury jeśli ich nie widać nie muszą być nawet w pamięci GPU), a UV w wersji GPU generuje się w shaderach Domain/Evaluation (nazwa inna zależnie od DX czy GL).

Odnośnik do komentarza
Udostępnij na innych stronach

Do tej pory nie, bo nie było dobrych narzędzi edycyjnych, ale już 2 lata temu na Siggraph 2011 Nvidia pokazywała jak to zrobić w realtime na GPU https://developer.nvidia.com/siggraph-2011 zaraz później AMD wydała "AMD Leo Demo", które korzysta z PTex i wykorzystuje nowe rozwiązanie AMD Partially resident textures (PRT) do tego http://developer.amd.com/resources/documentation-articles/samples-demos/gpu-demos/amd-radeon-hd-7900-series-graphics-real-time-demos/ a w tym roku Nvidia pokazała jak zrobić to optymalniej, jednak bez tak specyficznych rozwiązań https://developer.nvidia.com/sites/default/files/akamai/gamedev/docs/Borderless%20Ptex.pdf ... chociaż ze względu na to, że rozszerzenie OpenGL do PRT od AMD stało się normą ARB i jest dostępne w sterownikach Nvidii OpenGL 4.4 dla kart od serii Fermi (wszystkie z tesselacją) http://www.opengl.org/registry/specs/ARB/sparse_texture.txt, a ta funkcjonalność weszła do DirectX 11.2 (Direct3D Tiled Resources) więc można wykorzystać rozwiązanie AMD, bo już specyficznym one-vendor nie jest.

 

Przyznaję Ci order Chomsky'ego za najbardziej skomplikowane zdanie miesiąca ;)

Odnośnik do komentarza
Udostępnij na innych stronach

A się taka ładna wymiana ciosów szykowała. Po tym jak poleciał Dziadek to mało emocji na forum, a tu już krew zaczynała krążyć i już koniec? :)

 

Gdyby Symek nie wpadl wykrzykujac cos o znecaniu sie nade mna, poszlo by inaczej. Jestem pewien ze piszac swojego pierwszego posta nawet nie zajrzal do zalinkowanych przeze mnie slajdow Activision ani nie obejrzal filmika tej firmy i postanowil po prostu po mnie pojechac dla zasady, bo on wie lepiej.

 

Do Symka nic nie mam. Poza tym ze sie z nim nie zgadzam ;) Czasami jest spoko gosc, jak nie przynudza o Pixarze itp.

 

Dla tych co mnie minusowali dla zasady, a jestem pewien ze jestescie takze tymi ktorym sie nawet nie chcialo zajrzec do llinka z mojego pierwszego posta, ponizej link do slajdow w ktorych omawiaja co i jak (uwaga, bezposredni link wazocy 312 MB, RMB myszka na nim i "save as", darmowa przegladarka PowerPoint jest dostepna do zassania od Microsoftu):

http://www.iryoku.com/projects/nextgen/downloads/Next-Generation-Character-Rendering-v6.pptx

 

prezentacja z youtube:

 

oraz kilka zdjec luzem:

lauren-06-on.jpg

lauren-05-on.jpg

lauren-03.jpg

 

I jak mi Baggins powie ze technika realtime sie nie nadaje do robienia animacji to pojade jak Symek po ostatnim cinematiku PI do wiedzmina ;).

 

Heya.

 

 

PS. Wszystkiego najlepszego Symek.

Edytowane przez mantragora
Odnośnik do komentarza
Udostępnij na innych stronach

ja sie tam nie znam ale jaki real timowy silnik obsluzy takie sceny jakie byly np w "Elysium" ?

 

http://www.fxguide.com/featured/elysium-a-practical-miniature-and-digital-fx-odyssey/

 

“The weight of the trees ranges from a half a million triangles to about 20 million triangles”, "They’re all hi-res. We don’t do level of detail at all anymore and we don’t use sprites or use cards for them."

 

"The Arnold development allowed Whiskytree to move from 1.6 billion triangle scenes to 3 trillion triangle scenes."

 

"The animation was all key-framed in Maya, via 686 rigging controls." - animacja droidow

 

plus mnostwo innych rzeczy(np. jakies skomplikowane symulacje), pokazanie jednej glowki to chyba troche mało ;)

Odnośnik do komentarza
Udostępnij na innych stronach

ja sie tam nie znam ale jaki real timowy silnik obsluzy takie sceny jakie byly np w "Elysium" ?

 

W pierwszym poscie wyraznie podkreslilem, w pierwszym zdaniu, ze chodzi mi o animacje a nie o normalne filmy.

 

Poza tym masz tu goscia co robi na wlasna reke w CryEngine2 dzungle (dopisal sobie kilka wlasnych shaderow, np. do motion blura i DOFa). Symulacje roslin ma za free jako ze ten silnik obsluguje kolizje roslinnosci z roznymi obiektami. A ten silnik ma juz kilka ladnych latek (toz to 2007 rok, czasy pierwszego Happy Feet) i nie obsluguje wielu rzeczy ktore maja najnowsze silniki (tesselacja itp.). 6 lat roznicy w grafice realtime widac na demku Activision. Nowy CryEngine ma wyjsc w nastepnym roku i bedzie mogl uciagnac na pewno duzo wiecej danych niz wersja z 2007 roku.

 

EDIT: Poza tym przeciez to ma sluzyc jako renderer a nie narzedzie do symulacji. Tak jak w normalnym zestawie. Zasysasz cala gotowa animacje, ustawiasz co chcesz i w ciagu jednego dnia machasz pelnometrazowy film :)

0030511.jpg

 

030004.jpg

insectdofv3.jpg

02---.jpg

 

flipped_1920_effects_v2.jpg

Edytowane przez mantragora
Odnośnik do komentarza
Udostępnij na innych stronach

@legomir: Ja tylko twierdze ze realtime jest juz dzisiaj gotowe na to by dostarczac filmy animowane w tej samej jakosci jak normalnie renderowane animacje pokroju Shreak czy ToyStory. Natomiast to ze nie ma jeszcze ogolnie dostepnych narzedzi z ktorych moglyby skorzystac firmy pokroju PI to inna sprawa.

 

Jest CineBox od Cryteka, ale z tego co wiem to na razie jest on zamknieta beta dla duzych wytworni filmowych. Nawet nie wiem jaka jakosc oferuje bo nigdy go na oczy nie widzialem a filmik promujacy jaki wypuscili z rok temu byl nedzny, o kilka klas ponizej tego co tu podlinkowalem.

 

Activision raczej swojego narzedzia nie wypusci dla mas wiec mozemy sie obejsc tylko smakiem.

 

PS. Moze PI mogloby sie postarac o CineBox do testow. Wtedy byoby troche wiecej wiadomo co Crytek szykuje tam po cichu.

Edytowane przez mantragora
Odnośnik do komentarza
Udostępnij na innych stronach

Jak cie nie wystarczy realizm z tego dema Activision (oraz SSS ktore tam zaprezentowali, najlepiej pokazany w filmikach zamieszczonych w tym PowerPoincie ze slajdami) to nie wiem co cie zadowoli. Ile animacji widziales ktore taki realizm potrafia osiagnac normalnie renderowanych? Ile takich klatek bylbys w stanie wyrenderowac w jednej sekundzie przy 1080?

 

Bedziecie sie czepiac teraz kazdej rzeczy ktorej nie pokazano. Bo jak nie widac to pewnie nie mozna osiagnac tego?

 

Bardzo mi przykro ze nie moge wam dostarczyc wiecej wysokorozdzielczych probek z silnika Activision ale mysle ze ten render glowy ktory tam pokazuja (ktory dziala 180kl/s przy 1080 na pojedynczym GTX680) mowi jasno na jakim poziomie w tej chwili jest realtime i co mozna nim osiagnac. Od tego tylko w gore moze jechac jakosciowo. Szczegolnie ze razem z nowymi silnikami dostajemy PBR i kupe innych bajerow ktore rozwiazuja problemy ktore wczesniej stanowily bariere dla uzywania realtime do czegos powazniejszego.

 

 

Teraz wyobrazcie sobie ze zamiast 180 kl/s wypuszczacie taki render raz na 5-10 sekund przy 8K. Mysle ze jakosc zadowoli nawet najbardziej wybrednych. Poza legomirem ;)

Edytowane przez mantragora
Odnośnik do komentarza
Udostępnij na innych stronach

Przed chwilą mówiłeś to samo o SYmku. Włożę palec w dziurę to uwierzę, nie prędzej. Zresztą i tak będę stał na stanowisku, że takie animacje zawsze dają coś innowacyjnego np. przy Shreek 2 był pierwszym pełnometrażowym filmem wyrenderowanych w całości na GI, więc kto czy za parę lat jakaś animacja Disney'a albo Dremworks nie będzie pierwszym pełnometrażowym filmem w całości na GPU ;)

Odnośnik do komentarza
Udostępnij na innych stronach

Jak cie nie wystarczy realizm z tego dema Activision (oraz SSS ktore tam zaprezentowali, najlepiej pokazany w filmikach zamieszczonych w tym PowerPoincie ze slajdami) to nie wiem co cie zadowoli. Ile animacji widziales ktore taki realizm potrafia osiagnac normalnie renderowanych? Ile takich klatek bylbys w stanie wyrenderowac w jednej sekundzie przy 1080?

To co tam pokazali to znane od prawie 2ch lat ich rozwiązanie Separable Subsurface Scattering (więc SSSS, a nie SSS ;p). CryEngine 2 czy Unreal Engine 3 korzystały z 5x S czyli Screen Space Subsurface Scattering (poprzedni SSS, od tego kolesia z Activision z 2011 roku - w CE2 pojawił się ten shader przed wydaniem przez kolesia z Activision publikacji, a w UE3 miesiąc po), ale prawdopodobnie w CE3 u UE4 zobaczymy nowszą odsłonę SSS (opublikowane papiery wraz z gotową implementacją są od początku 2012 roku, ale nowa generacja silników dopiero teraz). Ogólnie to co pokazywałeś wyżej to nie jest z okazji shaderu SSS skóry robione http://www.iryoku.com/separable-sss-released, a z okazji shaderu oczu http://www.iryoku.com/open-your-eyes ewentualnie animacji od ICT (z której korzystała też Nvidia przy Face Works) czyli Digital Ira i demonstracji na GDC.

 

Ale weź pod uwagę Toy Story 3 a Brave/Monster University

 

Zwłaszcza, że przy drugim używano skomplikowanego SSS'a

Nie chcę Cię zasmucać, ale począwszy od UP SSS u Pixara raczej ma niższą jakość niż wcześniej... jedyne co to jest bardziej wyeksponowane. Razem z UP Pixar zamienił raytracing GI, raytracing SSS na metodę zupełnie inną - dokładniej opartą o chmurę punktów, która obniża jakość, ale niesłychanie zmniejsza czas renderingu - ze względu na szybsze renderowanie SSS w nowych produkcjach nie muszą sobie odmawiać, bo dawniej ze względów czasowych SSS było tylko tam gdzie niezbędne (bo czas renderowania zabijał możliwość powszechnego stosowania).

Edytowane przez Skoti
Odnośnik do komentarza
Udostępnij na innych stronach

Interestingly this was one of the only tasks still rendered with the point based pre-based solutions. All the characters had the pre-pass done for them, explains Hery, “but all the shows since then (MU) are rendering SSS with ray tracing and potentially with the new photon beam diffusion (Link) method – it is an option for our shaders now but MU was too early to use that.

 

No dobra pomyliłem się w MU było jeszcze za wcześnie ;)

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności