Skocz do zawartości

Teaser - Get Even -


BloodGollum

Rekomendowane odpowiedzi

  • Odpowiedzi 33
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

nom czyli nie bedzie cieni z obiektów dodanych. Enviro robi wrazenie, reszta zmontowana tak, by nie było nic widać, a to chyba najważniejsze elementy. No nic macie roczek więc zyczę powodzenia i sukcesu. Nadal uważam, ze to powinno byc robione na komorki :D

Odnośnik do komentarza
Udostępnij na innych stronach

to miks live action i photoscana:) jeśli chodzi o postacie to tylko leżący są modelami i laska na końcu, reszta ujęć to "aktorzy"...

natomiast co do otoczenia, na pierwszy rzut oka fajnie, natomiast jak się przyjrzę to widać surowy skan a nie content do gry :) ale gra wychodzi w 2015 roku wiec na bank to dopracują... jednak nazwijmy rzeczy po imieniu - fajny cinematic.

Odnośnik do komentarza
Udostępnij na innych stronach

Dobra, rozkładamy ten teaser na części pierwsze :

-) od sekundy 0:00 do 0:23 kręcone real kamerą (spójrzcie co się dzieje z białym napisem na ścianie między 23 a 24 sekundą)

-) od 0:24 do 0:39 render

-) od 00:40 do 0:53 - znowu real kamera (z małym przerywnikiem od 0:44 do 0:48 renderowanym)

-) od 00:54 do końca - ponowne rendery

Tak ja to widzę po obejrzeniu około 15 razy tego filmiku.

Jakby co to zróbcie korektę jak ktoś to widzi inaczej.

Pozdrawiam

Odnośnik do komentarza
Udostępnij na innych stronach

OK. Selena - racja. W końcu renderem potocznie się nazywa proces "obliczania" obrazu który zaciąga tekstury, wylicza cienie,światło dla każdego pixela i tłucze to procek (choć i GPU czasem), a tu po prostu DIRECTX albo OPENGL (na tym się nie znam). Niemniej widać przeskok między 23-24 sekundą który pokazuje część kręcona w prawdziwą kamerą a grafiką liczoną z silnika gry czy silnika dema technologicznego. Szkoda że idący żołnierze widziani z górnego poziomu tego magazynu idący gęsiego nie są 3D tylko są aktorami. Jeśli się mylę to gratuluję animatorom:) Ale wygląda to na ruch aktorów.

Co do cieni pod telefonem i pozostałych wstawionych - hm, faktycznie cieni nie widać, nawet AO czy SSAO wygląda jak wyłączone:( Telefon ewidentnie "leci" nad betonem.

Ale skoro został rok czasu - to się zapowiada na niesamowitą grafikę i klimat! Ciekaw jestem czy będzie wprowadzona destrukcja otoczenia chociaż w szczątkowej formie (choćby tynk ze ścian mógłby się sypać płatami o jakiejś grubości), czy jak w BF3 i BF4 będzie to tylko oskryptowane w kilku miejscach.

Zauważyłem na kilku forach o grach i grafice 3D, że ludzi już tak bardzo nie kręci realizm grafiki w grach...czy tekstury na postaciach będą mieć 2048x2048 czy 4096x4096...Na planszy ma się dziać - i to najlepiej za każdym razem nieco inaczej. Dziś graczy można mamić już tylko tym właśnie że (uwaga, będzie długie zdanie) :

Będziecie mogli siać pożogę i zniszczenie nie tylko w szeregach wroga, ale likwidując wszystko co stanie Wam na przeszkodzie do osiągnięcia zamierzonego celu w misji.

I na to liczę po cichu :) Ogień, destrukcja, tynk na posadzkach, pręty zbrojeniowe latające w powietrzu i zapach grzyba oraz kurzu zatęchłych magazynów i hal fabrycznych :)

Pozdrawiam

Odnośnik do komentarza
Udostępnij na innych stronach

realtime to tez render tylko w realtime. to na pewno nie jest prerender.

mam bardzo podobne wrazenia jak Hris. Z pewnoscia zaleta tej produkcji bedzie PCtowy ram na karcie.

 

technologia ma mase ograniczen - licze ze poradza sobie z tymi paskudnymi oknami - ale od scenariusza w sumie zalezy czy bedzie nam to przeszkadzac w samej grze. gdyby gra opeierala się na czyms retrospektywnym jak w remember me czy beyond to efekt bylby fenomenalny, po zolniezach widac, ze to bedzie coś innego i tu bedzie znacznie trudniej przekonac widza, ze tak jest najlepiej. anyway to juz nie nawet zadanie dla grafikow ale scenarzystow, a to mozna zawsze szlifować w produkcji. dlatego trzymam kciuki.

Odnośnik do komentarza
Udostępnij na innych stronach

wiadomo ze na dobra sprawe kazde wyplucie grafiki na ekran mozna okreslic terminem 'renderowanie', ale 99% grafikow uzywa tego terminu jako terminu przeciwwstawnego do -real-time, czyli taka grafika ktora najpierw trzeba wyrenderowac a potem mozna ogladac, a nie można ja oglądać z płynnym frameratem i przy okazji włączyć nagrywanie

Odnośnik do komentarza
Udostępnij na innych stronach

Rzut okiem na komorke, postac kobiety na koncu i juz wiemy, jak to bedzie wygladalo z dodatkowymi elementami 3d. Gdyby nie filtry rozmywajace to efekt bylby jeszcze trudniejszy do przyjecia pewnie.

 

Do wirtualnych przechadzek po istniejacych obiektach architektonicznych jak znalazl pewnie.

Odnośnik do komentarza
Udostępnij na innych stronach

No Selena - masz rację. Błędnie użyłem słowa "render". W grze obraz też jest "tworzony" i obliczany, tylko że tak jak napisałaś właśnie z płynnym frameratem.

Moja wielka ciekawość teraz skupia się raczej na tym silniku z którego to zostalo wypuszczone. Bo skoro do przemielenia tego otoczenia użyto setek milionów puntków pewnie ze skanów, potem to zostało "zmeshowane" czy "ztriangulizowane" to ta geometria jest wynikiem działania softu i poprawiono ją ręcznie by zniwelować błędy algorytmów programu który przemielił te chmury punktów. Jeśli ta gra to ma być coś więcej niż "point&click" chodzone po pięknym otoczeniu - to jak oni rozwiążą właśnie interakcje z otoczeniem. Choćby jedną ścianę żeby rozwalić to trzeba to będzie i tak "wysadzić w powietrze" jakimś 3D VORONOIEM, zrobić z tego game-assety wkładane do silnika już po ponownym przygotowaniu tego w zewnętrznym sofcie. Ja to widzę tak na dziś (na dziś - znaczy na stan mojej wiedzy na dziś):

-) Najpierw export geometrii z ich softu gdzie punkty zostały zmeszowane

-) potem Np.w Zbrush'u podrzeźbią,

-) export do np. 3D Max (lub Maya czy co tam trzeba) i retopologia do low czy middle poly

-) potem UVMAP's i oteksturowanie tego (chyba że soft do skanu 3D już sobie radzi nałozeniem tesktur na skan)

-) potem voronoi lub inna symulacja zniszczeń

-) wypalenie animacji (i to pewnie dla różnych LOD w grze)

-) przeniesiene do silnika gry...

-) oskryptowanie co tam się ma dziać

Tak to sobie wyobrażam...więc sam technologia SKAN 3D z TEKSTURAMI nic nie znaczy...jeśli gracz oprócz oglądania ma coś tam robić a najlepiej niszczyć, to mnóstwo pracy przed nimi.

Odnośnik do komentarza
Udostępnij na innych stronach

nie, tm nie bedzie zniszczeń, silnik skanowania jest nieco zbyt prosty. zeby nie bylo ze troluje, ogladałem kanał yt z tegorocznego (2013) siggraph i kanał yt disney lab czy jakos tak i tam widac ogrom pracy nad postprocesem obrazu, tu mamy tylko geometrię i tekstury.

 

Jak autor dopisze postproces wyciagajacy dane z oswietlenia (czyli pewnie dodatkowy obiemtyw IR na dronie) mozna by to oświetlać chociażby - ale o ruszaniu terenem to nawet nie ma mowy. Licze ze nastepne wersje silnika beda to mialy, ale do tej gry nie ma szans tego wdrozyc i tak.

Odnośnik do komentarza
Udostępnij na innych stronach

Ooo ja, napisałeś to już tak konkretnie, że jakakolwiek nadzieją we mnie umarła...Naprawdę nie da rady wyciągać poszczególnych elementów skanów 3D i poddać ich temu procesowi co opisałem punkt po punkcie 2 posty wyżej? Nic? Żadnej nadziei?

Odnośnik do komentarza
Udostępnij na innych stronach

Pół miliona wyświetleń na yt w dwa dni. Zajawki wiedźmina mają podobne osiągi. To fantastyczny wynik i firma ma prawo zacierać ręce. Niektórzy to mają szczęście po prostu :-)

 

Co do reszty dyskusji, to wszystko mi przypomina euclideon. Miały być gry, a skończyło się na gisach.

Odnośnik do komentarza
Udostępnij na innych stronach

Destrukcja była by możliwa, jakby to zrobili na voxelach, a do tego taka chmura punktów uzyskana ze skanu 3D jest całkiem dobrym materiałem do konwersji na voxele. Pozostaje też problem dynamicznego oświetlenia, puki nic się nie rusza jest OK.

Odnośnik do komentarza
Udostępnij na innych stronach

Hris- Nie lubię określenia "milddle-poly". Ten potworek wykluł się przez marketing jakiejś gierki i spece z for o gierkach go podłapali żeby się nim obrzucać w dyskusjach która to konsola ma więcej teraflopów. Nie ma czegoś takiego jak middle-poly, jest źle zoptymalizowane low-poly albo hi-poly ze słabym detalem. Chociaż my graficy trzymajmy się poprawnej terminologii.

Low-poly = realtime w grze lub jako do animacji w viewporcie. Hi-poly = mesh do renderu offline lub wypalenia detali na lowpoly.

Odnośnik do komentarza
Udostępnij na innych stronach

uncle ja podchodze bardzo pozytywnie, to fajna rzecz i pewnie 2ga i 3cia generacja tej idei będzie gniotła suty w realtime, teraz nie mozesz zniszczyć ścany, bo i tak masz jej cień na podłodze. i nie mozesz puścić zadnego cienia na geometrie, bo po pierwsze nie wyliczysz tak miękkich, po drugie nadpiszą się z obecnymi co będzie nienaturalne jak cholera. Ta generacja nie nadaje sie na gre akcji ale widac znalazl sie ktos, kto chce zaryzykować - czemu nie, tacy ludzie pchają technologię do przodu, moze pojawią się niezłe pomysły jak to usprawnić dzięki dodakowym pieniądzom na rozwijanie technologii dla jej twórcy.

Odnośnik do komentarza
Udostępnij na innych stronach

@Monio to wytłumacz mi jak animatorzy robia np. symulacje miesni? Na low poly-nie wiem czy dostatecznie zanimujesz odpowiednie ruchy miesni. Na high poly- pewnie potrzebowalbys niezłego sprzętu do dostatecznie komfortowej pracy. Jest middle poly, tylko nie zostało to nazwane jeszcze oficjalnie.

Odnośnik do komentarza
Udostępnij na innych stronach

Technologia bardzo fajna, ale ma jedno ogromne ograniczenie - da się oddać tylko to, co już istnieje w rzeczywistości. Do gier które dzieją się w opuszczonych halach się nada, ale co jeżeli chcielibyśmy mieć lokacje wokoło zniszczonego komina chłodniczego elektrowni jądrowej - będzie problem ze znalezieniem czegoś podobnego w rzeczywistości.

 

Poza tym (jak na razie - zobaczymy co jeszcze pokażą) to jednak Snowdrop mi się bardziej podoba - całkowicie dynamiczny i nie widać ewidentnie odcinających się obiektów (zdaję sobie sprawę, że różnica w budżetach jest pewnie kolosalna).

Odnośnik do komentarza
Udostępnij na innych stronach

A ja się dziwię po co chłopaki cisną w stronę gier, gdzie inne firmy już wykładają więcej kasy niż wynosi budżet największej krajowej superprodukcji kinowej. A tymczasem przemysł (prawdziwy przemysł a nie, sorry, gierki) chętnie wziąłby gotowy framework do inspekcji obiektów i instalacji. Skoro już chłopaki opracowali metodę na archiwizację ogromnych datatasetów, to teoretycznie wystarczyło by pchnąć sprawy w tym kierunku.

Skanowanie 3D i teksturowanie tego multispektralnymi mapami (IR) to po prostu bajka do takich zadań jak inspekcja stanu powierzchni komina chłodniczego elektrowni, mostów etc.

Odnośnik do komentarza
Udostępnij na innych stronach

@Monio to wytłumacz mi jak animatorzy robia np. symulacje miesni? Na low poly-nie wiem czy dostatecznie zanimujesz odpowiednie ruchy miesni. Na high poly- pewnie potrzebowalbys niezłego sprzętu do dostatecznie komfortowej pracy. Jest middle poly, tylko nie zostało to nazwane jeszcze oficjalnie.

 

Eee... w sumie to dużo bardziej skomplikowane i zależne od riggu może mieć od kilku do kilkunastu warstw. Jestem zmęczony teraz jak chcesz to mogę Ci jutro na priv opisać mniej więcej jak to działa zeby wątku nie śmiecić zbędnymi offtopem

Odnośnik do komentarza
Udostępnij na innych stronach

Hej , Get Even - teaser , powstał w 3 tygodnie morderczej pracy :)

Lecz sama praca nad lokacjami trwałą prawie rok !

, 90% tego co widzimy to czysty render ,są momenty filmowane i te kiedy są postacie ,

zajakiś czas będzie można pograć w demo Get Even i samemu explorowac te lokacje które są na filmie ,

Pozdrawiam wszystkich którym się teaser spodobał i pozostałych też :)

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności