Skocz do zawartości

Levus

Members
  • Liczba zawartości

    4 054
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    24

Odpowiedzi dodane przez Levus

  1. Z tą szczęką to Pirat ma rację, za nisko osadzona. Zobacz na nosek, na refce ma delikatniejszy i nieco krótszy nos, przez przedłużenie nosa poszła Ci szczęka w dół. Ale też sprawdź na tych refkach modelowych.

    I że szyja to zło to Ci pisałem:p

  2. Nie wiem o co chodzi z tą symetrią, ale odkąd używam GoZ problemy związane z importem/exportem w zasadzie zniknęły.

    Może reset xform przed exportem z zewnętrznego softu będzie potrzebny i ustawienie modelu symetrycznie w świecie?

     

    A maksymalny podział siatki zależy od ustawienia ile max poly możesz pociągnąć, jeśli pierwszy subdiv ma 25k poly, to drugi będzie miał 100k, trzeci 400k a czwarty 1,6mln itd. Jeśli natomiast pierwszy ma 100k to czwarty już będzie miał 6,4mln a piąty 25mln.

    Jeśli w preferences->mem->max poly per mesh masz ustawione na 20 (czyli 20mln) to nie wskoczysz na 5 poziom bez podniesienia tej wartości.

  3. Ilość polygonów w dynamesh zależy od skali modelu, co jest bardzo lipne ale chyba nie poprawili tego jeszcze.

     

    Co do trójkątów w meshu, żeby to miało ręce i nogi i to pozostaje chyba tylko retopologia by zrobić ładną siateczkę i reprojekcja detalu. Autoquadowanie można zrobić np poprzez zagęszczenie o jeden poziom i skasowanie poprzedniego, wówczas z każdego trisa zrobią się 3 quady, no ale nie zrobisz rekonstrukcji niższych poziomów.

  4. Zrobiłem małe rozeznanie i w niektórych przypadkach takie rozwiązanie ma sens, ale są plusy i minusy.

    Podobna technika została zastosowana w Rage'u.

     

    To najpierw plusy:

    +trochę szybszy czas produkcji otoczenia i oświetlenia

    +możliwość bardzo ładnego oświetlenia lokacji przez renderer w stosunku do oświetlenia in-engine (ale czy na pewno?)

    +możliwość customowego podmalowania całości

     

    Minusy teraz:

    -Strata na mapowaniu, od 30% do 75% na texturze -> olbrzymie textury

    -bardzo duży texel, co się odbije na jakości w przypadkach fps (patrz rage i obiekty z bliska)

    -niemożliwe jest oświetlenie dynamiczne na otoczeniu (obiekty otoczenia są self iluminated) i utrudnione jest oświetlanie obiektów ruchomych przez dobre zgranie światła in-engine ze światłem wypalonym

     

    Generalnie technika klasyczna wygrywa, i jednak wcale tak czasu produkcji nie podnosi.

    Popatrzmy:

    W obu przypadkach trzeba zmodelować i otexturować domek.

    W przypadku klasycznym poświęcamy nieco więcej czasu na mapowanie, zyskujemy większą rozdzielczość texela niż z mapowania automatycznego. Na samo texturowanie poświecamy tyle samo czasu.

    W obu przypadkach trzeba level zbudować, zajmuje to tyle samo.

    W oby przypadkach trzeba level oświetlić.

    Można to zrobić raz-dwa za pomocą skylighta w rendererze i ewentualnie paru omników i wypalić na chama do 20 textur.

    Można tak samo oświetlić za pomocą skylighta i paru omników i wypalić do jednej wielkiej textury 2k lub 4k samo światło i ambient occlusion (czyli światło na RGB a AO na alphie np żeby przyoszczędzić, nie wiem czy unity tak obsłuży).

     

    Wsadzamy level z obu przypadków do unity porównajmy efekty:

     

    technika klasyczna:

    +większa rozdzielczość texela (przy nieco wiekszej ilości poświęconego na mapowanie czasu, jednak gdy zastosujemy pipeline do produkcji enviro, który kiedyś zaprezentował na forum gutekfiutek, to nawet będziemy do przodu;) )

    +dynamiczne oświetlenie

    -brak customowego malowania

     

    technika wypiekania całości:

    +możliwość customowego malowania textur

    -brak dynamicznego oświetlenia

    -dużo więcej textur

     

    pozdrawiam!

     

     

    EDIT:

    Ogólnie to, lightmapy musza byc unikalne dla kazdego obiektu, wiec ta opcja nie wchodzi w gre. Rzecz sprowadza sie raczej do tego, ze lightmapy mozna duzo bardziej agresywnie kompresowac, maja zazwyczaj mja tez bardzo mala rozdzielczosc i sa zbijane w atlasy (lightmapy maja rozdzielczosc od 16 do 128, w ekstremalnych przypadkach 512).

     

    Niekoniecznie, możesz wypalić cały level na drugim kanale uv na jedną texturę (lub więcej oczywiści), zależy od silnika.

     

    A, czyli to samo Chrupek też napisał. Różne lightmapy dla tych samych obiektów:) Tylko każdy inaczej to ujął:)

    • Like 1
  5. Ludzie, litości, ja się pytałem o to w lipcu 2009:D

    Kupiłem ostatecznie jakiegoś panasonica z hdd, czego żałuję, bo teraz mam aparat kieszonkowy za 800zł z lepszym video, ale cóż, bywa.

     

    Teraz jakbym miał coś takiego kupować, to bym wybrał lustrzankę canona. Pozatem obecnie canonów używa się jako kamer również w profesjonalnych zadaniach.

     

    A co do hollywood, to nie kręci się red'ami przypadkiem teraz?

  6. Nie no powinien wytrzymać:) Nie znam akurat tutka. Chodzi o to by wyrenderować parę białych kropek jako osobny pass i je później rozmyć w szopie. A wyrenderować po to by mieć głębię.

    Może są też jakies pluginy czy shadery do kamer fizycznych które potrafią generować kurz.

  7. Dość prosta metoda na aberrację:

    -renderujemy zdepth

    -kopiujemy render na nową warstwę w szopie i używamy filtra distort->lens correction i kręcenie (ale delikatnie, z głową) parametrami od aberracji.

    -zdepth używamy do selekcji by aberacja działała mocniej według głębi obrazka

     

    Można też to zrobić w afterku, jest parę tutków sieci i tu również zdepth będzie przydatny.

     

    Co do kurzu, można ściągnąć gotowy obrazek z białym kurzem na czarnym tle i nałożyć jako warstwę w trybie mieszania screen lub linear dodge (addytywnie). Albo puścić na scenę chmurę drobniutkich partikli, wyrenderować osobno i rozmyć w szopie.

     

    Ogólnie jest wiele metod na rozwiązanie obu tych problemów, pomyszkuj w sieci.

    Poszukaj też jak zrobić poświaty (glow lub bloom można również zrobić łatwo w szopie za pomocą rozmytej zkontrastowanej kopii obrazka w trybie mieszania screen), oraz o efekcie soczewkowym bokeh.

     

    Zakorciło mnie coś i pozwoliłem sobie popróbować tak dla zabawy, mam nadzieję, że się nie obrazisz:)

  8. Bardzo uprościłeś bryłę lowpoly w stosunku do hipoly, (np na klatce) a polycount strasznie wysoki.

    Można było parę detali powyciągać na geometrii a nie tak pakować aby więcej dookoła nogi:)

    Na klatce ogólnie bardzo rzadziutko, a na nogach gęsto, tak samo na twarzy zdecydowanie za gęsto.

    Postać pod względem bryły na pierwszy rzut oka wygląda na 6k spokojnie i więcej nie ma sensu pchać.

     

    Proporcje bryły leżą i kwiczą, nieforemna klatka piersiowa, nieforemna miednica, rączki nisko wyrastają.

    Ja wiem, że Ty to budowałeś na gołej postaci, ale czasem trzeba troche pooszukiwać z umiejscowieniem i wielkością niektórych elementów zbroi a nie poobkładać detalem i samo wyjdzie, bo jednak nie zawsze wyjdzie.

     

    Generalnie fajnie wydziergałeś detal, jednak za szybko zostawiłeś za sobą proporcje i bryłę, a to połowa sukcesu.

    Dobrze zrobiona bryła i proporcjonalne względem siebie elementy ją budujące, poprawna poza neutralna (która też dodaje modelowi życia i charakteru o dziwo) może zając nawet 50% i więcej czasu całej pracy nad modelem.

    A taka gearsowa stylizacja to wogóle jest wymagająca pod tym względem.

     

    Co do samego detalu niektóre elementy pancerza, np naramiennik czy płytki na przedramionach zrobiłbym grubsze, bardziej "tłuste".

    Za małe rączki, zarówno same dłonie i "paluszki" chudziutkie, dalej też, całe ręce jednak za wątłe jak na takiego bydlaka.

     

    pozdrawiam i powodzenia z texami!

    • Like 1
  9. Mi się za to wykonanie decarda nie podoba.

    Na koncepcie jest dużo bardziej odjechany, psychodeliczny.

    A tu w filmie to taki stary poczciwy dziadzio skryba, a wystarczyło włoski zbliżyć do konceptu i byłby lepszy efekt o niebo.

    Eh.. a laska za to jak Sintel wygląda:D

     

    W każdym razie.. ja już chcę grać a tu końca nie widać, można się pochlastać,

    tym razem uważam blizzard przesadza z tym hype'm:D

  10. Sytuacja zupełnie nie dziwna:)

     

    Może został wybrany kandydat, który jest od Ciebie tańszy, umie mniej, ale jak na potrzeby danej firmy to wystarczy?

    Albo skoro znasz np. maxa to wybrali tego co zna maye bo uznano, że tak będzie lepiej?

    Albo pracę dostał ktoś, kto się zgłosił, a o którym nie wiedziałeś? Albo ktoś zarekomendowany jako wartościowy pracownik?

    Może po prostu nie przypadłeś do gustu jako osoba?

     

    Jest wiele wytłumaczeń, ja bym się tam nie zastanawiał, tylko szukał dalej...

  11. Jak modelujesz do animacji to powinny być tylko quady. Quad może się deformować w dwóch kierunkach (możesz namalować dwie przekątne), trójkąt tylko w jednym. Co ostatecznie prowadzi do powstania mniejsze ilosci artefaktów, i można łatwiej zapanować nad tym co się dzieje.

    Absolutnie należy unikać więcej niż 4 vertexów. ngony powoduja całkowicie nieprzewidywalne deformacje (np. facy mogą na siebie zacząć nachodzić, albo edge).

    Przerabiać na trójkąty nie ma sensu. Każdy sensowny eksporter/importer do silnika sam to zrobi ;p.

    To ja rozwinę..

     

    Nie muszą być tylko quady, zależy gdzie, zarówno jak modelujesz pod gameart czy pod subdivision.

    Powyżej 4 vertexów to się zgodzę, jednak też są wyjątki, czasami w modelowaniu subdivision n-gony ułatwiają smoothowanie, jednak później nie wszystkie programy przełkną n-gony.

    Oczywiście, że należy unikać trójkątów w pewnych miejscach i ogólnie układania geometrii w sposób utrudniający lub nawet umiemożliwiający animację. Ale używanie samych quadów nie powoduje zmniejszenia ilości artefaktów w kształcie geometrii, lecz zwiększenie, gdyż komputer dzieli quady na trisy według własnego uznania co się czasami przekłada na kształt.

     

    Procek czyta trójkąty, więc czy przy eksporcie zostawisz quady czy przkonwertujesz na trisy, nie ma żadnego znaczenia, z pewnymi wyjątkami, gdzie kierunek dzielenia quada na dwa trójkąty może powodować brzydkie wcięcia.

    Kierunki triangulacji można ustawić niekoniecznie konwertując model na trójkąty, ale np w maxie w trybie edycji edge jest opcja TURN, dzięki której nieładne edge można przekręcić, nie konwertując całego modelu na trójkąty.

     

    W załączniku przykład po co robić triangulację ręcznie w niektórych miejscach

    (to samo położenie vertexów, dwa różne kształty)

    • Confused 1
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności