Skocz do zawartości

gryzon

Members
  • Liczba zawartości

    1 284
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    13

Odpowiedzi dodane przez gryzon

  1. Godzinę temu, KLICEK napisał:

    No i naprawde jest kilka fajnych nowych featurek 🙂  np. modelowanie na uvalce, grabowanie detali z timelinu 🙂 no super

    Te narzędzia to totalna kosa. Sculpt na płaskim UV, wielokrotnie fantazjowałem o tym jak by było fajnie gdyby coś takiego istniało że świetne by to było do ciuchów zarówno sculpt jak i malowanie a tu bum i robią to. 😄  Xtractor czyli ten próbnik detalu oparty na historii o którym wspominasz, magia. Detalujemy sobie model który już jest napaćkany detalem i szybko można zrobić alphę bezpośrednio z obiektu wybierając interesujący fragment z historii tworzenia. To jest obłędne i niesamowicie przyśpieszy różne prace. Bardzo spodobał mi się History Recall, zadziwiające że współpracuje on także z meshami zupełnie różnymi od siebie. Maskowanie kolorów polypaintingu i narzędzia do modyfikowania ich sprawią że wreszcie odważniej zacznę używać malowania w ZBrush, chociażby na speedach 🙂  No i oczywiście ten UV unwraper który już kiedyś pokazywali to jest bardzo dobry pomysł. Jeśli będzie wygodny i jeśli będzie miał coś co usprawni pracę na UDIMach (zarządzanie tym). Cóż mogę napisać więcej. Czekam na święta wielkanocne 2020 😄 prawdopodobnie wtedy wypuszczą te zabawki 🙂 

  2. Chłopaki, biorę się ostro do pracy dziś bo mam wolny dzień 🙂 Te gałki muszą zagadać, zachęciliście mnie by dopracować to. Zobaczmy, faktycznie te gałki mam za duże. Początkowo mierzyłem w ZBrush i wszystko było cacy ale potem gałki odbudowałem w Maya jeszcze raz i wtedy musiałem się machnąć. 

    image.png.07fafa7930ad677089bae9a5171a1183.png

  3. Summit uber alles! Zawsze oglądam jak by to była premiera ważnego filmu 🙂 Wielka szkoda że MPC exclusive był. 

    Nowy stuff który się mieli w developmencie Pixologic z roku na rok zaskakuje. Nie mogę się doczekać kiedy będę mógł wypróbować te nowe narzędzia. 

    Zniknął Paul Gaboury, który przeważnie był na tych prezentacjach obecny. Mam nadzieję że nie odchodzi z tej ekipy. Ma świetne prezentacje z cyklu "Did you know that?"

    • Like 1
  4. @Mati-PL Dzięki. Troszkę o tym pisałem wcześniej ale rozpiszę jeszcze. Skóra powstała całkowicie z palca. Tzn. Nazbierałem referencji zbliżeń skóry i szczegółowo rozplanowałem jakie obszary i jakie stemple mi są potrzebne. Potem wyrzeźbiłem pojedyncze pory w high detalu i zrobiłem z nich pieczątki różne na alphach. Mając kilka pędzli z detalem np. skroń, policzek, nos, 3 lub 4 rodzaje zmarszczek, wypryski itd obleciałem całą głowę. Poszczególne elementy detalu separowałem na layerach by móc to tuningować na etapie shadingu. Całość modelu powstawała dobre kilka lat temu więc wtedy ptaszki nie ćwierkały jeszcze o XYZ Textures. Dzisiaj warto to wykorzystać bo ich materiały dają najbardziej realistyczne efekty. 

    Tekstura Diffuse powstała generycznie z tekstur które dał mi sculpt, tj: AO, Cavity, Normal, itd. Bardzo istotnym elementem przy produkcji super realistycznych skór jest pokrycie się wszystkich informacji na kanałach Diffuse, SSS, Roughness, Specular itd. Chodzi o to że jeśli masz bardzo realistyczny sculpt z realistycznym detalem porów to musisz wyciągnąć z niego maximum informacji by zbudować teksturę generyczną opartą na detalu rzeźby porów. (AO, Cavity, Normal itd, Substance Painter bardzo przyśpiesza taką pracę)  To co powinno być artystycznie/ręcznie domalowane to skintone czyli rozróżnienie koloru obszarów skóry, plamki, przekrwienia, żyłki itd (wszystkie kolorystyczne niedoskonałości) W efekcie jesteś w stanie stworzyć sobie template do głowy który potem tylko przerzucasz pomiędzy modelami, nieznacznie go modyfikując. Pozostałe tekstury czyli: roughness, specular, SSS, SSSWeight itd. oraz wszelki tekstury do sterowania porostem włosów namalowałem w MARI. Ten soft w wielu przypadkach daje większą kontrolę podczas malowani i projekcji tych malunków na model. Uwielbiam ten program i polecam Ci go poznać. (jest to soft bardzo technologicznie zaawansowany i raczej kierowany do specjalistów więc może odstraszać trochę mnogością opcji) 

    Problem shadingu skóry jest bardzo złożony ponieważ składa się na niego wiele czynników: poprawnie spasowane tekstury i odpowiednio podłączone do shadera, oświetlenie do renderingu, otoczenie które odbija się w skórze. Polecam Ci zacząć interesować się Wiki Human Project Masz tam do pobrania model z poprawnym modelem i mapami. Na tym przykładzie możesz sobie przerobić tutoriale od Arvid Schneidera (polecam Ci jego kanał na YouTube), dowiesz się z nich jak poprawnie podłączyć mapy do shadera oraz jak to wszystko działa. Im dłużej będziesz pracował z shaderami SSS i teksturami tym więcej będziesz z tego rozumiał. Osobno zainteresuj się oświetlaniem modelu, dowiedz się jak oświetla się portrety, jak przygotować poprawnie mapy odbić z odtoczenia itd. 

    Jeśli chodzi o silniki renderujące to uważam że na każdym z tych topowych jesteś w stanie wycisnąć podobne efekty, różnicą będą czasy renderingu. 

    @michalo Dzięki bardzo za Twoją opinię. Czy mógłbyś sprecyzować czy chodzi ci o shading czy ogólnie o ich osadzenie, kształt powiek itd? Oczy w modelu portretu są niesamowicie istotne i źle przygotowane mogą zepsuć cały efekt. Ja za długo już patrzę na ten model i całkowicie się zatraciłem. Oczy zrobiłem na dwóch sferach. Zewnętrzna to Cornea i posiada soczewkę przez którą widać wewnętrzną sferę na której jest materiał Iris. Do niej zastosowałem XYZ Texture obraz Irisa i displacement do niego. Uczyłem się gałki robić od Arvid Schneidera Ma kilka fajnych tutoriali na ten temat, ja zmodyfikowałem tylko Iris by mieć go na displacemencie. 

     

    Oczy

    harry_wip_v032.thumb.jpg.3e57496fa3de883c1dd67f75e568fce3.jpg

     

    @J|L  Dzięki bro! 🙂 

    • Like 1
    • Thanks 2
  5. Oświetlenie

    Przydatne w pracach oświetleniowych są wiadomości z zakresu fotografiki i oświetlania portretów. Warto ćwiczyć setupy oświetleniowe w silnikach do renderowania

    harry_wip_007.thumb.jpg.1e96bfa53cf58ea01382819d8296284c.jpg

     

    Rzeźba skóry

    Tutaj możemy zobaczyć jak podzieliłem sobie prace ze skórą by móc tuningować to na etapie shadingu. 

    harry_wip_002.thumb.jpg.9b476731b9d230c3820c6a67baf514b3.jpg

     

    Mix warstw

    I mix wszystkich layerów. Fajnym patentem na dodanie realizmu po nałożeniu skóry jest dodanie passów które nadają różne deformacje i niedoskonałości. Wydaje mi się że tego typu separacja mogła by się sprawdzić w mieszaniu jej w silniku w trybie add na kanale Displacement.  

    harry_wip_003.thumb.jpg.7821e3dee5fee990337a7bea74bb8e7e.jpg

     

    Finalny sculpt

    harry_wip_004.thumb.jpg.0d0736592a68f65e8a4b5e5fe129cf0a.jpg

     

    • Like 6
  6. Dzięki! 

    Na ten moment kończę prace z włosami, skórą i wracam do ubrań i całego ekwipunku. Pokażę zbliżenie. Ultra realizmu tutaj nie ukręciłem, miejcie na uwadze że struktura skóry powstała całkowicie ręcznie. Tzn. wszystkie stemple do skóry zostały najpierw wyrzeźbione w oparciu o referencje a następnie wykorzystane do stworzenia pędzli. Dziś zastępuje to XYZ Textures który daje rewelacyjne rezultaty. Z XYZ mam tutaj tylko tęczówkę oka diffuse i discplacement. 

     

    harry_wip_v025.thumb.jpg.b6c2173ab21509fc4812b145771d6a03.jpg

    harry_wip_v026.thumb.jpg.16dd06ab024717211fb13b0848abcf8c.jpg

     

    Inne stany oświetlenia

    harry_wip_v027.thumb.jpg.c38d43cd7ad42d21779acc4e365c166c.jpg

    harry_wip_v028.thumb.jpg.887930dfae573e677887051ad1a1a5cf.jpg

    harry_wip_v029.thumb.jpg.d89d950219abeafc90bf7eb7e0601ac1.jpg

    harry_wip_v030.thumb.jpg.f460726b94196ddba0814e55bf7ae793.jpg

     

     

     

  7. Ja osobiście staram się pisać/komentować i wrzucać też swoje ostatnie wypociny. Jeśli młodych przybędzie to obiecuję coś komentować więcej. Nawet zdążyłem zauważyć że działa nas tutaj bardzo ograniczone grono. Reklamowałem was też na swoim mizernym koncie pracowniczym na FB, którego coraz bardziej już ostatnio nie znoszę 😄 (reklamy, śmieci mizerny content), i nie wiem czy całkowicie nie zrezygnuję z tego portalu na rzecz różnych for dyskusyjnych. 

    Speedpainting i speedsculpting. Brakowało mi tego bardzo i w końcu sam sobie zacząłem te challange robić ale jeśli wrócą tutaj wezmę udział. Bitwy były naprawdę fajne, brakuje tego. 

    Piszą tutaj osoby że czasy się zmieniły trochę, może i prawda ale myślę że musicie się trochę uzbroić w cierpliwość i liczę że ludzie tutaj wrócą. Świetne były z waszej strony spotkania  z twórcami które były streamowane. Może to też jest dobry punkt zaczepny by promować to forum i skupiać tutaj ludzi którzy chcą się czegoś wartościowego dowiedzieć. 

     

    • Like 3
  8. Teraz zastosowałem ostatnio poznane wiadomości z ID do mojej fryzury. Fryzurę jeszcze trochę poprawiłem by nie były kosmyki zbyt mocno sklejone poprzez rozpuszczenie ich (parametr flyaway) i dodanie jeszcze jednego toru włosów bardziej rozczochranych które łączą się potem z całą fryzurą, shader też zrobił swoje i zmiękczył wszystko, jak przypuszczałem. Siwe włosy naliczam z ID pod kontrolą dodatkowej mapy namalowanej w MARI. Tym razem shading z użyciem aiStandardHair. 

    SHADER. aiStandardHair. Na początku ustalam kolor i mnożę go z ID odsaturowanym by uzyskać wariacje jasności każdego włosa. Dodatkowo rampą domnażam ciemniejszy kolor włosa u nasady i dodaję jasny kolor na końcu każdego włosa. Ten wariant wpada to switcha 0. Drugi wariant to bardzo jasne włosy (siwe) również rozróżnione za pomocą ID i podłączone do switcha 1. Switchem steruje ID poprzez aiRange. Do parametru który nalicza włosy w aiRange podłączam teksturę namalowaną w MARI. Zaletą tego rozwiązania jest to, że ta tekstura nie musi być jakaś bardzo precyzyjna i da się używać samych gradientów. Ja prócz gradientów dodałem też jakieś inne mniejsze plamy by zintensyfikować efekt miejscowo. (wiadomo natura siwizny jest bardzo różna u różnych ludzi). Kolor włosów jest ciemno szary, ich naturalniejszy look uzyskałem dodając w shaderze melaniny. By siwe włosy nie wyglądały mi potem jak kolor blond to  musiałem odciąć melaninę od siwych włosów budując drugi tor ze switchem który używa tego samego aiRange. Różnicę w drzewie nodów zobaczycie pomiędzy screenem pierwszym i drugim. 

    To tyle zabaw na dzisiaj. Jedną klatkę renderuję do 13 min na dwóch Xeonach w 48 wątkach. Robię obrotówkę na 30 klatek by sprawdzić jak to wygląda, zajmie to jakieś 6,5 godziny. Już niedługo połączę poprzednie efekty renderingu skóry, włosów i wybranych wariantów oświetlenia. Potem wracam do teksturowania tkanin i powolutku finalizowania postaci. 

     

    Surowy kolor

    harry_wip_v024.thumb.jpg.4d0cbd605491010907d00ffcfd4f255c.jpg

     

    Przepuszczone przez aiStandardHair

    harry_wip_v023.thumb.jpg.99c531324b6d3206b9090ea1b0c7f327.jpg

     

    I jeszcze 13 minutówka. 

    harry_wip_v022.thumb.png.b8f994eb19133b8e53489c6f8dedb95b.png

    • Like 3
  9. 43 minuty temu, Maciek Jutrzenka napisał:

    kurcze zarąbista sprawa... A czy ktoś wie czy jest coś takiego na linuxa? w sumie znalazłem jakieś apki dam edita jak coś potestuje

    A Ty teraz tylko na linuxie urzędujesz? 

  10. Potrzebuję się dowiedzieć w jaki sposób mogę zarządzać Constraints. Prawdopodobnie mógłbym je zobaczyć outlinerze ale pewnie trzeba jakiś filtr włączyć. 

  11. Pełen szacunek. Pamiętam czasy jak jeszcze tylko gadałeś o tym jaki to interesujący soft i na Blenderze trzaskałeś jakiś proceduralizm, a teraz takie rzeczy pokazujesz. Brawo gościu. Właściwie to dwóch ludzi mnie tutaj na forum zainspirowało do hobbystycznej nauki tego softu, ty i @Destroyer. Testuję sobie na nim teraz jakieś mega proste przypadki, ostatni wizualny programing miałem na ICE w Softimage XSI tam też pięknie to działało. 

    • Like 2
  12. Ja np. uwielbiam komentować nie 3dmaxa tylko Autodesk 🙂 Skorzystam z tej opcji.🙂

    Gdyby w tej firmie naprawdę pracowali artyści lub ludzie którzy z artystami mają kontakt to takie programy jak 3dmax czy Maya, Mudbox znacząco by się rozwinęły a soft taki jak Softimage XSI dalej był by używany w wielu studiach a nie został skasowany lub rozkładany na kawałki (bifrost). W obecnych czasach czyli po przejęciu przez garniturowców mają jeden wspólny mianownik, są zaniedbywane lub sztucznie rozwijane poprzez nieumiejętną implementację coraz nowych wtyczek, z kolei problemy, bugi są wciąż pomijane. 

    Myślę że Blenderowcy nie mają kompleksów, to po prostu społeczność która tworzy coś w opozycji do monopolistycznych i korporacyjnych zapędów. (open source)

    Ja to widze tak, jeśli w organiźmie jest rak, to muszą też być przeciwciała które spróbują z nim walczyć 🙂 Kto zwycięży? Ja mam nadzieję że nie ci garniturowcy.....

    • Like 1
  13. Dźwigaj poziom, uwierz mi że masz co robić. Na character artystę za wcześnie jeszcze dla Ciebie. Próbuj piłować dużo realistyczniejsze assety do gier video na nowoczesne silniki. Unreal/Unity itd. Ćwicz prezycyjniejsze modelowanie hipoly. Naucz się robić szybkie assety robiąc hi i low za jednym zamachem. Ucz się PBR, obserwuj prawdziwe materiały i staraj się oddać je w taki sam sposób w silniku. W między czasie ćwicz anatomię i ubrania na boku jeśli chcesz się wywindować na character artystę. Do gier najszybciej coś można zarobić, jeśli masz smaki na filmy to musisz windować poziom jeszcze wyżej by sprostać wymogom na fotorealizm. 

    Z drugiej strony powiem Ci że najlepsi freelancerzy też zmagają się z tematem taniego outsourceu ze wschodu. Taki jest świat, taki jest rynek i dlatego najrozsądniej jest spakować walizy i jechać na zachód. Zanim to jednak zrobisz doszlifuj poziom. I pamiętaj, nigdy się nie poddawaj. 

    • Like 3
  14. @Tvaroog Rzerzywiście nie ma. Tylko na starcie jest. Może kiedyś pójdą bardziej w relacyjność i proceduralizm. Patrząc na filozofię Blendera to musiało by być AddModifier/Primitive i tam była by opcja wyboru. Niestety nie mam jeszcze zbyt dużego pojęcia o relacyjności w Blenderze. Podobała mi się konstrukcja w relacyjności w XSI, nie wiem jak to w Maya działa. 

  15. Wreszcie mam rozwiązanie do shadingu siwych włosów by wchodziły naliczane procentowo poprzez ID i sterowane mapą. Zaraz wyjaśnię jak to działa.

    Yeti

    Poniżej widzimy Nody Yetiego. Na końcu łańcucha włosów które chciałem mieć z ID wstawiłem "attribute3". Zamiast koloru wstawiona jest tam funkcja cvoronoi(id). Losuje ona kolor dla każdego włosa. W tym samym oknie w zakładce Mapping zaznaczamy "Map As Renderable Attribute". Dzięki temu efekt losowego koloru włosów mam do załadowania w Hypershade za pomocą noda aiUserDataColor. 

    Hypershade

    W shadingu mam dwa rodzaje koloru włosów base1, base2. Oba efekty mają parę wariacji kolorystycznych używając ramp po długości włosów. (każdy włos w zależności od stworzenia ma swoją specyficzną barwę u nasady, w środku i na końcu włosa)  Oba warianty wpadają do aiSwitch. W aiSwitch indexem steruje aiRange do którego wpada informacja z Yetiego "long" za pomocą aiUserDataColor (ID kolorowe włosy). Miałem trochę zabawy ze znalezieniem odpowiednich parametrów granicznych w aiRange w taki sposób abym jego parametrem od 0 do 1 sterował płynnie naliczaniem włosów białych. I ten parametr to jest OutputMin, więc podłączyłem sobie do niego rampę która działa jak maska na UV. Na samym końcu po za switchem domiksowuję jeszcze inny rodzaj kręconych i cieńszych białych włosków "short" których maskę mam też z Yetiego poprzez przeniesienia "Map As Renderable Attribute". 

    Tak pokolorowane włosy lecą dopiero do aiStandardHair. W shaderze warto było by jeszcze pobawić się rozróżnieniem refleksów, i wyważeniem weight diffusea, za pomocą rampy po długości włosów i jakiejś losowości + maski z obszarami ciała. 

     

     

    harry_wip_v017.png

    harry_wip_v019.JPG

    harry_wip_v018.jpg

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności