-
Liczba zawartości
1 284 -
Rejestracja
-
Ostatnia wizyta
-
Wygrane w rankingu
13
Typ zawartości
Profile
News
Forum
Kalendarz
Odpowiedzi dodane przez gryzon
-
-
Chłopaki, biorę się ostro do pracy dziś bo mam wolny dzień 🙂 Te gałki muszą zagadać, zachęciliście mnie by dopracować to. Zobaczmy, faktycznie te gałki mam za duże. Początkowo mierzyłem w ZBrush i wszystko było cacy ale potem gałki odbudowałem w Maya jeszcze raz i wtedy musiałem się machnąć.
-
Świetna robota. Widać że się rozwijasz. Te postacie bardzo ożywiają to żelastwo 🙂 To co mi się bardzo podoba, to jakość ubrań, pozy, ekspresja twarzy. Wiem że robisz pod druki ale może znajdziesz jeszcze trochę czasu by się bawić w teksturowanie i oświetlanie tego?
- 1
-
@michalo Ta tablica powinna nieco zachęcić cię to oglądnięcia ich prezentacji
Każde z omawianych narzędzi to po prostu kolejna woda na młyn kreatywnego mózgu. Ja za każdym razem jak oglądam ich prezentację i widzę co oni robią z tym programem to biję brawo w pusty pokój 🙂
- 1
- 1
-
Summit uber alles! Zawsze oglądam jak by to była premiera ważnego filmu 🙂 Wielka szkoda że MPC exclusive był.
Nowy stuff który się mieli w developmencie Pixologic z roku na rok zaskakuje. Nie mogę się doczekać kiedy będę mógł wypróbować te nowe narzędzia.
Zniknął Paul Gaboury, który przeważnie był na tych prezentacjach obecny. Mam nadzieję że nie odchodzi z tej ekipy. Ma świetne prezentacje z cyklu "Did you know that?"
- 1
-
@Mati-PL Dzięki. Troszkę o tym pisałem wcześniej ale rozpiszę jeszcze. Skóra powstała całkowicie z palca. Tzn. Nazbierałem referencji zbliżeń skóry i szczegółowo rozplanowałem jakie obszary i jakie stemple mi są potrzebne. Potem wyrzeźbiłem pojedyncze pory w high detalu i zrobiłem z nich pieczątki różne na alphach. Mając kilka pędzli z detalem np. skroń, policzek, nos, 3 lub 4 rodzaje zmarszczek, wypryski itd obleciałem całą głowę. Poszczególne elementy detalu separowałem na layerach by móc to tuningować na etapie shadingu. Całość modelu powstawała dobre kilka lat temu więc wtedy ptaszki nie ćwierkały jeszcze o XYZ Textures. Dzisiaj warto to wykorzystać bo ich materiały dają najbardziej realistyczne efekty.
Tekstura Diffuse powstała generycznie z tekstur które dał mi sculpt, tj: AO, Cavity, Normal, itd. Bardzo istotnym elementem przy produkcji super realistycznych skór jest pokrycie się wszystkich informacji na kanałach Diffuse, SSS, Roughness, Specular itd. Chodzi o to że jeśli masz bardzo realistyczny sculpt z realistycznym detalem porów to musisz wyciągnąć z niego maximum informacji by zbudować teksturę generyczną opartą na detalu rzeźby porów. (AO, Cavity, Normal itd, Substance Painter bardzo przyśpiesza taką pracę) To co powinno być artystycznie/ręcznie domalowane to skintone czyli rozróżnienie koloru obszarów skóry, plamki, przekrwienia, żyłki itd (wszystkie kolorystyczne niedoskonałości) W efekcie jesteś w stanie stworzyć sobie template do głowy który potem tylko przerzucasz pomiędzy modelami, nieznacznie go modyfikując. Pozostałe tekstury czyli: roughness, specular, SSS, SSSWeight itd. oraz wszelki tekstury do sterowania porostem włosów namalowałem w MARI. Ten soft w wielu przypadkach daje większą kontrolę podczas malowani i projekcji tych malunków na model. Uwielbiam ten program i polecam Ci go poznać. (jest to soft bardzo technologicznie zaawansowany i raczej kierowany do specjalistów więc może odstraszać trochę mnogością opcji)
Problem shadingu skóry jest bardzo złożony ponieważ składa się na niego wiele czynników: poprawnie spasowane tekstury i odpowiednio podłączone do shadera, oświetlenie do renderingu, otoczenie które odbija się w skórze. Polecam Ci zacząć interesować się Wiki Human Project Masz tam do pobrania model z poprawnym modelem i mapami. Na tym przykładzie możesz sobie przerobić tutoriale od Arvid Schneidera (polecam Ci jego kanał na YouTube), dowiesz się z nich jak poprawnie podłączyć mapy do shadera oraz jak to wszystko działa. Im dłużej będziesz pracował z shaderami SSS i teksturami tym więcej będziesz z tego rozumiał. Osobno zainteresuj się oświetlaniem modelu, dowiedz się jak oświetla się portrety, jak przygotować poprawnie mapy odbić z odtoczenia itd.
Jeśli chodzi o silniki renderujące to uważam że na każdym z tych topowych jesteś w stanie wycisnąć podobne efekty, różnicą będą czasy renderingu.
@michalo Dzięki bardzo za Twoją opinię. Czy mógłbyś sprecyzować czy chodzi ci o shading czy ogólnie o ich osadzenie, kształt powiek itd? Oczy w modelu portretu są niesamowicie istotne i źle przygotowane mogą zepsuć cały efekt. Ja za długo już patrzę na ten model i całkowicie się zatraciłem. Oczy zrobiłem na dwóch sferach. Zewnętrzna to Cornea i posiada soczewkę przez którą widać wewnętrzną sferę na której jest materiał Iris. Do niej zastosowałem XYZ Texture obraz Irisa i displacement do niego. Uczyłem się gałki robić od Arvid Schneidera Ma kilka fajnych tutoriali na ten temat, ja zmodyfikowałem tylko Iris by mieć go na displacemencie.
Oczy
@J|L Dzięki bro! 🙂
- 1
- 2
-
Oświetlenie
Przydatne w pracach oświetleniowych są wiadomości z zakresu fotografiki i oświetlania portretów. Warto ćwiczyć setupy oświetleniowe w silnikach do renderowania
Rzeźba skóry
Tutaj możemy zobaczyć jak podzieliłem sobie prace ze skórą by móc tuningować to na etapie shadingu.
Mix warstw
I mix wszystkich layerów. Fajnym patentem na dodanie realizmu po nałożeniu skóry jest dodanie passów które nadają różne deformacje i niedoskonałości. Wydaje mi się że tego typu separacja mogła by się sprawdzić w mieszaniu jej w silniku w trybie add na kanale Displacement.
Finalny sculpt
- 6
-
Dzięki!
Na ten moment kończę prace z włosami, skórą i wracam do ubrań i całego ekwipunku. Pokażę zbliżenie. Ultra realizmu tutaj nie ukręciłem, miejcie na uwadze że struktura skóry powstała całkowicie ręcznie. Tzn. wszystkie stemple do skóry zostały najpierw wyrzeźbione w oparciu o referencje a następnie wykorzystane do stworzenia pędzli. Dziś zastępuje to XYZ Textures który daje rewelacyjne rezultaty. Z XYZ mam tutaj tylko tęczówkę oka diffuse i discplacement.
Inne stany oświetlenia
-
Ja osobiście staram się pisać/komentować i wrzucać też swoje ostatnie wypociny. Jeśli młodych przybędzie to obiecuję coś komentować więcej. Nawet zdążyłem zauważyć że działa nas tutaj bardzo ograniczone grono. Reklamowałem was też na swoim mizernym koncie pracowniczym na FB, którego coraz bardziej już ostatnio nie znoszę 😄 (reklamy, śmieci mizerny content), i nie wiem czy całkowicie nie zrezygnuję z tego portalu na rzecz różnych for dyskusyjnych.
Speedpainting i speedsculpting. Brakowało mi tego bardzo i w końcu sam sobie zacząłem te challange robić ale jeśli wrócą tutaj wezmę udział. Bitwy były naprawdę fajne, brakuje tego.
Piszą tutaj osoby że czasy się zmieniły trochę, może i prawda ale myślę że musicie się trochę uzbroić w cierpliwość i liczę że ludzie tutaj wrócą. Świetne były z waszej strony spotkania z twórcami które były streamowane. Może to też jest dobry punkt zaczepny by promować to forum i skupiać tutaj ludzi którzy chcą się czegoś wartościowego dowiedzieć.
- 3
-
Teraz zastosowałem ostatnio poznane wiadomości z ID do mojej fryzury. Fryzurę jeszcze trochę poprawiłem by nie były kosmyki zbyt mocno sklejone poprzez rozpuszczenie ich (parametr flyaway) i dodanie jeszcze jednego toru włosów bardziej rozczochranych które łączą się potem z całą fryzurą, shader też zrobił swoje i zmiękczył wszystko, jak przypuszczałem. Siwe włosy naliczam z ID pod kontrolą dodatkowej mapy namalowanej w MARI. Tym razem shading z użyciem aiStandardHair.
SHADER. aiStandardHair. Na początku ustalam kolor i mnożę go z ID odsaturowanym by uzyskać wariacje jasności każdego włosa. Dodatkowo rampą domnażam ciemniejszy kolor włosa u nasady i dodaję jasny kolor na końcu każdego włosa. Ten wariant wpada to switcha 0. Drugi wariant to bardzo jasne włosy (siwe) również rozróżnione za pomocą ID i podłączone do switcha 1. Switchem steruje ID poprzez aiRange. Do parametru który nalicza włosy w aiRange podłączam teksturę namalowaną w MARI. Zaletą tego rozwiązania jest to, że ta tekstura nie musi być jakaś bardzo precyzyjna i da się używać samych gradientów. Ja prócz gradientów dodałem też jakieś inne mniejsze plamy by zintensyfikować efekt miejscowo. (wiadomo natura siwizny jest bardzo różna u różnych ludzi). Kolor włosów jest ciemno szary, ich naturalniejszy look uzyskałem dodając w shaderze melaniny. By siwe włosy nie wyglądały mi potem jak kolor blond to musiałem odciąć melaninę od siwych włosów budując drugi tor ze switchem który używa tego samego aiRange. Różnicę w drzewie nodów zobaczycie pomiędzy screenem pierwszym i drugim.
To tyle zabaw na dzisiaj. Jedną klatkę renderuję do 13 min na dwóch Xeonach w 48 wątkach. Robię obrotówkę na 30 klatek by sprawdzić jak to wygląda, zajmie to jakieś 6,5 godziny. Już niedługo połączę poprzednie efekty renderingu skóry, włosów i wybranych wariantów oświetlenia. Potem wracam do teksturowania tkanin i powolutku finalizowania postaci.
Surowy kolor
Przepuszczone przez aiStandardHair
I jeszcze 13 minutówka.
- 3
-
43 minuty temu, Maciek Jutrzenka napisał:
kurcze zarąbista sprawa... A czy ktoś wie czy jest coś takiego na linuxa? w sumie znalazłem jakieś apki dam edita jak coś potestuje
A Ty teraz tylko na linuxie urzędujesz?
-
Potrzebuję się dowiedzieć w jaki sposób mogę zarządzać Constraints. Prawdopodobnie mógłbym je zobaczyć outlinerze ale pewnie trzeba jakiś filtr włączyć.
-
Rozwiązanie znalezione i szeroko rozpisane przeze mnie w innym wątku. Link poniżej.
-
Pełen szacunek. Pamiętam czasy jak jeszcze tylko gadałeś o tym jaki to interesujący soft i na Blenderze trzaskałeś jakiś proceduralizm, a teraz takie rzeczy pokazujesz. Brawo gościu. Właściwie to dwóch ludzi mnie tutaj na forum zainspirowało do hobbystycznej nauki tego softu, ty i @Destroyer. Testuję sobie na nim teraz jakieś mega proste przypadki, ostatni wizualny programing miałem na ICE w Softimage XSI tam też pięknie to działało.
- 2
-
Grubo to wygląda, na pracowałeś się. Pokażesz jakieś nody z Houdiniego? Ciekawi mnie jak bardzo Ci się to rozrosło 🙂
-
Ja np. uwielbiam komentować nie 3dmaxa tylko Autodesk 🙂 Skorzystam z tej opcji.🙂
Gdyby w tej firmie naprawdę pracowali artyści lub ludzie którzy z artystami mają kontakt to takie programy jak 3dmax czy Maya, Mudbox znacząco by się rozwinęły a soft taki jak Softimage XSI dalej był by używany w wielu studiach a nie został skasowany lub rozkładany na kawałki (bifrost). W obecnych czasach czyli po przejęciu przez garniturowców mają jeden wspólny mianownik, są zaniedbywane lub sztucznie rozwijane poprzez nieumiejętną implementację coraz nowych wtyczek, z kolei problemy, bugi są wciąż pomijane.
Myślę że Blenderowcy nie mają kompleksów, to po prostu społeczność która tworzy coś w opozycji do monopolistycznych i korporacyjnych zapędów. (open source)
Ja to widze tak, jeśli w organiźmie jest rak, to muszą też być przeciwciała które spróbują z nim walczyć 🙂 Kto zwycięży? Ja mam nadzieję że nie ci garniturowcy.....
- 1
-
Fajnie! Strasznie kibicuję temu softowi. Uczę się go po godzinach i staram się nie narzekać na jego dziwności. W ogóle grzechem było by narzekać na ten soft.
-
Dźwigaj poziom, uwierz mi że masz co robić. Na character artystę za wcześnie jeszcze dla Ciebie. Próbuj piłować dużo realistyczniejsze assety do gier video na nowoczesne silniki. Unreal/Unity itd. Ćwicz prezycyjniejsze modelowanie hipoly. Naucz się robić szybkie assety robiąc hi i low za jednym zamachem. Ucz się PBR, obserwuj prawdziwe materiały i staraj się oddać je w taki sam sposób w silniku. W między czasie ćwicz anatomię i ubrania na boku jeśli chcesz się wywindować na character artystę. Do gier najszybciej coś można zarobić, jeśli masz smaki na filmy to musisz windować poziom jeszcze wyżej by sprostać wymogom na fotorealizm.
Z drugiej strony powiem Ci że najlepsi freelancerzy też zmagają się z tematem taniego outsourceu ze wschodu. Taki jest świat, taki jest rynek i dlatego najrozsądniej jest spakować walizy i jechać na zachód. Zanim to jednak zrobisz doszlifuj poziom. I pamiętaj, nigdy się nie poddawaj.
- 3
-
@Maciek Jutrzenka Chyba za bardzo się napatrzyłem na dobre technologiczne rozwiązania u pionierów 😉
-
@Tvaroog Rzerzywiście nie ma. Tylko na starcie jest. Może kiedyś pójdą bardziej w relacyjność i proceduralizm. Patrząc na filozofię Blendera to musiało by być AddModifier/Primitive i tam była by opcja wyboru. Niestety nie mam jeszcze zbyt dużego pojęcia o relacyjności w Blenderze. Podobała mi się konstrukcja w relacyjności w XSI, nie wiem jak to w Maya działa.
-
-
Warto rzucić okiem na ACS Kit 3 do MODO który jest w trakcie powstawania. Na stronie macierzystej projektu pod linkiem poniżej, możecie zobaczyć możliwości tego naprawdę świetnie rozwijanego systemu do rigowania postaci.
- 2
-
Dzięki. No jest tutaj pole do popisu, dopiero wgryzam się w temat ustawień jakości na Arnoldzie.
-
Zainstalowałem sobie GoB 2.80 do finalnej wersji. Działa on wam? Mi wyskakują jakieś błędy.
-
Wreszcie mam rozwiązanie do shadingu siwych włosów by wchodziły naliczane procentowo poprzez ID i sterowane mapą. Zaraz wyjaśnię jak to działa.
Yeti
Poniżej widzimy Nody Yetiego. Na końcu łańcucha włosów które chciałem mieć z ID wstawiłem "attribute3". Zamiast koloru wstawiona jest tam funkcja cvoronoi(id). Losuje ona kolor dla każdego włosa. W tym samym oknie w zakładce Mapping zaznaczamy "Map As Renderable Attribute". Dzięki temu efekt losowego koloru włosów mam do załadowania w Hypershade za pomocą noda aiUserDataColor.
Hypershade
W shadingu mam dwa rodzaje koloru włosów base1, base2. Oba efekty mają parę wariacji kolorystycznych używając ramp po długości włosów. (każdy włos w zależności od stworzenia ma swoją specyficzną barwę u nasady, w środku i na końcu włosa) Oba warianty wpadają do aiSwitch. W aiSwitch indexem steruje aiRange do którego wpada informacja z Yetiego "long" za pomocą aiUserDataColor (ID kolorowe włosy). Miałem trochę zabawy ze znalezieniem odpowiednich parametrów granicznych w aiRange w taki sposób abym jego parametrem od 0 do 1 sterował płynnie naliczaniem włosów białych. I ten parametr to jest OutputMin, więc podłączyłem sobie do niego rampę która działa jak maska na UV. Na samym końcu po za switchem domiksowuję jeszcze inny rodzaj kręconych i cieńszych białych włosków "short" których maskę mam też z Yetiego poprzez przeniesienia "Map As Renderable Attribute".
Tak pokolorowane włosy lecą dopiero do aiStandardHair. W shaderze warto było by jeszcze pobawić się rozróżnieniem refleksów, i wyważeniem weight diffusea, za pomocą rampy po długości włosów i jakiejś losowości + maski z obszarami ciała.
ZBrush Summit 2019
w Aktualności (mam newsa)
Napisano · Edytowane przez gryzon
Te narzędzia to totalna kosa. Sculpt na płaskim UV, wielokrotnie fantazjowałem o tym jak by było fajnie gdyby coś takiego istniało że świetne by to było do ciuchów zarówno sculpt jak i malowanie a tu bum i robią to. 😄 Xtractor czyli ten próbnik detalu oparty na historii o którym wspominasz, magia. Detalujemy sobie model który już jest napaćkany detalem i szybko można zrobić alphę bezpośrednio z obiektu wybierając interesujący fragment z historii tworzenia. To jest obłędne i niesamowicie przyśpieszy różne prace. Bardzo spodobał mi się History Recall, zadziwiające że współpracuje on także z meshami zupełnie różnymi od siebie. Maskowanie kolorów polypaintingu i narzędzia do modyfikowania ich sprawią że wreszcie odważniej zacznę używać malowania w ZBrush, chociażby na speedach 🙂 No i oczywiście ten UV unwraper który już kiedyś pokazywali to jest bardzo dobry pomysł. Jeśli będzie wygodny i jeśli będzie miał coś co usprawni pracę na UDIMach (zarządzanie tym). Cóż mogę napisać więcej. Czekam na święta wielkanocne 2020 😄 prawdopodobnie wtedy wypuszczą te zabawki 🙂