Skocz do zawartości

ozogonkiem

Members
  • Liczba zawartości

    86
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    1

Zawartość dodana przez ozogonkiem

  1. Podobał mi się ten film. W wersji aktorskiej byłyby flaki z olejem, bo historia nie jest angażująca, ale dzięki temu że w wielu miejscach poszaleli z kolorami, udało się zrobić wizualnie atrakcyjne widowisko. Do tego świetna muzyka która podbijała tempo kiedy było trzeba. Co mnie kłuło podczas seansu to sceny gdzie postaci są animowane na statycznym tle. Najgorzej kiedy postać była pomniejszana w post produkcji, wtedy to wyglądało dosłownie jak stare bajki Disneya, gdzie od razu wiadomo z którym elementem dekoracji będzie jakaś interakcja. Gdyby zrobili chociaż kilka różnych obrazów tła i puścili w pętli, to już złamałoby część tego wybicia z immersji. Na obronę Chłopów dodam że moja narzeczona niczego takiego nie zauważyła, więc może to nie jest aż taki problem 😛 Druga sprawa, to fakt, że to już ostatni moment na zrobienie takiego filmu. Skoro i tak mieli wszystko nagrane, mogli przecież przepuścić całość przez sieć neuronową, ewentualnie namalować kluczowe klatki, żeby sieć miała jakiś art direction. Pewnie zrobią kolejny film w tym stylu, ale uważam, że kiedy masz technologie pozwalające osiągnąć ten sam efekt taniej, to już jest popisywanie się 😄
  2. Nie gniewajcie się że przywołam ten wątek z martwych ale może znajdą się osoby z podobnym problemem które na tym skorzystają :V Zapewne ktoś z forumowiczów sprzedaje modele na Turbosquid. Jak poprawnie wypełnić identyfikację podatkową? Na start mam dylemat, którą opcję powinienem wybrać jako jednoosobowa działalność gospodarcza? Próbowałem z Individual, na koniec podając swój numer PESEL, żeby rozliczać się z tego w PIT rocznym, ale taka opcja nie przeszła. Obstawiam więc, że muszę użyć swojego numeru NIP. Na screenie nie zmieściły się opcje: Corporation Partnership
  3. Rozumiem że sprawa rozwiązana, ale myślę że warto dopowiedzieć czemu tak jest 😛 Jak rozkładasz UV, korzystasz z pewnej przestrzeni która rozciąga się na dwóch osiach od punktu (0,0), do punktu (1,1). Tekstura, która załadujesz jest mapowana tak, żeby mieściła się w tych punktach. Program nie zwraca uwagi na jakiego kształt Po prostu dopasowuje współrzędne do rozdzielczości. Jeżeli chcesz pracować na prostokątnej teksturze i widzieć takie kształty wysp jaki masz w rzeczywistości, możesz zmienić Aspect Ratio w widoku edycji UV. Klikasz N > Zakładka View > Display > Aspect Ratio. Tak jak napisał Tvaroog, otwierając i zaznaczając teksturę w shader edytorze, możesz podczas Unwrap zaznaczyć Correct Aspect i wtedy dopasuje Ci mapowanie właśnie pod tę teksturę. Jeżeli masz kilka tekstur z różnymi aspect ratio, musisz zaznaczyć tę której ratio ma być używane :v Takie dodatkowe informacje, gdyby ktoś kiedyś natrafił na ten temat 😄
  4. Cześć, jak nie masz porobionych żadnych dziwnych zależności to zwykłe kopiowanie Ctrl+C, Ctrl+V daje radę pomiędzy plikami blenderowymi 😉 W ten sposób kopiuje Ci też materiały, jakieś systemy cząsteczkowe, itp. Jak masz jakieś kompletne rigi, czy constrainty, to zapakuj to wszystko do jakiejś nadrzędnej kolekcji i wybierz z górnej belki File->Append... Tam wybierz plik który chcesz dołączyć do swojej sceny, a w nim wybierz kolekcję, która Cię interesuje.
  5. Chętnie widziałbym to jako cykliczny event, może w końcu będzie kop do regularnej nauki 😄
  6. Nooo dobra, skoro już się zadeklarowałem to głupio tak nic nie wrzucić 😄 Jak będzie więcej takich wyzwań, to chętnie poobserwuję przyrost skilla bo narazie jak widać limit czasu mnie pokonał 😛 Następnym razem jednak użyję symetrii :x
  7. Czyli czas do piątku? Może wypróbuję blendera do sculptu 😄
  8. Cześć, blender nie umie za bardzo poradzić sobie z obliczaniem odległości od kamery, kiedy na jego drodze stoi las (bądź prawdopodobnie dowolne obiekty z maskowaną przeźroczystością), a ja nie umiem mu z tym pomóc. Widziałem, że inni mają takie problemy (np. tu: https://devtalk.blender.org/t/is-this-a-bug-weird-noise-in-the-mist-pass-also-on-zdepth-pass/9209), więc poczucie, że nie jestem z tym sam pomaga, ale tylko trochę. W mojej konkretnej scenie mam drzewa i meshe terenu. Przez ten problem uznałem, że dodam perspektywę powietrzną na kartkach, ale musiałem przez to podbić mocno ilość sampli przeźroczystości, poza tym nie jest to najelegantsze rozwiązanie. Poza tym mist pass byłby mi też pomocny w AE żeby dodać DOF. Zazwyczaj Mist pass jest czarny przy najbliższym punkcie i biały w najdalszym. W załączniku jest mój mist pass. Jak widać, ziarno nie do odsiania. Podejrzewam, że to popularny problem. Może ktoś z Was już się z tym zmierzył? EDIT: Jak coś to jestem świadomy jednego rozwiązania. Trzeba przełączyć samplowanie z Path Tracing na Branched Path Tracing i tam zwiększyć minimalną ilość odbić dla przeźroczystości. Byłoby super gdyby nie to, że kilka drzewek podczas testu normalnie renderuje się w pół minuty, a z tą opcją przekracza 3 minuty :x
  9. Tutaj gościu mniej więcej od 12 minuty wypala teksturę do vertexów: https://lesterbanks.com/2011/08/creating-stylized-paths-of-hate-painterly-clouds-in-3ds-max/ Wcześniej oczywiście wypalił teksturę z oświetlenia. Sam tutorial dotyczy stworzenia stylizowanych chmur jakie były w animacji Paths of Hate. Co prawda jest dość stary, ale w 3ds Maxie chyba za dużo się od tego czasu nie zmieniło 😛
  10. Oj, coraz lepsze te boty. Nie wyglądało to na nachalną reklamę 😄
  11. Pracowałem chwilę w agencji interaktywnej, gdzie robiliśmy takie właśnie rzeczy, głównie na jakieś targi czy z przeznaczeniem na prezentacje produktów. Technologia jeszcze dość kulawa, chociaż z wyjściem ARCore i ARKit dostała drugą szansę. Często wykorzystuje do pracy "markery". W rzeczonej agencji rozwijali serwis (niestety mocno zaniedbali tam UI/UX) w który w zasadzie działania miał przypominać youtube/sketchfab dla AR: https://xr.plus/ Jednak najczęściej z AR korzysta młodzież dodając sobie kocie uszy na snapchacie 😛
  12. Ja też nigdy nie byłem zbyt aktywnym użytkownikiem, ale zawsze chętnie powracałem na forum jako cichy obserwator :v Jeżeli już się udzielałem to zazwyczaj z prośbą o pomoc przy jakimś problemie i do tego forum chyba w dalszym ciągu całkiem dobrze się sprawdza. Chyba że jest to prosty problem który potrzebujesz szybko rozwiązać- w takich przypadkach przewaga jest po stronie Discorda i fejsa. Teraz jestem na takim etapie że chętnie sam pomógłbym początkującym, no ale ich tutaj nie ma. Wszelkie rodzaju bitwy zawsze chętnie obserwowałem (nie podchodząc, bo niewiele miałem do pokazania), a teraz sądzę że w niektórych chętnie wziąłbym udział. Ogólnie bardzo mocno liczę na reaktywację strony. Myślę że z czasem ludzie mogą zacząć mieć dość tracenia czasu na social mediach (nie oszukujmy się poza zbawiennymi tematycznymi grupami, w ogromniej mierze jest to świątynia prokrestynacji).
  13. Dzięki Alex za wyczerpującą odpowiedź. Ostatecznie postawiłem na mozolne dopasowanie kilku Force fields tak żeby uzyskać względnie zadowalający efekt. Miałem za dużo elementów, żeby odważyć się animować je ręcznie (setki, jeżeli nie tysiące cegieł) 😛 Czuję, że muszę lepiej poznać Animation Nodes, wtedy pewnie mógłbym całkowicie ominąć fizykę. Mam się czego uczyć w najbliższym czasie 🙂
  14. Niestety w blenderze fizyka działa globalnie (chyba, że jest jakiś ukryty przełącznik takiego stanu). Kolizji do empty też nie można podpiąć. Jeszcze kombinuję trochę z Fforce Fields (niech Cię nazwa nie zmyli, ich też się nie da zbyt łatwo ograniczyć powierzchniowo).
  15. Hej, tytuł dobrze tłumaczy co chciałbym uzyskać. Stworzyłem dużo boxów wygenerowanych arrayem, następnie booleanem wyciąłem je w kształt mojego obiektu który chciałbym "budować". I zaczyna się zabawa. Próbowałem Animation nodes, ale pierwsze próby były dość marne (za mało jeszcze umiem). Myślałem, też żeby odwrócić mesha z boxów do góry nogami, puścić symulację rigid bodies, a potem odtworzyć ją od tyłu. Ale tutaj wszystkie boxy spadały mi w tym samym czasie. Teraz przyszło mi do głowy że może da się je aktywować kolizją z jakimś empty? Czy ktoś robił coś podobnego i może mnie nakierować?
  16. Cześć, dostałem do przerobienia animowany model Transformera - plik natywny z 3ds maxa. Niestety kiedy eksportuję go do fbx, niektóre elementy są poobracane. Same kości zachowują się raczej w porządku, wydaje mi się że problemy są gdzieś po drodze w hierarchiach. Miałem przez krótką chwilę ochotę na rozłączenie obiektów, zastosowanie XForm i ponowny parenting, ale to jest transformer... Mam przeszło 600 obiektów. Dodam że docelowo obiekt chcę wyeksportować do Unity, ale już nawet przy eksporcie FBX z powrotem do 3ds maxa mam ten sam problem. Znajdzie się ktoś chętny aby zarzucić jakimś ciekawym pomysłem? :) EDIT: Wymyśliłem sobie, że zresetuję skalę na uszkodzonej hierarchii, obiekt po obiekcie. Przypisuję dzieci resetowanego obiektu do tymczasowego boxa, odpinam obiekt od rodzica, używam XForma, i przywracam hierarchię. po eksporcie widzę, że pierwsza klatka wygląda już dobrze, ale za to następne to jakiś armageddon. Co mogłem przeoczyć?
  17. Nie jestem pewien czy w Twoim przypadku o to chodzi, ale na pierwszy ogień strzelałbym że nie masz na scenie Skylighta. Spróbuj doświetlić scenę jakąś Cubemapą. Metal bierze swój kolor z otoczenia, a jeżeli otoczenie nie istnieje, to może wyglądać na czarny.
  18. A jeżeli nie potrzebujesz softu już w tej chwili, możesz poczekać parę miesięcy na jakąś obniżkę cen. Kiedyś widziałem cały pakiet za 200$ na ich stronie. Ja go dopadłem w tej cenie nieco później na Steamie.
  19. Dzięki za rady, zacznę od ogarnięcia proporcji- rzeczywiście za dużo tutaj "na oko". Na pewno przysiądę jeszcze do tematu próbując taki jak podpowiada Mitic, ale doprowadzę najpierw do końca ten projekt.
  20. Cześć, podjąłem się niedawno stworzenia kilku wizualizacji budynków. Uznałem że to świetna okazja żeby nauczyć się robić exteriory! Niestety idzie mi to dość marnie, nie spodziewałem się że kwestia skomponowania sceny może mnie tak pogrążyć. Chodzi o to, żeby sceny były "idylliczne" i przyciągały oko. Tak jak wspominałem to moje pierwsze podejście do tematu więc wszelkie rady i źródła do poczytania będę wchłaniał jak gąbka.Przesyłam pierwszą scenę pod krytykę:
  21. Najpierw zaznacz elementy które chcesz zmapować, a potem w oknie Edit UVWs wybierz w menu u góry wybierz Mapping -> Flatten Mapping. Trochę Ci to poszatkuje mesha. Jeżeli masz już porobione szwy na modelu, możesz użyć opcji Quick peel (widoczna w opcjach po prawej stronie w oknie Edit UVW's), powinno Ci to fajnie rozłożyć siatkę.
  22. Tak, zwykły cloth. Jedynie pamiętaj żeby dodać do symulacji obiekt na którym tkanina ma osiąść :) Co do zamiany go potem na LP. Masz 3 opcje, w zależności od tego jak dokładny efekt chcesz osiągnąć (od najszybszego do najbardziej czasochłonnego): 1. Automatyczna decymacja. W różnych softach są narzędzia to ograniczenia poly przy zachowanym kształcie- Decimate w Blenderze czy (chyba) Optimize w Maxie. 2. Odchudzenie siatki. Vertex po vertexie ręcznie optymalizujesz siatkę do momentu aż będzie odpowienio LP i jednocześnie będziesz zadowolony z kształu. 3. Retopo.
  23. To wszystko na prawdę zależy od przyszłego zastosowania obiektu. Jeżeli to będzie już zawsze jakaś statyczna bryła do gry, to połącz ją sobie, będziesz miał w silniku mniej obiektów, pewnie zaoszczędzisz trochę na performance. Jeżeli te dwa elementy będą się niezależnie od siebie animować, to łączenie ich jest absurdalnym pomysłem. W wielu sytuacjach musisz sobie zdać sprawę co jest dla Ciebie wygodniejszym rozwiązaniem. PS. Pytałeś też o UV. Ja często robię tak, że najpierw łączę sobie obiekty którym nadaję jeden zestaw UV, a po oteksturowaniu je rozłączam. Korzystają wtedy z jednego materiału, ale z łatwością mogą być rozstrzelone po scenie.
  24. Możemy to nawet uprościć~! Otwórz alfę w illustratorze, użyj opcji Image Trace, wytnij czarny kolor, resztę scal i voila. Mamy krzywą gotową do importu. (najbardziej zautomatyzowany sposób jaki przychodzi mi do głowy)
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności