Skocz do zawartości

Destroyer

Members
  • Liczba zawartości

    8 578
  • Rejestracja

  • Wygrane w rankingu

    377

Zawartość dodana przez Destroyer

  1. Dont kink shame! 🙂 ale w sumie to trochę do du**
  2. No właśnie to jest piękne, zrobisz sobie jakiś specyficzny setup, wyciągniesz najważniejsze parametry do jednego noda bez najmniejszego problemu i skryptowania czy programowania, zrobisz z tego hda i masz swoje narzędzie po taniości i z super łatwym dostępem do bebechów w razie potrzeby bo każdy node możesz sobie otworzyć jak potrzebujesz 🙂 To jest świetne i dla powtarzalnej roboty super opcja dla niemal każdej pierdółki mozna sobie takie gotowce łatwo przygotować i potem tylko maszynowa produkcja i do kasy 🙂
  3. Żeby Hudy zagroził mayi w animacji to jeszcze długa droga no i idą trochę inną drogą z tym rigowaniem i kinefx. Ale jak to dopchną do końca to może być naprawdę potężnie i elastyczne środowisko do szybkiego rigowania i majka zostanie w kącie jedząc klej jak 3dsmax 🙂 Już teraz studia potrafią rigować i animować w mayi ale już futro, cfx i render robią w hudym bo chyba bardziej stabilne i przewidywalne niż xgen który ma swoje bolączki czy majkowe narzędzia do cfx. Ale to jeszcze kilka wersji potrzeba, już teraz curve editor w hudym ma kilka fajniejszych funkcji do manipulowania krzywymi ale ma też sporo takiej toporności którą trzeba będzie wyszlifować, i tak jest już lepiej niż było pod niemal każdym względem ale nadal w wielu miejscach czuć, że to bardziej wizualne programowanie niż artystyczna wolność tworzenia 🙂 Ale to wszystko idzie w bardzo dobrym kierunku i jak nagle nie zderzą się ze ścianą to, niczym blender, będzie mozna powiedzieć, że już, już jest prawie idealne narzędzie, jeszcze tylko trochę, jeszcze jedna wersja 😛 W hudym 19 mało zrobiłem w ostatni rok ale znowu mam chęć wznowić subskrypcjętych tutoraiali i kursów których i tak nie oglądałem od miesięcy, i jak będzie troszeczkę luźnej to zacisnąć zęby i zrobić kolejne projekty w całości w hudym, jeśli oczywiście nie będą bazowały w większości na modelowaniu 🙂 Już było całkiem nieźle ale potem poprawki do starych projetków z mayi, coś bardziej oparte na modelowaniu, coś na szybko co mogło bazować na starych scenach z mayi które już miałem i tak znowu hudy został jako wsparcie w specyficznych pracach a nie główna kobyła do wszystkiego 🙂 W tej połowicznej wersji nie ma chyba nic rewolucyjnego i wywracającego pracę do góry nogami ale to bardzo fajny zrównoważony update gdzie poprawili po trochu chyba każdy kawałek hudego. Dashbox jest całkiem fajnym patentem szczególnie gdy się wraca po jakimś czasie do softu, UI i HUD jak od kilku wersji poprawiają też bardzo pomaga zorganizować i uporządkować wszystkie informacje w czytelny sposób. Fajnie się cywilizuje ten soft i jest coraz mniej surowy i nieprzystępny 🙂 Ja bardzo mocno trzymam kciuki za hudego bo to chyba jedyny dcc, poza blednerem oczywiście, który fajnie się rozwija i można jeszcze mieć co do niego jakieś nadzieje na przyszłość 🙂
  4. Finalna wersja DaVinci Resolve Studio 18 właśnie została wydana, zobaczymy czy będzie lepsza stabilność i teraz czekamy na wersję 19 🙂 https://forum.blackmagicdesign.com/viewtopic.php?f=21&t=164294 -edit- Iuż zdążyłem go scraschować przy prostym montażu, brawo ja! 🙂
  5. Podsumowanie wszystkich nowości https://www.sidefx.com/products/whats-new-in-195/ https://www.sidefx.com/docs/houdini/news/19_5/index.html
  6. No to jak ja nie tak dawno musiałem cos koledze znaleźć na jego laptopie to uświadomiłem sobie, że jestem ślepy i nie widzę dobrze tych maleńkich ikonek i napisów 😄 starość i ślepość 🙂
  7. Dokładnie tak! to zupełnie odwrotnie niż w przypadku kobiet, jeśli masz wątpliwości to na pewno nie zostaniesz 😛 Tak stanowi prawo wszechświata i sprawdza się w 100% w obu przypadkach 🙂
  8. Połączegnie gaugana i generowania obrazków z opisu https://ai.facebook.com/blog/greater-creative-control-for-ai-image-generation/ moodboardy https://ai.googleblog.com/2022/07/enabling-creative-expression-with.html Nvidia Instant NeRF alternatywa dla Nvidia 3D MoMa choć wygląda tak w sumie bardzo podobnie w założeniu 🙂 https://blogs.nvidia.com/blog/2022/03/25/instant-nerf-research-3d-ai/
  9. Penholder - perfectly balanced ass all things shoudl be 😄
  10. To wygląda jak zwykły rendering w oknie viewportu, chyab większośc renderów ma już takie opcje wbudowane 🙂 A co do wymiany technologii między produktami autodesku to już było masa wypowiedzi ludzi co wiedzą coś więcej i teamy poszczególnych softów praktycznie ze sobą nie rozmawiają 🙂 jest fajny remesher w 3dsmax i mógłby być w mayi? ale nie będzie chyba, że sobie sami taki napiszą 🙂 Bifrost miał być też przeportowany pod 3ds maxa ale podobno projekt został bezterminowo zawieszony. O projekcie Exaclibur gdzie mieli przepisać maxa na nowo z nową wydajną i elastyczną architekturą też cos ucichło 🙂 Majkowy nFramework co miał być pełnym systemem gdzie wszystko gada ze wszystkim też się skończył na ncloth, biednym nhairs i nparticles, jeśli mnie pamięć nie myli to też był jakisplan żeby coś podbnego przepisać czy przesortować do maxa? A z tym pluginem Xray to jest ten problem, ze jest to plugin i dzisiaj jest jutro może nie być, a z kolei jak autodesk kupi to dzisiaj jest aktualizacja bo musi się sprzedawać i na siebie zarabiać a jutro już jej najpewniej nie będzie bo jest w pakiecie wszelakiej szczęśliwości i subskrypcji 🙂 Używasz tego Xraya? Na prezentacjach to najczęściej jest jeden obiekt, czy oświetlenie studyjne albo malutki wycinek pokoju, tka jakby przy czymś większym już się miał dławić i nie ma przykładu czegoś bardziej rozbudowanego. Redshift RT wygląda podobnie i jest w pakiecie z rendererem a działa tak se ale jest 😛 Ciekawi mnie czy bifrost dołączy do cmentarzyska wszystkiego innego w mayi bo i tak rodzi się w ogromnych bólach i w końcu ktoś powie, że to się nie opłaca i wyciągnie wtyczkę. Alternatywną byłoby skorzystanie z sytuacji unity3d które straciło 70% wartości na giełdzie i po prostu je wykupić i mieć silnik do gier i całą technologię od Weta którą kupili 🙂 Bo autodesk miał swój silnik Stingray, grałem nawet w Vermintide na nim i działał całkiem spoko ale też został ubity po zaledwie 3 latach od premiery. W majce nadal są pozostałości po tym wynalazku jak stingray shader i edytor shaderFX które od zawsze źle się wyświetla gdy maja ma ustawione inne skalowanie ui niż standardowe ale tego już raczej nie będą poprawiać jak zresztą niemal wszystkiego innego co uznali za "dobre wystarczająco" 😛 Hudy też ma swoje bolączi i czasami naprawde poważne ale co by nie mówić to spośród wszystkich softów od lat to chyba tylko hudy siębroni jeśli chodzi o jakość i updató i każda wersja sprawia wrażenie że im się jeszcze chce a inne softy od małych i wyspecjalizowanych jak topogun czy silo z updatem raz na 10-15 lat, przez marveousa na maykach i 3dsmaxach, photoshopach i after effectsach kończąc to najczęściej takie se te updaty są 🙂 Davinic resolve chyba jeszcze ma całkiem niezłę updaty choć też pod wieloma względami jest trochę toporny i irytujący ale za to renderuje jak rakieta w porównaniu do aftera ale z kolei rozbudowany motion desing w nim robić to sobie nie wyobrażam 🙂
  11. Już pora na taki wątek, nie tylko ai ale wszystko co związane z grafiką i technologiami które moą trafić do komercyjnych rozwiązań. Pierwsze i najlepsze źródło all in one to kanał Two Minute Papers od ai przez deep fake, technologie prezentowane na sigraph czy inne badania związane z grafiką podane w przystępny sposób. https://www.youtube.com/c/KárolyZsolnai --- Jako że obserwujemy teraz wybuch zainteresowania AI i już w prostych apkach na telefon można poprawiać twarz, ciało czy całe zdjęcia to robiąc zwykłe zdjęcie też jest tak poprawianie w jakimś stopniu. Teraz Open AI Dall-e 2, dreamAi, deep mind, Midjourney, Disco Diffusion, Imagen, google czy nvida ai, trochę się już tego narobiło i wato patrzeć co się dzieje żeby wpleść w swój workflow gdy ma to jakiś potencjał dla naszej pracy 🙂 https://80.lv/articles/an-overview-of-various-ai-powered-text-to-image-tools Realistyczne portrety ludzi https://petapixel.com/2022/07/01/ai-used-to-create-shockingly-realistic-portraits-of-people-who-dont-exist/ https://www.newscientist.com/article/2325477-ai-generates-photorealistic-3d-scenes-and-lets-you-edit-them-as-well/ https://80.lv/articles/you-can-now-share-realistic-people-generated-in-dall-e-2 Google AI https://mixed-news.com/en/googles-latest-image-ai-is-better-than-the-last-one-which-is-only-four-weeks-old/ Midjourney https://80.lv/articles/the-lord-of-the-rings-reimagined-with-midjourney https://80.lv/articles/fantastic-interiors-created-with-midjourney Dall-e Obróbka zdjęć w Dall-e https://petapixel.com/2022/06/28/photographer-successfully-uses-dall-e-2-ai-to-edit-his-photos/ https://mixed-news.com/en/dall-e-2-could-become-openais-first-money-printing-machine/?amp=1 https://80.lv/articles/famous-paintings-expanded-with-dall-e-2 Dream IA https://80.lv/articles/using-dreamai-to-create-beautiful-2d-art-concepts Parti https://www.cnet.com/tech/googles-parti-generator-relies-on-20-billion-inputs-to-create-photorealistic-images/ Taka trochę photogrametria z AI Nvida używa AI do projektowania nowych chipów, fifa do śledzenia piłki i piłkarzy podczas meczów, cosmopolitan jako pierwsyz użył wygenerowanego obrazka jako okładki magazynu, ai poprawiające obraz czy nawet zmieniające oświetlenie z kamerki, tworzenie avatarów, uprasowanie i poprawianie zdjęć, wideo, zmiana głosu czy twarzy, zmiana wieku czy ekspresji, usuwanie cienia ze zdjęcia, generowanie materiałów lub bazy pod dalszą obróbkę, poprawianie renderów, roto obietkó i ludzi w davinic resolve itd. Trochę się już narobiło różnych zastosowań i narzędzi i biorąc pod uwagę jak zainteresowanie wybuchło i co chwila pojawiają się nowe systemy i algorytmy to raczej tylko nabierze rozpędu i efektem kuli śnieżnej mocno się wbije w wiele dziedzin życia. Już widzę jak np w bazach stocków będzie opcja do wygenerowania czegoś według tagów albo wybranych obrazków np ta kobieta ale na tym tle robią to i to etc. Zapraszam do dyskusji w tym zorganizowanym wątku 🙂
  12. No niestety masa rzeczy nie działa, albo działa jak mu się zachce, Otwierasz scenę i inaczej się zachowuje bo ta, otwierasz ponownie i już jest ok?! czary 🙂 Zmienisz ustawienia projektu np z dag na paraler to mash może zupełnie inaczej się zachowywać, magia 🙂 Ile to razy coś wymykało się logice i powinno działać a nie działało, wywalałem te kilka nodów robiłem od nowa identycznie i działa. Production ready tak, że za każdym razem się zastanawiam czy warto się w to pakować 🙂 Tka MOPs to trochetaki mash ale w hudym to jest ten komfort, że tam wszystko widzisz co i jak jest ze sobą połączone, mozęsz odblokować dowlony node i zobaczyć jego bebechy i coś pozmieniasz jak wiesz jak, w majce to czarna skrzynka, nie działa i nikt nie wie dlaczego i nic z tym nie zrobisz 🙂 Ile to razy miałem tak, że w mashu coś zaczynam robić i tak jestem w 85-90% tego co chcę i nie mogę tego pchnąć dalej bo nie ma czym i jak a w hudym to jeśli oczywiście wiesz jak to można ugryźc to możesz sobie wszystko wyciągnąć, konwertować, zmieniać i bóg wie co tam jeszcze robić i te ostatnie kilak procent można zawsze domęczyć 🙂 I też bym nie liczył że masha cokolwiek będą rozwijali, tam jest chyba już tak nawalone kodu bez ładu i składu, tak że raz działa a raz nie, że zatrudnieni stażyści sobie z tym nie poradzą i lepiej zmieniać ikonki czy kolor siatki w viewporcie 🙂 A no tak ten magiczny bifrost, nadzieja autodesku na zdominowanie vfx industry 🙂 kupili naida, zabili, dodawali go majki ze 3 lata, pierwszy biforst to ciecze a potem też pod nazwą bifrost, bardzo logicznie, już wizualne programowanie 🙂 Pierwsze wersje to był żart i strasznie sięzraziłem gdy nawet w oficjalnych tutorailach gdzie zmieniał chłop kolor sześcianu to mówił, że są problemy z updatem w viewporcie i trzeba resetować/ odświeżać żeby zobaczyć efekt, doskonała interakcja na mairę 21 wieku i industry standard 🙂 Albo najprostsza rzecz wrzucasz kulę czy innego pączka i chcesz przekonwertować na chmurkę to biforst mielił jakby nie wiadomo co robił i często się wysypywał, i były głosy fanbojów że to za mało ramu czy czego tam tylko, że ja miałem 128Gb i jakoś nie pomogło a ludzie na laptopach z 16Gb ramu w hudym takie rzeczy robili bez zająknięcia 🙂 Podobne kwiatki widziałem w tutorailach na youtubie i też był taki zawód z ich strony, że tam niby coś robi ale tak wolno, słabo, żle że szkoda życia z tym walczyć jak będzie w takiej postaci. Albo ostatnio naprawiony remesher który trochę w końcu działa jak narzędzie z tej dekady a wcześniej to trzeba było traingualizować a potem remeshować i czekać jak na ponowne nadejście Chystusa 🙂 A jak już wspominamy co pokazywali to w 2015 pokazywali sculptowanie z dynamiczną zmianą topologi, snapowaniem siatki do krzywych i jakieś fajne patenty, Już była radość że będzie cały mudbox i więcej bezpośrednio w mayi i jak zwykle kupa i rozczarowanie 🙂 No to darmowy bledner ma bardziej wszystko w jendym, scuplting, malowanie tekstur, fajny viewport, teraz nawet na realtimowym compoitingiem pracują a w mayi ostatni raz nad viewportem się pochylili z 5-7 lat temu a malowanie tekstur to tylko artisanem ledwo zupdatowanym chyba od wersji 1.0 🙂 Ale co zrobić albo zmienić/ soft albo dalej dzielnie dźwigać też krzyż zwany majką 😛
  13. Destroyer

    Rjab

    Bardzo spoko to wygląda, szybkie gestrue drawing fajne ale te ostatnie takie trochę psychodeliczne robią super wrażenie 🙂
  14. O oni to chyba sprzedawali po 10$. Swoją drogą to smutne jak tego masha zrobili tzn kupili, dodali i porzucili i tak działa jakby chciał a nie mógł. Tyle razy działa źle, lub miał problemy nawet przy prostych setupach z kilku nodów, że ja się bardzo zraziłem i mimo że wolą w mayi robić lookdev to jak coś trzeba zrobić w mashu to zawsze poważnie rozważam robić to w hudym szczególnie gdy ma być coś bardziej rozbudowane 🙂 I to nawet tak odrobinę bardziej bo w mashu to czasem nawet setup z 3 nodów raz działa a raz nie 🙂 btw jeśli serio masz te moje stare tutki to poszukaj na dysku bo ja bym je chętnie przygarnął i wrzucił na youtuba resztę do kompletu 😛
  15. Pewnie, ja też tak przeskakiwałem cały czas o oczko wyżej to nie było dużego szoku 😛 A miejca to tam masz to można zaszaleć i serio bardzo polecam 43, to wcale nie jest tak dużo jak się może wydawać 🙂 no i elegancko 🙂 ja żeby mieć dobry internet to się musiałem przeprowadzić do większego miasta 😄 Teraz to już na wsiach często jest niezły światłowód i też w cenach zbliżonych do tych miastowych🙂
  16. Ale to zdjęcie jest tak szczegółowe i skontrastowane, że trzeba powoli oczami skanować zęby zobaczyć co się tam dzieje 😛 Ciężko się na to patrzy i jest masa szczegółów których nie widać na pierwszy rzut oka i można się zdziwić co łatwo przegapić gdy zaczynasz się wpatrywać 🙂
  17. Ale w realu ctrl-z nie ma 🙂 Gdy odwykłem od robienia czegoś tradycyjnie a potem zacząłem coś rysować czy malować to lewa ręka sama leciała w bok żeby cofnąć zmianę 😄 A potem się bałem pracować bo jest nieźle, albo jest potencjał a jak kreska pójdzie nie tak albo będzie wyglądało gorzej niż sobie wyobrażam to już nie cofnę czasu 😛
  18. Dobry upgrade ale serio polecam iść spokojnie w 43 cale, może wydawać się dużo ale bardzo szybko się przyzwyczaisz. Kolega miał 29 ultra panoramę +24 i się wzbraniał gdy ja miałem coraz większe monitory aż w końcu też spróbował od razu na 43 i na początku nie mógł się nadziwić jakie to wielkie ale szybko przywykł i co chwila się zachwycał o ile lepiej się pracuje i jak można się rozwalić ze wszystkim bez chowania i pokazywania okienek co chwila do każdej pierdólki 🙂 Doszło do tego, że dobre pół roku wcześniej ode mnie, jak nie więcej kupił sobie dodatkowy monitor/ telewizor 55cali obok tego 43 🙂 I też nachwalić się nie mógł i podobno nawet w Apexie lepiej mu idzie bo 120hza a po drugie łatwo headshota trafić z daleka bo głowa przeciwnika dużo większa 😄 Aż w końcu i ja się skusiłem na takiego bydlaka bo nie mozę być tak, że ktoś ma większego 😄 Już w planach są zakrzywione 65 cale za rok czy dwa jakby jakiś fajny model był tylko biurko trzeba trochę głębsze zrobić 😛
  19. H19.5 Sneak Peek https://www.sidefx.com/community/houdini-195-sneak-peek/ Jak zwykle kozacko! 🙂 Solaris Scene importer enhancements Render region tool in 3D viewport OpenGL background display Ability to edit instance prototypes in place USD-related enhancements to PDG/TOPs Full Voronoi 3D support for shading Dedicated Motion Blur LOP Specialized hair/fur HDAs for procedural rendering Karma CPU Better performance and memory management Coving Auto-crop post-process Texture baking Curvature VOP Rounded Edge VOP Karma Render Properties and USD Render to replace Karma LOP Support for temporal OptiX denoising Karma XPU Bump mapping Volume velocity blur Random-walk SSS Point meshes and Catmull-Rom curves Simple light filters Improved texture filtering Coving KineFX Evolving framework with current emphasis on motion data and physics Improved visualization and manipulation of motion clips New procedural and interactive tools for motion editing Character Blend Shape Channels SOP Many UX and feature additions to the Rig Tree panel Ragdoll setup and solver enhancements More user-friendly USD Skin Import SOP Enhancements to mocap streaming Crowds Redesigned and expanded Agent LookAt capabilities Ability to define targets using Point Clouds Other agents in a crowd can be used as targets Skeleton auto-adjustments along the spine More flexible rest pose assignment and manipulation
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności