Skocz do zawartości

Monio

Members
  • Liczba zawartości

    4 418
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    19

Zawartość dodana przez Monio

  1. Fundacja Krity uruchomiła na Kickstarterze kampanie zbierania środków na przyśpieszenie rozwoju tego świetnego programu. Dorzućcie się parę dolców bo jak to się uda to za kilka miesięcy będziemy mieli niekwestionowanego króla programów do Digital Paintingu! :)
  2. True. Nodalne shadery cyclesa to światowa czołówka. Dla ludzi od R&D to niezły plac zabaw. Jak ktoś jeszcze zna OSLa i ma wystarczająco mocne CPU żeby na nim renderować to może zrobić dosłownie wszystko co zechce. Niestety bez paru rzeczy jak lepsza wydajność, render sieciowy czy progresywny render animacji trudno przekonywać większe firmy do cyclesa, to jeszcze nie ten czas. Jakby ktoś chciał poczytać czego brakuje w cyclesie i jakie są plany to w linku niżej jest oficjalna lista TODO: http://wiki.blender.org/index.php/Dev:2.6/Source/Render/Cycles/ToDo
  3. Ten displacement to prawdziwy micro displacement? Teselacja z ODS? Może dlatego że mają trochę więcej kasy. ;) Dodatkowo ich renderer jest pieruńsko szybszy. W Cyclesie na taką optymalizacje trzeba będzie poczekać jeszcze wiele miesięcy. Mimo to Cycek nadal ma sporo asów w rękawie. Proceduralne tekstury (szok że octane ma ich dokładnie zero, albo mam innego googla), prawdziwa wolumetryka, particle inne niż instancje geometrii, OSL, Baking. Oba te silniki są warte uwagi ale jednak stwierdzam że oba są jeszcze w fazie rozwojowej. Zbyt wielu rzeczy brakuje żeby móc się rzucić na renderowanie nimi filmów.
  4. http://area.autodesk.com/blogs/stevenr/bonustools
  5. Może być FAQ na stronie Autodesku? ;) http://knowledge.autodesk.com/support/maya-lt/troubleshooting/caas/sfdcarticles/sfdcarticles/Autodesk-Maya-LT-FAQ.html Zgadzam się co do dynamiki i majowych paintFX ale przecież renderowanie to jest podstawa w małych gierkach. Pre-renderowane spritey 2d, ilustracje wszelkiego zastosowania, spritey z obiektami czy postaciami jako część interfaceu. Którą grę na mobile być nie ściągnął to gdzieś tam są pre-rendery, a nawet jak nie do są wykorzystywane w materiałach reklamowych. Sam autodesk się reklamuje takimi rzeczami: W maya LT jedyne co masz to zabawa w shaderFX i wduszenie printscreena.
  6. http://www.autodesk.com/products/autodesk-maya/compare/compare-products Well... limitacje są ogromne. Zero renderingu, dynamiki, symulacji, paintFX. Nie da się normalnie riggować bo jest tylko HumanIK. Narzędzia do animacji okrojone przez brak warstw, driven key i innych. W pierwszej wersji nie było również skryptowania w MELu, w tej rozpisce również go nie widzę ale w następnej wersji na pewno go dodali więc pewnie nie zaktualizowali listy. Moim zdaniem darmowy blender oferuje znacznie więcej niż maya LT. Jedyne czego my brakuje to shaderFX i w pełni stabilny eksporter FBX na który trzeba bedzie poczekać jeszcze ze 3 miesiące (brak dokumentacji dla developerów, inżynieria wsteczna i taki team).
  7. To jest geometria? Przekonwertuj do Curve i dodaj modyfikator Curve do obiektu. O ile masz jego wyprostowywaną wersje. Jak nie to możesz dodać vertex grupę do tego co jest w miarę proste i wtedy załatwić to krzywą, jednak ja bym polecał zaczać od początku bo będziesz miał możliwość swobodnej edycji i zrobienia paru wersji tego krzaka. http://cgcookie.com/blender/2010/04/21/modeling-an-easy-chain/
  8. Ciekawe jak poradzą sobie z 2 dekadami doświadczenia Epica i 300 pracownikami Unity Technologies. ;)
  9. Autodesk wykupił Bitsquid i ich engine gier. Zamierzają konkurować z Unity i Epic. Źródło: http://www.develop-online.net/news/autodesk-enters-engine-race-with-bitsquid-acquistion/0193892 http://www.develop-online.net/interview/autodesk-s-engine-will-change-the-way-games-are-made-and-buildings-are-designed/0193894
  10. Źródło: http://www.develop-online.net/news/autodesk-drops-price-of-maya-lt-2015/0193885
  11. Tak sobie wylewam frustracje TD-wannabe. Ikkiz, nie czytaj lepiej. ;) http://wiki.blender.org/index.php/Face/Edge_groups_proposal Ten proposal siedzi już kilka miechów na wiki. Widziałem wiele razy przywoływanie takiego pomysły na mailing liście, sam pytałem na ircu. Zero zainteresowania od developerów, nawet nikt nigdy na te rzeczy nie odpowiedział. Męczy mnie ta sytuacja. Próbuje od kilku miesięcy robić w blendku rzeczy proceduralnie i co raz częściej dochodzę do ściany której nie da się przebić. Modyfikatory, drivery, wszystko psu w tyłek przez 2 rzeczy. Brak face/edge groups, brak podstawowych operacji na meshu jako modyfikatory i niemożność ustalenia żeby modyfikator działał w zdefiniowanym przeze mnie kontekście. Jedyna rzecz która mogła dać namiastkę tego ostatniego, czyli proximity modifier, nie działa w taki sposób bo działa wyłącznie na vertex grupę bazowej siatki modelu. Nie ważne jakie ma się modyfikatory i jakby się nimi nie zagęściło siatki obiektu, jak wychodziłeś od cube to masz tylko 8 vertów do zabawy. WHY!? Czyli mamy zajebiste modyfikatory które tak na prawdę są zajebiście ograniczone przez słabą decyzje designową która ciągnie się od blendera 2.1. Moje "proceduralne" zabawy na razie wyglądają tak że co 2-3 modyfikatory muszę je zatwierdzać, ręcznie robić poprawki, dodawać vertex grupy i wtedy wtedy przechodzić do kolejnej partii modyfikatorów. Jak dla mnie to w ogóle się kłuci z ideą modyfikatorów. Najsmutniejsze jest to że gdy przejdziemy na modyfikatory na nodach to ten system nie ruszy się tak naprawdę w żadnym kierunku jeśli nie zostaną dodane te 3 rzeczy o których wspomniałem wcześniej. Stwierdzam że kod i implementacja to ciche pierdnięcie przy takich aspektach jak desig, architektura i algorytmy. Do level designu wybieram Houdiniego zamiast czekania nie-wiadomo-ile-i-czy-w-ogóle. Koniec wylewania gorzkich żali, wracam ogarniać burdel w cycles bake. ;)
  12. Podoba mi sie takie podejscie. Po tym jak wymęcze demo reela zabieram sie za hudego. Dzięki za pomoc. :)
  13. Dzięki za wyjaśnienie. Super! Będę musiał kiedyś w końcu przysiąść do hudego bo to co oferują poznane przeze mnie softy zaczęło mnie już ograniczać. Jakbym mógł jeszcze poprosić was o nakierowanie mnie od czego mam zacząć naukę. To na czym mi głównie zależy to proceduralne tworzenie światów / poziomów do gier. W skali makro czyli teren, miasta oraz w skali mikro czyli wnętrza budynków, modele roślinności. Na pewno nie chcę zajmować się symulacjami, particlami, renderem ale pewnie jakieś rozproszenie drzewek po terenie będzie wymagało użycia particli (czy się mylę?) więc jak możecie to napiszcie proszę od czego zacząć. Zabiorę się za to co jest na stronie SESI w sekcji Getting started ale pytanie co potem.
  14. Reanimator- https://developer.blender.org/T39708 Chyba będziesz musiał poczekać z twoim bugiem na projekty związane z Gooseberry. Większość rzeczy związanych z particlami i symulacjami leci teraz do kosza. Goście jak widać nie są zainteresowani tymczasowymi hakami łatającymi obecny dziurawy system. Well. Może faktycznie blender musi jeszcze przejść trochę zmian żeby nadawał się konkretnej produkcji.
  15. Pozamiatacie chłopaki! Łykam kolekcjonerkę. :D
  16. Hej. Na wstępie powiem że Huodiniego jeszcze nie używam i wiem o nim tylko tyle ile można się dowiedzieć z pokazówek na youtube. Tak więc będzie lamersko. ;)\ Próbowałem dotrzeć do jakiś informacji na temat architektury proceduralnego modelowania. To co pokazują tutoriale które znalazłem na YT czy stronie SESI niebardzo mi wystarcza, chciałbym się dowiedzieć co głębiej zachodzi w programie podczas edycji nodów dodanych do procedury WCZEŚNIEJ w hierarchii. Przykładowa sytuacja. Mam cubea i dodaje do niego subdivide node z ustawionym Depth na 3, na powstałej geometrii robię kilka extrudów. Widziałem że przy takich operacjach nowo powstałe facey mają dosyć złożone nazwy, interesuje mnie dlaczego dokładnie takie. Jedziemy dalej- Zmniejszam lub zwiększam w nodzie subdivide depth i to co się zadzieje z tymi ekstrudami które zrobiłem potem jest dla mnie właśnie zagadką. Możecie podrzucić jakieś materiały, najlepiej pisane na temat mechaniki jaka się dzieje w hudym przy takich operacjach?
  17. Na stronie projektu Gooseberry pojawiła się notka z podsumowaniem spotkań developerów Blendera które odbyły się w maju. W linku możecie przeczytać jakie zmiany pojawią się w Blenderze w przyszłych miesiącach. http://gooseberry.blender.org/may-developer-meetings/
  18. http://gooseberry.blender.org/may-developer-meetings/ Bardzo grubo.
  19. Musisz wsculptować gościa tak żeby miał trochę otwarta buzię i dziurę tam gdzie jest jaka ustna. Usta nie mogą się ze sobą stykać. Potem retopo, dodajesz model szczeki i wtedy zamykasz szczękę i usta. Żeby zachować proporcje i detale to po zamknięciu mu szczęki modelujesz siatkę lowpoly tak żeby zgadzała się z pozą z zamkniętymi ustami i robisz projekcje detalu z maskowaniem całego wnętrza paszczy i stykającego się fragmentu ust. Przydatne do tego będą polygrupy i maskowanie siatki względem nich.
  20. Creator - Raytrace to na tyle szerokie pojęcie że nie sposób tego uprościć do jednego algorytmu. Oczywiście ja mówię o wykonywaniu tych uniwersalnych obliczeń, cała matma związana z wektorami. Temporal- Z nikim się nie kłócę i nie mam pretensji. Zupełnie nie jest tak że czekam z działaniem aż zrobią te rzeczy o których dyskutowaliśmy. Po prostu chciałem sobie pogadać że będzie wtedy fajniej. ;D
  21. Temporal- Takim gadaniem można zanegować każde nowe rozwiązania. Wracasz do Maxa 1.0? Gdyby nie co raz większe wymagania klientów oraz konkurencja firmy nie rozwijałyby swoich narzędzi bo przecież już da się szybko wpisywać pozycje verteksów z palca. Również dla mnie zrobienie ładnego obrazka też jest celem nadrzędnym. Tylko ja mam takie podejście że wolałbym to zrobić szybciej, wygodniej i taniej, potem zabrać się za kolejny obrazek a nie musieć w tym czasie czekać na podgląd renderu. Nie rozumiem o co ci chodzi o renderowaniem na GPU. To była rewolucja i nawet sami goście od VRaya o tym teraz trąbią non-stop. Ja naciskam jeden guzik i wiem dokładnie jak będzie wyglądał render (pomijając szum oczywiście). Jeszcze parę lat temu takie rzeczy nie były możliwe bez sprzętu z ceną o jedno zero większą niż moja obecna maszyna. Łatwość obsługi, oszczędność czasu i pieniędzy- Chyba warto wspierać takie rzeczy żeby móc się skupić na tym co jest sednem grafiki. Odbiorca nigdy nie zauważy ile prądu poświęciłeś na robienie testowych renderów jeśli efekt jest taki sam. Ja ciesze się nowościami bo osiągam swój cel w mniejszym czasie.
  22. Nie zdziwiłbym się. Przy pierwszym Avatarze opłacało im się napisać od podstaw własny algorytm GI. Dla form robiących renderery takie coś to lata reaserchu. W przypadku tak ogromnej produkcji stworzenie dedykowanych czipów do renderu mogłoby zaoszczędzić grube miliony dolców. W końcu nie mówimy tylko o puszczeniu gotowego render joba na farmie ale też usprawnieniu samej produkcji. Do poczytania: http://en.wikipedia.org/wiki/Ray_tracing_hardware Tutaj całkiem świeży news: http://www.extremetech.com/computing/178743-powervr-series6-wizard-gpu-is-the-first-to-combine-3d-and-ray-tracing-hardware-in-a-single-chip Równo 3 razy więcej promieni na sekunde na mobile niż ich wcześniejszym akcelerator na desktopie. Algorytmy są wszystkim. :) Jak dla mnie właśnie rozwiały się wątpliwości dlaczego Unity Tech czeka tak długo z wypuszczeniem Unity5. To może być rewolucja w grafice realtime. Teraz ten sam czip x10 na desktopie i śmigamy po dżungli z Avatara. :)
  23. To fakt. Wystarczy popatrzeć na takie technologie jak OpenSubdiv który potrafi przyśpieszyć animacje nawet 30 razy na dokładnie tym samym CPU (nie wypominając o 400 razy szybszej animacji z wykorzystaniem GPU bo mówimy o nowych algorytmach na tym samym sprzęcie). Albo Realtimowe Global Illumination od Enlighten i ARM na mobilkach które oferuje to przy czym 2 lata temu krztusiły się dwa GTX 580. Odpowiednia architektura zarówno softu jak i hardwareu jest kluczem, pakowanie większej ilości tranzystorów to ślepa uliczka. To by było dopiero "CUDA" gdyby karty grafiki miały dedykowane układy do obliczania raytaceu. Miner bitcoinów wielkości pendrivea i zasilany przez usb może osiągnąć wyniki lepsze od topowej grafiki za 3 tysiące dolców pobierającej n-razy więcej mocy. Jestem przekonany że dałoby się już dzisiaj zrobić akcelerator grafiki generujący w czasie rzeczywistym grafikę o jakości filmów. Ile mocy jest wytracane na samo wygenerowanie liczb losowych metodą monte carlo... Przecież na hardwarze wygenerowanie randomu dałoby się to mieć niemal za darmo na sto sposobów. http://en.wikipedia.org/wiki/Hardware_random_number_generator
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności