Skocz do zawartości

beny

Members
  • Liczba zawartości

    1 259
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    4

Odpowiedzi dodane przez beny

  1. Nie ma co się kłócić, jak ktoś nie wie jak obsługiwać soft to będzie miał ze wszystkim problem, ale fakt faktem, że niektóre softy mają po prostu lepiej zaprojektowany workflow do jednych zadań, a inne do drugich. Nie da się zrobić kontroli Hudego, przy prędkości Maya, prostocie Maxa i za cenę Blendera. Trzeba przyjąć za fakt, że w każdym z tych softów po prostu zrobi się niektóre rzeczy sprawniej niż w innym, czy to ze względu na architekturę, znajomość softu, czy po prostu cenę. Upieranie się przy wyższości jednego softu "bo w nim też da radę TO zrobić" jest po prostu idiotyczne i tylko o to mi chodzi.

  2. Nie chce mi się tłumaczyć Wam, raz publicznie, dwa pisemnie o co mi chodzi, może kiedyś uda się pogadać face2face to łatwiej będzie można wymienić poglądy.

     

    W skrócie - w każdym sofcie do 3D zrobi się to samo - więc idąc tym tokiem myślenia są takie same, a nie są. "Nadawać się" znaczy, że coś do czegoś jest przeznaczone - widelcem tez zjesz w końcu całą zupę, ale czy nadaje się do tego to już inna kwestia.

     

    ps. mantragora - przeczytałem Twoją odpowiedź, ale za duzo tłumaczenia. A co do offa to swojego czasu ostro programowałem w API, bo mnie to kręciło, ale od kilku lat nie miałem potrzeby czegokolwiek tam robić więc zardzewiałem w temacie i z tym Ci pomóc nie mogę.

     

    edit: ps2 - nie zrozumcie mnie źle - uwielbiam hudego, ale ilośc nodów jaką tworzy do najprostszych czynności, po prostu potrafi przytłoczyć i tylko to mi przeszkadza i myślę że to jest własnie przyczyna dlaczego 90% grafików nigdy nie tknie tego softu. I nie wmówicie mi że nie musisz wiedzieć co połowa z nich robi bo musisz - chociażby przy minimalnych modyfikacjach musisz wiedzieć do którego noda w setkach utworzonych masz się dobrać żeby coś poprawić.

  3. Gdyby zmienic w Houdym narzedzia do modelowania to bylby zajebisty modeler.

     

    ... i usprawnić UI/UX we viewporcie, i poprawić riggowanie, i usprawnić workflow animacji, i przyspieszyć sumulację, i otworzyc na inne renderery niż mantra ... to w ogóle będzie zajebisty soft do generalnego 3D. Póki co nadaje się tylko (i AŻ!!) do Fx'ów.

  4. Poprostu pewnym firmom nie wypada nie byc bo ich absencja sugeruje... kazdy juz wie co :-).

     

    hmmm ... nie każdy chyba wie co. Wg. mnie powodów może być bardzo dużo od wstydu że nie ma się co pokazać, po uniknięcie niewygodnych pytać odnośnie zamykanych softów po zamknięcie firmy. A Ty co miałeś na myśli przez "każdy wie co"?

  5. Kurcze, jakiś smutny ten siggraph w tym roku.

    Może bardziej 'przyziemny' niż smutny. Wszystko co tu czytamy to zwykłe ogłoszenia o softach.

     

    Chciałbym wiecej takich rzeczy w newsach:

     

     

    Przy czym wiem, że to tylko zabawki które zazwyczaj nie wychodzą na światło dzienne jako pluginy czy osobne softy, i pozostają tylko nieużywanymi technologiami. Ale ta świadomość nie wpływa to na ciekawość prezentacji.

     

    Ja chce "adaptive mesh refinement" do nSolvera!!

  6. Witam!

     

    Nie chcę zakładać kolejnego tematu.

     

    Mam problem z tym aby zrobić własnie taki efekt. Będzie on potrzebny do animacji. I gorące powietrze ma zostać wciągnięte przez wentylator nie mam pojęcia jak to zrobić. Próbowałem przez system cząsteczek jednak coś nie bardzo mi to wychodzi. Chyba że robię coś źle. Czy koś by mógł pomóc?

     

    Wyemituj sobie jakiś dym, np w fumeFX z noisem czarno białym anmowanym jako kolor emisji i użyj tego passa jako displacement w AE. na chłopski rozum powinno zabanglać.

  7. Wywazone a przeciez tak wyraziste srodki wyrazu sprawiaja, ze humanistyczny przekaz tej wielowatkowej historii uderza w ponadkulturowy dzwon czlowieczenstwa a jego transcendentne brzmienie wstrzasa i sklania do zadumy.

     

    Znaczy się, że zarąbiste w pizdu było tak?

  8. No mogłeś przynajmniej przepchać tą sferę za ekran... wtedy to by było przemijanie, a tak to przez 2 min patrzyliśmy się jak debile i czekaliśmy na TEN właściwy moment.

     

    Ale właśnie o tym jest przemijanie właśnie - czekasz na ten jeden właściwy moment całe życie i zanim się zorientujesz życie się kończy, a Ty nic z niego nie masz. Dlatego właśnie nie wolno czekać na ten właściwy moment, bo on się zdarza tylko jednostkom, a reszta umiera w oczekiwaniu na ...

  9. Gratuluję ukończenia projektu. Wyszło super - front murowany! Aż łezka w oku się kręci ... jakie to życie kruche .... Myślę, że wystarczy zrobić time warp w AE do 40 minut i pełen metraż gotowy.

  10. A tak z ciekawosci, czy Arnold ma cos wyjatkowego czego nie ma w innych rendererach, np Vray,Mental?

     

    Tak - m.in. zarąbiście szybki displacement i współgrające wszystkie parametry ze sobą jak SSS, GI, refrakcja, volumetryki itp. Po prostu jest to spójne. Nie trzeba bujać się z fakowaniem zachowania shaderów. Po prostu ustawiasz shader w 2 ustawieniach sceny, np. tryb dzień/noc i wiesz że dobrze tez będzie wyglądał w półmroku, czy jak postać wejdzie w światło lampy. Nie ja VRay czy mental że do każdego ujęcia trzeba tweakować ustawienia SSS, bo z jednego kąta wygląda ok to jak dojdzie mgła to zapomnij, że to będzie tak samo grało ze sceną.

  11. Nie ośmieszajcie się. Łatwo dostępny to jest 3delight (1 lic za darmo).

    Żeby dostać demo Arnolda trzeba przejść selekcję - to jest śmieszne.

    Ale to jest sprytny marketing, zakazany owoc smakuje lepiej i jest porządany. Kto kupi kota w worze ?

     

    To było proste pytanie o określenie "ciężkiej dostepności" - czyli czy autorowi chodziło o trudność konfiguracji, małą ilość softów supportujących ten renderer, skąpą dokumentację, czy właśnie dostępność licencji. Zapytałem, bo używamy tego renderera już od dłuższego czasu i narazie nie ma ogóle z tym problemów - bardzo dobry renderer, zwłaszcza że zaczyna być supportowany przez Hudego, a jedyny upierdliwy problem to długo generujące się swatches w Mayce.

     

    Co do dostępności licencji to nie słyszałem żeby nasz IT miało z tym jakiś problem, więc to też jakieś nieuzasadnione pomówienia.

  12. Spoko ten kod był z grubsza pokazujący zasadę - pisałem go z czapy, po 2 piwach i w nocy, więc wybaczcie błędy :D

     

    Może chodziło Ci o unit ?

     

    Tak o unit mi chodziło. Już softy m się mylą :)

     

    Napisałem skrypt który w który "na piechotę" liczył nowe nowe pozycje odejmując różnice pozycji między aktualną a docelową, działało to jednak strasznie powoli.

     

    Wg mnie ta metoda ma o tyle poważniejszy błąd, że motion blur Ci się nie wyliczy.

    Wstawiłem jednak dodatkową zmienną

    vector $targetPosVec; żeby dało się odejmować wektory, maya wywala błąd skalarny przy czystym float[]

     

    $targetPos = `pointPosition -w ("nParticleAShape.pt[" + nParticleAShape.particleId + "]")`;

    $targetPosVec = $targetPos;

    $velocity = unit($targetPosVec - nParticle_CurrentShape.position) * $speed;

     

    Bez normalizacji lecą ładnie tak jak powinny, ale szybko przybierają docelowy kształt.

     

    Ogólnie wystarczyło machnąć deklarację zmiennej vector przed $targetPos i by banlało bez wkładania nowej zmiennej:

     

    vector $targetPos = `pointPosition -w ("nParticleAShape.pt[" + nParticleAShape.particleId + "]")`;

     

    aha - noi wywal "$" sprzed velocity - bo to atrybut particla. A lecą szybko do celu właśnie dlatego że nie masz unit zrobione. Unit dba o to żebyś tylko wziął kierunek do particla a nie jego odległość od targetu. Odległością trzeba się zająć osobno - np. skalować prędkość w zależności od odległości ale w kontrolowany sposób np. linstepem albo mnożeniem $speed *0.98 (powiedzmy) gdy dystans do celu czyli mag($targetPosVec - nParticle_CurrentShape.position)

     

    ps. Fajny ten reel ;]

     

    Dzięki, dużo rzeczy nie mam tam, bo odchodząc z firm nie brałem materiałów i do części nie miałem dostępu do materiałów finalnych, bo zdalnie robiłem tylko co do mnie należało, odsyłałem cache i tyle. Jednak 2013 reel będzie bogatszy o kilka naprawdę fajowych pozycji :)

  13. Tworzysz 3 teksty, dla każdego oddzielny nParticle shape, emitujesz z emitera do tych nParticle shapów, ustawiasz na nich ten sam limit (dajmy na to 1000 particli) i zapisujesz na nich stan. Włączasz na tych nShapach ignore solver gravity i wind, odłączasz z kolizji itd. To będą Twoje targety. Teraz tworzysz te particle, które będziesz widział, na nich też ustawiasz ten sam limit emisji i na nich wpisujesz sobie ekspresję pi razy oko taką:

    $targetA = 1;

    $targetB = 0;

    $targetC = 0;

    $targetD = 0;

    $speed = 5;

     

    if ($targetA){

    $targetPos = pointPosition("nParticleShapeA.pt["+ id + "]");

    $velocity = normalize($targetPos - position)*$speed;

    }

     

    ... i dopisujesz swoje warunki $target'ów - czyli kiedy ma łapać który napis. nParticleShapeA to jest napis A, który został utworzony itd, analogicznie B,C,D. id Ci się będą zgadzały, bo będziesz miał tę samą ilość particli we wszystkich shapach i nie musisz dzięki temu korzystać z goalPP tylko czystą ekspresją jedziesz przypisując do velocity różnicę pozycji punktów i normalizując ją otrzymując tym samym kierunek w którym ma lecieć particle i mnożysz przez prędkość z jaką ma tam lecieć. Warto by było pomyśleć nad jakimś jego wyhamowaniem czyli jakiś linstep by się przydał albo podzielnik speed'a jak już particle jest blisko.

     

    Pozdro,

    M.

     

    ps. Nie chcę się bawić w dziadka3D i umieszczać linka do swoich prac, ale tutaj tą metodą masz zrobione logo 3D firmy Ernst&Young - https://vimeo.com/user1329139/benczarskireel2012#t=95 jest to co prawda tylko wycinek całej animacji, ale to się formowało z grida particli w to logo a potem znowu w grida - i ładnie się animowało i targetowało do swoich celów.

  14. Oj tam, przesadzacie. Ludzie o tym nie gadają, bo to prosty plug jest i nie bardzo jest o czym. Widziałeś kiedyś forum notepada na przykład? Generalne zasady działania w rayfire to:

    1. fracturowana geometria musi być czysta - bez intereskcji mesha, normalki w dobrą stronę itd.

    2. obiekty fracturowane i kolizyjne muszą być zamknięte

    3. w miarę możliwości unikać fracturowania innego niż proboolean (tylko ten jest stabilny)

    4. dynamikę i fracturing liczyć warstwami - najpierw duże kawałki, potem wybierasz zbakowane duże i zamieniasz je na dynamiczne animowane, te się rozpadają na ciut mniejsze, i znowu wybierasz te co mają się rozlecieć i zmieniasz na dynamiczne itd. do póki nie otrzymasz finalnego rozpadu

    5. rozsądnie operować ilością sampli na ramkę symulacji - wcale im więcej tym lepiej nie jest

    6. Nigdy nie animować wszystkiego na raz!

     

    I tyle ... rayfire swojego czasu był znacznie stabilniejszy niż TP - mówię tak do wesji TP 3.0 - teraz raczej już TP rządzi, aczkolwiek też pozostawia wieeeele do życzenia w zakresie volume break'a.

  15. ...i nie mów że to jest takie trudna do osiągnięcia... skoro nieumiejętnie posługujący się narzędziami dziad... potrafi...!!!

     

    Ot co! Lepiej bym tego nie ujął! Dlatego też nie uważam, żeby machanie zakwalifikowaniem się do jakiegoś festiwalu w jakikolwiek sposób podnosiło wartość Twoich dzieł. Jest ona dążąca do zera, ale cenię Cię za to że robisz i Ci się chce zamiast oglądać seriale w TV jak to większość ludzi w Polsce na emeryturze robi.

  16. No, teraz to sobie mozesz wpisac do osiagniec najglupsza propozycje w dziejach glupich propozycji.

    Czekaj tylko rzuce prace, rozwiode sie, porzuce dziecko, oleje mieszkanie i moje zainteresowania i rzuce sie w wir zdrowego, humanistycznego wspolzawodnictwa.

     

    W zasadzie dziwie sie ze nie zaproponowales mi zbudowania motolotni.

     

    Oj przesadzasz. jakbyś był prawdziwym artystą to porzuciłbyś rodzinę dla sztuki!

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności