Skocz do zawartości

czaps

Members
  • Liczba zawartości

    273
  • Rejestracja

  • Ostatnia wizyta

Odpowiedzi dodane przez czaps

  1. RFRK dziala z Rendermanem, Mantra oraz Mental Ray. Mozesz wykorzystac 3dMax'a, Maye, Softimage lub Houdiniego.

    Jest rowniez C++ SDK

     

    Nie wiedziałem , że RFRK działa też z Mantrą. Choć w sumie przy instalacji tego już podpowiada co gdzie i z jakim softem.

    Jako , że akurat w moim przypadku działałem w Mayi jeśli chodzi o RF+RFRK więc taka odpowiedź mi się nasunęła z głowy od razu trochę....

     

    pozdro

     

    czaps

  2. No, a jak sie sprawuje render-time meshing w RF?

     

    Jest lepszy meshing podczas renderingu, ale musisz uzywac wtedy RFRKit współdziałający z Mental rayem w Maya.

    Jeśli inne renderery Cie interesują to jesteś skazany na meshing w RF bezpośrednio lub drop offy partikli do innych aplikacji ( jak wyżej już wspomnieli ludzie) i tam meshowanie. Sam meshing w RF jest dość wolny ,,, ale nie do przesady.

     

    pozdro

     

    czaps

  3. I bardzo cieszy mnie ten fakt .. ;)

     

    Większość firm tak działa , Autodesk , SideFX itc. Next Limit , Chaos Group itd. w ten sposób mają szanse zaprezentować produkt gronie szerszych odbiorców. Co za tym idzie powstanie sporo materiałów typu test it yourself ( and find out if it is for You ) i końcowy produkt będzie szerzej znany na rynku no i popularny przez to.

     

    Kto nie walczy o klientów w takich dziwnych czasach w jakich żyjemy ? ...

     

    pozdro

     

    czaps

  4. Dawid: Jaki sens ma zmniejszanie fizycznie poprawnej wartości słońca, przy próbie fizycznie poprawnej wizualizacji, przy użyciu fizycznie poprawnej symulacji kamery/aparatu ?

    Nie wiem po co sobie utrudniać życie, zależy gdzie mierzysz.

     

    Fizycznie poprawna wartość słońca przy użytym jako lens shader dla kamery photographic exposure musi byc zmodyfikowana i wtedy jest poprawna fizycznie właśnie . Dlatego tak jest m.in , że Mental ray nie dorobił się jeszcze fizycznie poprawnej kamery skoro juz tu mówimy na temat poprawności.

     

    Żeby takową "poprawnośc" zasymulować jest stworzony shader do kamerki mayowej lens photographic exposure właśnie...

     

    Inaczej jest w przypadku np. Vraya gdzie program ma swoje dedykowane kamerki i są w nich opcje takie jakie zazwyczaj spotkasz w aparacie fotograficznym czy kamerze wideo.....

     

    Sporo by tu pisać na ten temat i innych powiązanych faktów tu masz wskazówki :

     

    http://download.autodesk.com/global/docs/softimage2013/en_us/userguide/index.html?url=files/mentalray_mia_exposure_photographic.htm,topicNumber=d28e708445

     

    Ja sobie życia staram się z reguły nie utrudniać dlatego unikam dedykowanych MR shaderów niestety....ale każdy ma inny styl i warto robić co kto lubi a nie to co wypada bo coś tam coś tam ;)

     

    pozdro

     

    czaps

  5. Do lens shadera photographic exposure musisz zmniejszyć wartość głównego światła w scenie w tym wypadku Sun lighta.

    Zazwyczaj można jechac na exposure simple i też daje pożądane efekty , po co jeszcze bardziej utrudniac życie , które i tak jest trudne z mentalem...

     

    Kotisded co do poprawności fizycznej materiałów może i masz racje ale na co komu poprawna fizyczność przy kolorowych i mających dobrze i szybko wyglądać renderach ?

     

    ja tam zostaje przy standardowych shaderach mayowych vs MIAsów i innych ... wzbogacam sobie ich możliwości w custom shaders w zależności od potrzeb i o ile w ogóle muszę dotykać mentala poza fluidami ( na chwilę obecną ;) ) .

     

    pozdro

     

    czaps

  6. Moze pokazesz jakas to twoją solucje tutaj?

     

    Odpowiem troche na przekór, ale - czy nie łatwiej jest oswietlic nie uzywając GI? To diabelski nowoczesny wymysl.

    Moze nie warto.

     

    Sorka bo nie wczytałem się w twój post Guru .

     

    Jeśli ktoś jedzie na Irradiance Particles to FG jest zastępowane odpowiednikiem IParticles... Mimo , że może wygladać że jest dalej włączone w menu Features...

     

    Jak ktoś kliknie z kolei GI , przy wybranym silniku IParticles + Importons to w tym momencie w zakładce Extras poniżej oddznacza Ci się Photon Auto Volume .... może też tutaj leżeć cały problem o którym pisze Sebastian....

     

    Warto looknąć też w zakładce : Importons na opcje "traverse" i przeczytać tam podpowiedź,,,,

     

    pozdro

     

    czaps

  7. "Mia material ma problem zarowno z IP GI I FG...."

     

    cały MR ma problem sam ze sobą i w połączeniu z Mayą ... niestety. Spróbuj olać Mia materiały i spróbować rozbudować np. blinna o dodatkowe custom shadery pchając je do slotu Shading Group w sekcji MRay custom shaders....sprawdź czy coś to pomoże jak nie to najłatwiej będzie dodać contribution pass jakis dla osobnego layera dla danego obiektu , który tworzy problem w scenie ( może nawet dla wybranego materiału passes overlaya). Pozostaje wykorzystanie tego w compositing potem. Tak jak gadaliśmy z resztą w niedziele..

     

    pozdro

     

    czaps

  8. "ale czy atrybury perpartikle mozna wpinać w shader ? bo o to się rozchodzi"

     

    Żeby zadziałał np. particle sampler info node - dla Vray dla Maya możesz dodać custom Extra Vray attribute dla partikli i tam zaznaczyć co ma być uwzględnione i gdzie.

     

    pozdro

     

    czaps

  9. "Haha sooo true ale pytanie dotyczyło Maya

     

    ps. Jak nie będę wieczorem na prawdę miał nic lepszego do roboty to machnę takie rozwiązanie. Na teraz mi do głowy przychodzi meeega brutalne rozwiązanie per frame, ale może jakoś uda mi się dobrać inaczej do id obiektu instancjonowanego."

     

    Myślę, że nie ma co wymyślać samemu "koła" , które zostało już wynalezione wcześniej.

    W zależności od potrzeb i personalnych preferencji przychodzą mi na szybko dwa przykłady --- > SOUP ( http://www.soup-dev.com/)

    oraz Vray dla Maya ( http://www.chaosgroup.com ) gdzie oprócz tego, że możemy obiekty użyte w instancerze zamienic na Vray proxy, animowane lub statyczne i indywidualnie przypisać / modyfikować dowolny shader w zależności od własnych chęci itd.

     

    pozdro

     

    czaps

  10. Jak już wszystko " zbejkujesz" czy "wypieczesz" na swoim animowanym obiekcie to go zaznacz i zrób sobie selection set. Będzie to potrzebne do eksportu do FBX w którym zaznaczasz przy cache geometry swój gotowy selection set.

    Inaczej przeniesie Ci samą geometrię bez animacji.

     

    Pozdro

     

    czaps

  11. Hej

     

    1) Pliki zapisuje bezpośrednio na dysk w scieżce podanej w "Output picture"

    2) Przy odpaleniu jako Admin też ten sam komunikat wyskakuje UT_NetPacket::read: No such file or directory i render staje po kilkunastu procentach

    3)Z linni komend jeszcze nie próbowałem

    4) Takj , pojedyncze klatki renderuje do Mplayera jako Ip

     

    nie działa dzis u mnie stronka SideFx.com bo pewnie tam bym coś znalazł na ten temat.

     

    pozdro

     

    czaps

  12. Hej

     

    Kiedy próbuje wyrenderować animację w Houdinim 11 apprentice edition mam problem.

    Wyskakuje błąd : UT_NetPacket::read: No such file or directory

     

    Próbowałem pododawać większość plików startowych Hudego w moim antivirusie Spyware doctor ale to nie pomogło. Nawet przy wyłączonym antywirusie problem ten sam. Co ustawić w Houdinim żeby renderował sekwencje i zapisywał na dysk?

     

    pozdro

     

    czaps

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności