Skocz do zawartości

SYmek

Members
  • Liczba zawartości

    1 532
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    14

Zawartość dodana przez SYmek

  1. ... oba wspierane w Houdinim ;) he he. sy. :) O! Lord, you are my King! C'mon everybody... sing, sing, sing.
  2. a pytasz poważnie czy żartujesz? ;)
  3. Dodaj sobie: + Maya Unlimited + RealFlow + Fusion (przynajmniej...) + np. 50 licencji mental ray'a stand alone, albo Air, nie chce wspominać o PRManie, ale mógłbym... ... i potem zastanów się, kto tu jest drogi... bo jeśli idzie o pieniądze, to ktoś inny Was robi w konia, a Wy się na to godzicie... ;) 5 tysięcy dolarów za program, który nic sam nie potrafi i który trzeba dozbrajać setką pluginów! Gdyby studia używały bez wyjątku legalnego softu, jedno stanowisko Maxa kosztowałoby kilkanaście tysięcy dolarów... Nie zapominaj też, że jeśli na przykład używasz RealFlow, to kupując Houdini Escape (2-3K$), dostajesz pełną funkcjonalność (włączają kompozytora). Czyli za cenę zbliżoną do gołego Maxa, masz zajefajny zestaw pakietu 3d, symulatora, kompozytora i Mantry, której zdaje się nie znacie (więc trudno Wam ją docenić), ale możecie mi wierzyć, że w przypadku przemysłu filmowego/animacji są może dwie zabawki, które mogą się z nią równać (i żadną z nich nie jest VRay ;) ). pozdr., skk.
  4. dzięki, nie mogłeś się tam dostać... stąd pytanie, ale teraz już widzę.
  5. Jedyny kłopot może robić rzeczywiście color bleeding, bo będzie wymagał wyodrębnienie dodatkowych masek dla kolorów, ale to również da się zrobić. Musisz nadać obiektom, które mają różne kolory, kolory podstawowe, tak żeby nie sąsiadowały ze sobą. Masz tylko trzy do wyboru, ale nie jest tak źle, biorąc pod uwagą, jakie jest rozwiązanie zagadnienia 4 barw... ;) Na prostych lambertach z podstawowymi kolorami renderujesz GI dla efektu color bleeding. A reszta to już proste. Cieniowanie i tekstury oddzielnie od koloru. Potem za pomocą hvs możesz zmieniać kolor niezależnie od oświetlenia i dostosowywać do tego GI, bo global diffuse każdej ściany masz oddzielnie, dzieki podstawowym kolorom. jakoś tak...
  6. Naprawdę chce Ci się renderować 10 razy animacje, żeby poprawić swój glare na obiektach? Takie rzeczy zawsze robi się w postprodukcji. Przecież to jest filtr, efekt który powstaje na koniec renderingu. Każdy program do kompozycji to potrafi. pozdr., skk.
  7. Tak naprawdę w zabawie z takim światłem nie tyle chodzi o światło ile o cienie. Dopóki nie wykorzystujesz funkcji bsdf, taki walec nie ma wpływy na wygląd Twojej powierzchni, ma wpływ na wygląd cienia, bo de facto renderujesz multum cieni w trybie raytrace (bądź z-depth) - nie wiem, czego używa scanline. W każdym razie, przy kilku takich światłach czasy w Twojej scenie poszybują w niebo, bo obliczenia cieni tym sposobem jest bardzo powolne.... Krótko mówiąc kiepski pomysł... Oświetlenie sceny a "ocienienie" jej to są dwie różne sprawy. Mam wrażenie, że to, co Ci się podoba w tym sposobie to cienie a nie światło. Rozumiem to, bo miękkie cienie są dużo ładniejsze od zwykłych. Nawet jeśli dojdziesz do wniosku, że chcesz swoje cienie generować w ten sposób, to wcale nie znaczy, że powinieneś tak oświetlać scenę. Jeśli znasz dobrze scanline - to pewnie jest to dobry pomysł, żeby przy nim zostać. Prostota bywa atutem. Oczywiście o ile nie będziesz chciał renderować motion bluru, displacementa, DOFa, ciężkich tekstur, nie wspominając o GI ;) (z którego ja na Twoim miejscu bym nie korzystał). Bo wtedy pożałujesz swojej decyzji... Ale gwoli formalności: www.3delight.com - jest darmowy na pojedynczy komputer, REYES. www.nvidia.com/page/gz_home.html - Gelato, wersja darmowa, REYES wspomagany GPU. pixie.sourceforge.net - darmowy jak powietrze, REYES. sunflow.sourceforge.net - nawet bardziej darmowy, raytracer (GI te sprawy). Indigo i tak nie nadaje się do animacji, więc nie ma o czym rozmawiać. www.yafray.org - darmowy, raytracer. www.sidefx.com - Mantra kosztowałaby Cię razem z programem do animacji 99$. Ale musiałbyś zrezygnować z Maxa..., REYES. do wyboru, do koloru! pozdr., skk.
  8. SYmek

    maya nie może zaimportować obj

    Porównaj zawartość obu wersji pliku. OBJ jest prosty jak cep i do tego ASCII. Łatwo zauważysz, co Mai przeszkadzało. Na przykład UV mogły być innego typu (są dwa albo trzy metody opisu tego atrybutu - teraz dokładnie nie pamiętam). Mógłbyś też zamieścić tu próbkę, jakiś lekki obiekt w dwóch wersjach. Warto rozwiązać ten problem na przyszłość, skoro często się zdarza. pozdr., skk
  9. Jak działa frezarka to ja nie wiem, ale wiem, że jak PRMan renderuje Nurbsy, to nie konwertuje ich do niczego innego. Ma pojedynczego patcha -> i dzieli go na mikropoligony wielkości jednego pixela. Pixel na położenie i normalną, ale nie jest wierzchołkiem żadnej siatki. Dlatego Nurbsy renderują się tak dobrze, to znaczy jakość jest zawsze lepsza od poligonów. Bo nie trzeba interpolować normalnych żeby wygładzać krawędzie. Krótko mówiąc Nurby są daleko bardziej czytelną i zrozumiałą definicją powierzchni niż poligony... Poligony są przybliżeniem, a krzywe są precyzyjnym matematycznie opisem. Ale że frezarki mają luzy, to pewnie trzeba przybliżać ;)
  10. Owszem, może i wystarcza o ile zwrócisz uwagę jak Ci się obrazek znormalizuje... ideałem jest 16bit float. Wielkość ta sama, a możliwości jakby więcej ;).
  11. oj uczy się, uczy... właśnie próbuję zrozumieć jak policzyć anisotropic specular bez referencji kierunku... no i nie wiem, jak to zrobić... ;) Chodzi o to, że 32 bity to float, a tylko we float można zapisać liczbę dowolnej wielkości (no nie dowolnej, ale zostawmy szczegóły). Wyobraź sobie 1000 metrowe boisko, którego głębie zapisano w tylko 256 liczbach. To znaczy, że obiekty stojące o 4 metry od siebie w osi Z będą dla komputera w tym samym miejscu. Tego nie chcemy... Oczywiście w ramach oszczędności można by zapisać Zdepth do 16bit float, ale musiałbyś renderować do OpenEXR albo Houdini PIC... pozdr., skk.
  12. Takie rzeczy da się robić tylko za pomocą GI czy fotonów. Nie wiem, co potrafi scanline w Maxie, ale mam przeczucie, że tego nie potrafi. DOF postprodukcyjny rzeczywiście jest dużo szybszy. Mówiłem tylko, że jego użyteczność jest ograniczona. Niektóre ujęcia wyglądają dobrze, inne źle. A jeszcze inne bardzo źle. A co do racji, to sam się przekonasz... Może sprawdź, czy nie mógłbyś swojego filmu zrobić na 3delight lub innym "mikropoligonie" - znacznie lepiej sprawdzają się przy animacji. DOF, motion blur, AA, filtrowanie tekstur - wszystko szybciej i ładniej. Tylko trochę się napracujesz na początku nad setupem i shaderami. Mówiąc inaczej, ja bym tak na pewno zrobił. Poszukałbym darmowego renderera, który napisano do pracy przy animacji i filmach a nie zabawkę. Dokładnie tak jak piszesz. Alfa zostanie zapisana w tiffie. Tiff zapisuje alfę. Nie ma też ograniczeń co do głębi pixela, ilości platów. Możesz mieć w jednym tiffie kilka RGB, potem A, potem Z, i co tam jeszcze Ci potrzeba, w 8, 16 lub 32 bitach. Z kompresją lub bez. Jedynym ograniczeniem jest implementacja tiffa w programie. O Maxie nic w tej sprawie nie wiem... Program kompozycyjny zobaczy tę "dziurę" (dobre! ;) ), o ile alfa będzie pomnożona przez RGB. Pre-multiply to się nazywa. Przy imporcie do AFX masz opcję "Interpret Footage". Powodzienia! skk.
  13. halo, halo! Z-depth channel NIE może być jpegiem, bo powinien mieć 32 bity - jeśli jego wartości mają odpowiadać scenie. Także zakres możliwych odległości, jakie może przybrać z-depth w 8 bitach wydaje się trochę za mały... będziesz miał wszędzie brzydkie artefakty, gradienty itp. Może w renderze do internetu to przejdzie, ale nie w porządnej jakości animacji. Pomijam już sprawę, że dobry DOF można dodać w kompozycji tylko w przypadku niektórych ujęć. Dużo nachodzących na siebie obiektów nigdy nie będzie wyglądać dobrze. 2-3 wyraźnie oddzielone od siebie plany. To się uda. pozdr., PS poszukaj wątku na temat książki "Cyfrowe oświetlenie i rendering" i może zainwestuj trochę grosza w tę lekturę zanim zaczniesz film. Zaoszczędzisz sobie trochę stresów. Powodzenia. EDIT; http://www.max3d.pl/forum/showthread.php?t=41835
  14. SYmek

    jasna "poświata" na obiektach

    Ta sprawa często powraca. Tu jest kilka tematów i potencjalnych powodów dla komplikacji (bo przecież normalnie nie chcemy bawić się w podmienianie alfy w PS ;) ). 1. gamma i głębia koloru tekstury. 2. gamma i głębia koloru renderu. 3. sposób w jaki renderer oblicza Opacity i kolor, czyli jak robi cutoff mate z alfy tekstury. 4. I po czwarte związane z 3. to oczywiście problem pre-multiplikacji alfy w teksturze. Wyobraź sobie co się dzieje z pixelem o wartości 20 w 8 bitach, którego gamma 1.0 zostaje podbita do 2.2 a potem konwertuje się go do float, albo odwrotnie w przypadku renderu do 8 bitów, kiedy zrobiłeś teksturę w 2.2 a potem renderujesz do gammy 1. Albo kiedy obliczając kolor, shader pomnoży go przez alfę, która już była pomnożona w teksturze. Albo nie zrobi tego, na teksturze która nie była multiplikowana. Jest tu taka ilość możliwych komplikacji, że aż strach. Trudno by było pomnożyć przez alfę wszystko - poza brzegami. Po prostu na brzegach widać problem nieprzemnożenia... ;) pozdr., skk.
  15. O modelowaniu jako takim niewiele wiem, to znaczy być może są tacy, którzy nie znoszą Nurbsów i mają ku temu po powody, a inni je kochają. Nie wiem też, jak sprawdzają się w designie i projektowaniu, choć sądząc po postach, używa się ich sporo. Wyjaśnijmy jednak, że Nurbsy nie sprowadzają się do siatki trójkątów. Są powierzchnią parametryczną, którą zarówno OpenGL jak i kilka przyzwoitych renderów potrafi ocieniować natywnie, bez zamiany na poligony. I to jest ich cecha, dla której je wymyślono. To znaczy, być może projektanci pracują na nurbsach z innych powodów, ale na przykład w takiej Mai czy Houdinim nurbry są po to, aby można je było wyrenderować w Rendermanie bez konwersji, gdzie za pomocą jednego patcha, mogę wygenerować choćby góry z wszystkimi detalami. pozdr., skk.
  16. A musi być Max? Bo jeśli nie, to można to zrobić łatwo bez skryptowania w mniej więcej taki sam sposób, jak opisałeś... ale w Maxie ja tego nie umiem zrobić...
  17. Wrzucam newsa również tutaj, bo głównie maxowcy tu siedzą... ;) Właśnie rozpoczęły się testy importera formatu FBX dla Houdiniego 9.1: Więcej info na stronie SESI: http://www.sidefx.com/index.php?option=com_forum&Itemid=172&page=viewtopic&t=10995 W drugim kwartale powinien być również dostępny eksporter H->Fbx. Może więc skończą się problemy z wymianą danych między Houdinim i innymi aplikacjami 3d. pozdr., skk.
  18. SYmek

    Firmy Polskie...

    Jesli zaczynasz pracowac w studiach, ja bym sie nad zarobkami nie zastanawial. One sa z reguly wyrownane i zaleza od tego, jak bardzo sam siebie zajedziesz..., pracujesz na akord ;). Platige akurat shorty nie przeszkadzaja robic pieniadzy. Maja zwykle 20-100% wyzsze budzety, bo raz ze sie cenia - i sluszenie - a dwa, ze robia statystycznie wiecej reklam "high profile" - to znaczy takich, ktore z zalozenia duzo kosztuja. Inne, mniejsze firmy musza sie zadowolic drobnica. Co do opinii na temat studiow. Wiesz, studio to jest byt abstrakcyjny. Tworza je ludzie, a ze poza nielicznymi wyjatkami panuje na tym rynku spora rotacja, to wystarczy ze zmieni sie ekipa i zmienia sie studio - zostaje tylko nazwa. Ja pamietam Orke sprzed paru lat i teraz nie wiem, co sie tam dzieje, bo zdaje sie, ze akurat to studio przezylo dwie gwaltowne rotacje... To samo tyczy sie Lightcraftu, ktory nie ma chyba stalego teamu. W Badi-Badi, AlienFx czy Platige jest inaczej. Sa tez mniejsi jak Televisor, ktory szukal ostatnio grafikow. Postprodukcja i jeszcze jedna nowa firma, ktorej nazwy zdradzic nie moge, tez bedzie kogos szykala. Poza tym w Warszawie poszukuje sie gwaltownie onlinowcow + montazystow. Co roku rynek rosnie o kilkanascie procent a ludzi wrecz ubywa (UK). To nawet zabawne, jak spojrzysz jak poszybowaly zarobki montazystow przez ostatnie dwa lata... Skladaj demo, wysylaj i tak w pierwszym roku zaliczysz 3 studia ;) pozdr., skk.
  19. SYmek

    Firmy Polskie...

    Rzeczywiście najbardziej uznany, nagradzany i pewnie najbardziej nobilitujący dla grafika jest Platige Image. Jest też pewnie najlepszym studiem w tym sensie, że ma największy dorobek artystyczny w dziedzinie 3d i od lat zgarnia z rynku świetnych grafików. Ale przypomniałem sobie ostatnio choćby reel AlienFX i muszę powiedzieć, że naprawdę kawał niezłej roboty powstało w tym studio również - reela mają w każdym razie lepiej zmontowanego ;). Nie mają takiej jazdy na osobiste projekty i promocję, którą na tym można robić + na budowę dużego studia - po prostu robią swoje. Platige wyraźnie celuje w pierwsze w Polsce studio średniej wielkości (+50 osób) i większe projekty, na które 10 osobowe studio nie może sobie pozwolić. Badi - Badi kolejne studio w którym wiele się dzieje na wysokim poziomie. Trudno więc byłoby powiedzieć, że nie ma alternatywy dla Platige. Prawie w każdym z wymienionych wyżej studiów pracują ludzie z +10 stażem, od których możesz się wiele nauczyć. Wiele z nich założyli niedawno "robotnicy" z innych dużych studiów . Televisor na przykład (chyba... ) Poza tym większość tych studiów to jednak fabryki reklamy - to znaczy w sensie artystycznym niewiele wniosą do Twojego życia. Warsztat poznasz na pewno. Gdybyś szukał konkretnie pracy w Warszawie, to raz, że problemów mieć nie będziesz, a dwa ż,e możesz mi posłać PM'a. Mógłbym mieć konkretną propozycję. pozdr., skk.
  20. Nic podobnego. Istnieją softy, które nie wymuszają na Tobie, w którym kanale, w jakiej głębi piksela, i w którym miejscu zapisujesz swoje kanały. Weź pierwszy z brzegu renderer z programowalnym enginem a "brzemię przeszłości" przestanie Cię dotyczyć. 3delight, Pixie, Gelato - darmowe albo Air, PRMan, RenderDotC, Mantra. Wszystkie potrafią zrobić to, na czym Ci zależy - o ile dobrze rozumiem, na czym Ci zależy. 6 pierwszych działa pewnie z Maxem (na pewno z Mayą) - ostatni to oczywiście renderer Houdiniego. W każdym z nich (i paru innych), takie zabawy są standardem. Napisz dokładniej jaki efekt chcesz osiągnąć, to znaczy co z czym zmieszać i w jakim trybie, to może podeślę rozwiązanie... pozdr., skk.
  21. Pewnie Profesor chciał, żebyś ułożył się z odbiciami a'la fresnel, podwójnym specularem, i subwater diffusion, które robisz odwracając normalne, licząc w ten sposób diffuse dla ciemniejszego koloru wody i mieszając z kolorem powierzchni liczonym z normalnymi we właściwą stronę. W ten sposób robi się szybką, fakową wodę. Ale jak to zrobić w Maxie to ja nie wiem, na pewno się da. pozdr., skk.
  22. SYmek

    Firmy Polskie...

    Oczywiście nie sama Warszawa. Jest też mocny oddział wrocławski i śląski, a smoka z Wiedźmina robiło WYbrzeże. Pewnie także Łódź ma swoje studia (Samafor robi 3d, ale tylko konkretne filmy). Ale niech się wypowiedzą znające się osoby. Virtual Magic z Wrocławia przychodzi mi tylko do głowy...
  23. SYmek

    Firmy Polskie...

    AlienFx, Orka, Badi Badi, Lightcraft, Packshot, Odeon, Televisor, Postprodukcja (dawne ITI), Nextmedia, chyba ChimneyPot ma swoją grafikę 3d... to tylko kilka z Warszawy i z pamięci podręcznej. A co Cię konkretnie interesuje?
  24. Nie mowie, ze przesiadka jest prosta, tylko ze jesli ktos pracuje na Maxie to najwyrazniej nie potrzebuje zalet Linuksa. Bo Linuks pewne zalety ma, ale nie zawsze i nie wszystkim sa one potrzebne. Osobiscie nigdy nie polecam Linuksa (ani "pewnych" programow 3d) w sytuacji pytania: "pracuje na win/max, czy uwazacie, ze lepiej przesiasc sie na lin/maya" - bo skoro ktos sam nie widzi powodu przesiadki, to go najwyrazniej nie ma. Dopiero kiedy ktos czuje, ze cos go trzyma za nogi i ciagnie w dol, warto sie zastanawiac i kombinowac. Przeciez linux to nie jest stabilniejsze czy szybsze srodowisko pracy (to znaczy czasem jest, ale nie dlatego sie go wybiera). Czy Max na przyklad uzywa w ogole zmiennych srodowiskowych do konfiguracji sceny? Albo czy jego komponenty uzywaja pipes? A moze generuje dynamicznie sceny w zaleznosci od zamontowanych napedow sieciowych i obecnosci assetow? No oczywiscie, ze nie. I wlasnie dlatego nie jest warto mowic w jego kontekscie o Linuksie, nawet zakladajac, ze udalo by sie go pod niego skompilowac. Ja nie potrafie sobie wyobrazic srodowiska pracy bez zestawu 20 zmiennych, a niektorym one w ogole nie przychodza do glowy. A skoro nie przychodza, to ich nie potrzebuja, a skoro nie potrzbuja, to dobrze im na Win/Max. Stad wniosek, ze ktos pracujacy na Maxie, nie ma powodu tesknic do Linuksa. Jego zalety nie sa mu potrzebne. @Ufol: mowa byla o Geleto firmy nVidia. Offline renderer pracujacy w oparciu o procesor zmiennoprzecionkowy GPU. Zaleta tego renerera nie jest to, ze jest szybki (bo nie jest szybszy od sredniej czolowych graczy), tylko to ze jest bodaj jedynym "renermano-podobnym" enginem za free (poza 3delightem i programami opensource o nie zawsze pewnej jakosci). Ma bardzo dobra jakosc obrazu przy przyzwoitych czasach renderingu. Minus jest oczywiscie taki, ze nie jest to rozwiazanie na farme. To znaczy jes, ale farma drogo Ci wyjdzie... ;). No ale: mikropoligony, programowaly shading, python do opisu sceny a wszystko za free - to jest rarytas! pozdr., skk.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności