Skocz do zawartości

SYmek

Members
  • Liczba zawartości

    1 532
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    14

Zawartość dodana przez SYmek

  1. Link do wikipedii o raytracigu ma się tak do pytania o światło/cień - shading w programach 3d, jak jak opis silnika typu boxer do pytania o zasadę działania silników tłokowych... może się przydać, ale to jest zupełnie inna sprawa. Raytracing nie przesądza o tym, w jaki sposób definiujemy światło i cień na obiektach. Mówi tylko o tym, w jaki sposób dostarczamy naszemu algorytmowi informacji potrzebnych mu do działania. Tutaj jest najobszerniejszy znany mi zasób wiedzy na ten temat. Jest też parę książek o tym, ale trzeba by je sprowadzać: http://odforce.net/wiki/index.php/ReflectanceFunctions Wszystko, co tam napisano stosuje się do większości renderów offline (czyli nie realtime), jakie istnieją. Zamieszczone tam kody natomiast stosują się do Mantry i wszystkich REYESów z PRManem na czele. Autorem wpisu jest Mario Marengo, TD i Shader Writer w AXYZ Animation w Toronto (http://www.axyzfx.com). pozdr., skk.
  2. Ach, witam Cię Andrzeju ;). Praca na 3delightcie przy Twiom filmie, pewnie by się bardzo opłaciła :).
  3. SYmek

    Domowa siec z netem

    Dwa komputery na Twoim Thomsonie podpięte pod port USB i LAN nie będą działać, bo taki modem działa na jednym porcie, albo na drugim, a nie na obu jednocześnie. Router + switch, takiego urządzenia szukasz. Jak będziesz sprytny, to kupisz router + switch + WiFi + model w jednym. Od 100 do 350 złotych (z print serverem i ftp). http://www.allegro.pl/search.php?string=router+adsl
  4. A tutaj mały dodatek znaleziony w sieci, a propos tego, co potrafią REYESy a dokładniej 3delight wespół z XSI: Cały wątek tutaj: http://www.3dolphin.net/foorumi/index.php?topic=1605.0 Spójrzecie na czas pierwszego obrazka ;). To chyba wiele wyjaśnia. pozdr., skk.
  5. Wiele się nie zastanawiając zrobiłbym odbicia w PS, albo w oddzielnym passie z lustrem i fotografią i zmonotował w PS, albo założył lustru environmental map zamiast raytracowych odbić... ale nie wiem, jak to działa w V-Ray. Mógłbyś natomiast napisać, jak się robi takie ładne diagramiki ;), czasami przydałby mi się taki i nie wiem, jak go zrobić. To znaczy wiem, że mógbym go zrobić w PS, ale szukam jakiegoś małego i zgrabnego programu wektorowego, którym dałoby się to robić nie odręcznie... dzięki! pozdr., skk.
  6. Upps, sorry, miałem na myśli wersję stand alone na Linuksa.
  7. Po pierwsze, jak napisano powyżej w calach edukacyjnych, po drugie zdarzają się wyjątki, to znaczy ludzie, którzy bardzo chętnie pracowaliby na REYESach pod XSI, gdyby tylko takie mieli. Teraz mają. Nie mam jednak złudzeń, żeby była to poważna kontrpropozycja dla mentala w XSI właśnie dlatego, że w przypadku pojedynczego stanowiska pracy i braku możliwości zabawy ribami, różnica, jaką wnoszą rendermany, zamazuje się. Nie jest to też propozycja zbyt atrakcyjna cenowo... 2 rdzenie za 1k$ wobec 8 do 36, które daje mental za darmo. Chyba jednak nie mamy innego stanowiska, bo ja właśnie mówię to, co Ty, że nie ma się sensu podniecać 3delightem, jeśli jest się jednoosobową firmą na rynku reklamowym w Polsce. A nawet kilkuosobową. Rendermanowe silniki NIE wnoszą większej możliwości ingerencji w mechanizm działania niż mental ray. Powiedziałbym nawet, że mental ray jest bardziej elastycznym rendererem, tyle tylko że każda, nawet najmniejsza ingerencja w jego działanie wymaga programowania w C++. Stworzenie nawet niezbyt wyszukanego systemu zarządzania renderingiem, z archiwami załączanymi do głównej sceny, z filtrowaniem atrybutów etc, to poważna praca dla całego sztabu programistów. Nie wspominając o własnych shaderach. Tymczasem w rendermanopodobnych enginach to jest bułka z masłem. Kilkoma skryptami można załatwić najtrudniejsze nawet sprawy. Jeśli potrzeba czegoś ekstra, masz DSO i shadeop'sy, które możesz pisać w prostym C. Ale najczęściej nawet tego nie trzeba. Na przykład zaimplementowanie algorytmu realtime ambient occlusion z Nvidia GPU Gems, to cztery linijki kodu RSL (albo VEX). Tego nie da Ci mental ray. O tym pisałem wyżej. Inna sprawa to oczywiście różnice w architekturze samego enginu. Pisane o tym było tyle razy, że nie ma sensu chyba powtarzać. Reyesy rzeczywiście mają pewne zalety, ale z drugiej strony mental ray poświęcił ostatnich kilka lat (od wersji 3.2 do 3.6) na wyeliminowanie większości kłopotów typowych dla raytracingu, które odróżniały go od PRMana. I poradził sobie z tym świetnie. Ja jestem pełen szacunku dla mentla :). Dlatego właśnie napisałem w pierwszym poście, że jak ktoś planuje w XSI pracę na innym enginie, musi mieć powód. A tym poważnym powodem nie tyle jest wydajność (choć może również), ale elastyczność, którą dają Ci programowalny shading, filtrowanie ribów i inne triki. pozdrawiam, skk. PS Ja instalowałem 3delighta tylko na Linuksie i zmienna nazywała się $DELIGHT a nie $3DELIGHT i powinna prowadzić do katalogu głównego instalacji 3delighta, czyli jak zainstalowałeś go w C:/3delight i masz dalej w nim /bin /include /docs/ etc, to C:/3delight jest katalogiem domowym 3delighta. Prawdopodobnie jeszcze $DELIGHT/bin (%DELIGHT%/bin na Windowsach), powinno być dodane do PATH.
  8. Za dużo, ale walczyłem głównie o wywalenie ząbków z "secodary rayes". Potem okazało się, że to geometria, którą wziąłem z odforce jest zła. Jest za mało gęsta, żeby liczyć bez subdivision i jednocześnie za gęsta, bo po włączeniu "render polygon as subdivision" Mantra bardzo zwalniała. Wystarczyło na przykład zrobić subdivade w Sopach i liczyło się znacznie szybciej. Ostatni przykład liczył się około 2 minuty z niskimi ustawieniami. Doszło by do pięciu w wyższych ustawieniach. Zresztą to jest Nurbs, i mantra zapieprza po nim jak oszalała (znacznie szybciej niż w H8). Poza tym Pixel Samples 9x9 nie miał dużego wpływu na czas. Bardziej już Shading Quality = 2, które daje przepiękną ostrość tekstur i idealne krawędzie (bez szumu i ząbków jak ma to miejsce w przypadku raytracerów). Shading Quality uzależnia ;). pozdr., skk. PS Jeśli już mowa o trikach, to oprócz pomysłu podanego przez G.P. moża by z łatwością zrobić to w kompozycji i szczerze powiem, byłby to mój pierwszy test w takiej scenie. Wystarczy albo wypluć oddzielny pass tylko dla refrakcji, albo powalczyć z maskowaniem (via luma matte na przykład) w kompozycji i rozbić te kolory displacem 2d. Tak się kiedyś robiło. EDIT: To znaczy refrakcje użyć jako mapę dla displace 2d... o to mi chodziło. EDIT2: @G.P. Nie, nie da się pythonem pisać shaderów w H9 i nie bardzo wiem, czemu by to miało służyć. W Rendermanie chodzi, zdaje się, o coś innego, ale nie jestem pewien. Marko-język, w którym w RAT'cie był TCL zamieniono na Pythona. Czyli za pomocą makr możesz składać shader z kawałków i do tego służył RAT przecież. To jest dokładnie to samo, co robi VOP. Zobacz na voplib.h, tam są zdefiniowane wszystkie makra dla Vopsów. Robienie tego w Pythonie mija się z celem. Chyba, że chodzi o istnienie klas w najnowszym RSL... jeszcze tego nie widziałem. Mogę nawet zdradzić, że kiedyś w chwili rozpaczy nad Vexem, chciałem coś podobnego zrobić. Na szczęście mi się nie udało, bo parser dla C, napisany w Pythonie to nie jest łatwa sprawa, chyba że korzysta się z gotowego rozwiązanie, które istnieją. Jeśli jednym powodem dla pisania shaderów w pythonie ma być łatwiejsza składnia, to to zupełnie nie ma sensu, bo opanowanie składni Vexa, to kwestia kilku godzin. Swoją drogą zdaje się, że Gelato ma translator RSL -> Python.
  9. Skala szarości to jeden kanał zamiast trzech rgb, czyli 8 bitów. Ale to są pytania z teleturnieju, bo głębia bitowa obrazu w skali szarości może równie dobrze wynosić 32 bity i tyle na przykład wynosi w przypadku z-depth plane. Nie mówiąc już o 16 bit float w przypadku OpenEXR... ale im chodzi o to, że w klasycznym 32 bitwym (dla 4 kanałów) obrazie, na jeden kanał przypada 8 bitów. Chyba, że pytają o wyrażenie jej w bajtach... ;)
  10. Nie chcę się spierać, pewnie masz rację, chociaż jak zapytasz producenta dowolnego renderera, to Ci powie, że jego produkt świetnie się nadaje do pełnometrażowych animacji i pewnie jeszcze poda przykład. Zdaje się nawet fryrender twierdzi, że jest wystarczająco szybki dla animacji. Dzięki za linka, bardzo ciekawy wątek, może znajdę czas, żeby go przeczytać w całości ;). Na boku powiem, że dla mnie nie tyle ważny jest czas czy możliwości trawienia dużych ilości danych, co w dobie 64bitowych komputerów przestaje być problemem. Cała zabawa z programowalnymi enginami i REYESAMI opiera się na poziomie kontroli, którą Ci dają. Nie tylko nad wyglądem powierzchni, ale również nad procesem jej powstawania. To ważne, bo prowadzi do drugiej, bardzo ważnej kwestii. A mianowicie: Im bardziej skomplikowana scena, tym większa szansa na to, że coś nie będzie działać - w każdym programie (i w każdym setupie) są błędy i każdy z nas czasem rwie włosy z głowy na widok jakiś baboli, które nie wiedzieć czemu wyłażą w obrazku. Jak jeszcze nie możesz po prostu otworzyć PS'a i zamalować problem, jesteś w dupie. Chyba, że masz program, który kontrolujesz do najmniejszego szczegółu, więc wiesz jak problem wytropić i wyeliminować. Tu jest, moim zdaniem, pies pogrzebany. Tyle, że poziom kontroli jest odwrotnie proporcjonalny do łatwości obsługi, więc jak ktoś twierdzi (Twój wątek!), że robi profesjonalne narzędzie do filmu łatwe w obsłudze... to mu jakoś nie wierzę. Jedna z tych rzeczy nie jest prawdą... Swoją drogą (Boże ratuj, drażnię stado lwów), ile razy widziałem te cuda techniki, demony szybkości GI, bez których połowa ludzi tutaj nie mogłaby w ogóle się zajmować 3d, w scenach testowych, a zawsze w finale, przy wysokim AA, motionblurze itd, kończyło się na +10 godzinach na klatkę. pozdr., skk.
  11. A może byś spróbował przekodować to video do DV PAL i zobacz, co się stanie. Może masz wyciek pamięci z powodu kodeka w Twoim avi na ten przykład?
  12. Przecież final render i 3delight mają zupełnie różne targety. Nie ma między nimi żadnej konkurencji. 3delight jest rzeczywiście pierwszym mikropoligonem dla XSI dostępnym od czasów Softmana, czy jak to się tam nazywało. Jest teraz jeszcze XSIMan, ale mało kto o tym słyszał i ufa i trzeba by dokupywać licencje samego renderera. Swoją drogą wygląda na to, że Air jest o połowę tańszy...
  13. To rzeczywiście dziwne, Premierka zwalnia na ciężkich projektach, ale żeby w ogóle odmawiała współpracy.... montowałem dwugodzinnne matriały gęsto cięte i nie było takich problemów (poza tym, że potwornie wolno działała, co w Avidzie nie ma prawa się zdarzyć). Wyłącz wszelkie previewy, thumbale, podgląd klatek na timeline, inne wodotryski - jeśli tego jeszcze nie zrobiłeś, zamknij zakładki, których nie potrzebujesz... Na jakim materiale pracujesz, HDV? pozdr., skk.
  14. Aha, jeszcze jedno, skoro już o tym mowa. Daruj sobie PNG. To bardzo wydajny format, z fantastycznym, bezstratnym kodekiem kompresji, który zajmuje wieki, żeby go rozkodować. W przypadku kompozycji na wielu warstwach/plikach, należy się starać korzystać z formatów bez kompresji... ułatwisz robotę AFX. Nawet jpeg, w trakcie czytania z dysku musi zostać rozkodowany do czystej bitmapy. Tam gdzie chodzi o wydajność, kompresja się nie opłaca. Kiedy wypluwasz finalny obrazek, możesz zapodać jakieś lzw, wavelet, czy png ;) pozdr., skk. PS A gdzie ten dyplom?
  15. Przepraszam, nie 5.5, ale ponad 7K$: http://www.procad.pl/pf/page/me/cennik.html ;) powyższy link wygląda dość druzgocząco dla Maxa ;), wiec to jasne, że wstawił go użytkownik XSI. Się nie chwal.
  16. Kliknij prawy przycisk na twoim renderze w Afx -> Interpret Footage -> wybierz odpowidni ksztalt piksela. Powinno dzialac, o ile nie masz zlych proporcji projektu... Nie mam teraz Afx przed soba, ale tak to chyba wygladalo. pozdr., skk. PS Pamietem o Twoich zlewajacych sie obiektach w wolnych chwilach, ale inne obowiazki nagla, jak cos bede mial, dam znac (tzn. chcialbym uniknac fluidow i probuje to inaczej).
  17. Można mieć wszystko! Choćby 8 wątków bez watermarku. Ale nie w 3delight...
  18. I w tym cały myk, taki Autodesk wie, co robi, kiedy coś upublicznia, a czegoś innego znowu nie upublicznia ;). Ludzie zaradni już dawno nie używają Maxa, a taka Maya traci od jakiego czasu w dużych studiach zainteresowanie, bo oni już tam wiedzą na co się zanosi. Ponoć najnowsza Maya ma poważne problemy z działaniem na Linuksie (nie wiem, zasłyszane). Tak czy inaczej, o ile rozumiem, że ktoś, kto się uczył grafiki 3D 10 lat temu nie miał łatwego wyboru i wybierał Maxa, tak zupełnie nie rozumiem, jak można wybierać Maxa teraz. Może jako drugie narzędzie dla tego czy innego genialnego pluginu. Bo to idiotyczne narzędzie ma niesamowitą bezę genialnego softu, który zamiast Autodesu, piszą developerzy z całego świata. Po co się trudzić, skoro ktoś zrobi robotę za nas. To zresztą zakrawa na nagrodę Nobla z ekonomii, żeby sprzedawać kawał g***wna w pudełku za 5.5K dolarów (czy w końcu potaniał?), będąc pewnym, że i tak się sprzeda, bo żaden inny soft nie ma tak genialnych pluginów + tylu patentów (typu formaty architektoniczne), które czynią go niezastąpionym. Ja tych facetów podziwiam! Natomiast w ocenie sytuacji użytkowników Maxa walczą we mnie dwa uczucia i żadne z nich nie jest podziwem, he he.
  19. Myślę, że tu chodzi bardziej o segmentacje rynku, niż o zarobek. To jest polityka. Po pierwsze zaczynają różnicować klientów, tych od designu i resztę. To ma kolosalne konsekwencje na przyszłość. Na przykład, jeśli za dwa lata wprowadzą nową aplikację 3d do animacji, mogę swobodniej manipulować rynkiem, nie tracąc w nim udziałów. Od tej chwili, mogą dalej wspierać Viz, z mniejszą część animacyjną pchać w innym kierunku. Teoretyzuje. Nie wiem jak będzie. Idzie o zasadę. Czasami drobne zmiany z punktu widzenia użytkownika, mają kolosalne znaczenie dla korporacji. Albo jeszcze inaczej, za jakiś czas, ktoś kto zajmuje się trochę designem i trochę animacją, będzie musiał mieć dwie aplikacje zamiast jednej. Znów pożytki z segmentacji. O wyraźny odpływ użytkowników nie muszą się martwić jeszcze długo. Czego najlepszym dowodem jest to forum.
  20. Bo to kosztuje dużo pieniędzy, zachodu i talentu, a po co wydawać te pieniądze, skoro i tak mają Was w kieszeni... czysty biznes. Zero inwestycji, maksimum zysków. Nie inwestuje się w coś, co i tak przynosi pieniądze. To jest giełdowa instytucja, która zajmuje się maksymalizacją wartości swoich aktywów == dochodów akcjonariuszy. To oni wynajmują do prowadzenia firmy ludzi, którzy możliwie minimalnym kosztem zarobią jak najwięcej. Taka firma zdobywa rynek przejęciami a nie rozwijaniem technologii. Bo to się nie opłaca.
  21. We wszystkim jest jakiś cel, a w tym jest taki, żeby Wam zrobić dobrze. Zgadzam się z piotrkiem, powinniście się cieszyć
  22. Śpieszą się, bo zaraz pewnie zamkną ten interes... he, he ;) wyprzedaż.
  23. 3delight to propozycja dla studiów animacji, a nie freelancerów. Koszty wydają się skalkulowanie rozsądnie. Jak ktoś naprawdę planuje używanie 3delighta do XSI, zamiast mentala to znaczy, że ma powód == ma fundusze. Dobra wiadomość, w końcu trochę mikro-poligonów w świecie raytracerów ;)
  24. Zaprogramowana ręcznie aberracja chromatyczna (aka dyspersja światła) wygląda mniej więcej tak: Oczywiście bez caustyki, którą trzeba by za pomocą fotonów zrobić. Czasy wahają się od 5 minut dla standardowych ustawień Mantry, do 20 minut dla: Shading Quality 2, Ray Shading Quality 2, Pixel Samples 9x9. Jeszcze jeden test: Tu trochę mniej subtelny efekt: To oczywiście nie ma nic wspólnego z fizycznym modelem refrakcji. Poza tym, że bierze się na przykład pod uwagę w miarę dokładny model fresnela dla powierzchni dialektycznych. pozdr., skk.
  25. SYmek

    Zlewające się obiekty

    Dotknąłem tego wczoraj i mam szereg pytań: - jak będzie wyglądało to ujęcie? - jakiej wielkości będę głowy w kadrze (szczególnie ta część zlewające się)? - jak długo będzie się odbywało zlewanie? - jaki będzie kierunek zlewania, to znaczy właśnie, czy one się zleją czy rozdzielą, czy będzie w tym jakiś opór dynamika, czy będę się próbowały rozdzielić, czy po prostu jak dwie krople wody scalą się w jedność? Przychodzą mi do głowy trzy metody, ale żadna z nich nie będzie pracować dobrze we wszystkich przypadkach. Stąd potrzeba danych. pozdr., skk.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności