Skocz do zawartości

SYmek

Members
  • Rejestracja

  • Ostatnia wizyta

Zawartość dodana przez SYmek

  1. SYmek odpowiedział Tomasz_87 → na temat → Editing & Compositing
    Możesz mi wytłumaczyć, po co Ci taki program? Po co Ci na materiale z planu letterbox o timecode? Przecież to ma zastosowanie, tylko przy cyfrowym nagrywaniu podglądu z kamery filmowej. A jeśli nagrywasz na cyfrę...?
  2. SYmek odpowiedział SYmek → na temat → Aktualności (mam newsa)
    Dziwak! ;)
  3. Gratuluję chłopakom i dziewczynom z Samafora! Kawał dobrej roboty w warunkach polowych! ;) Czołem!, skk.
  4. SYmek odpowiedział mathix → na temat → Maya
    http://www.awaretek.com/tutorials.html nie wszystkie jeszcze działają, ale i tak jest tego sporo... pozdr., skk. PS: Za jakiś czas zapraszam też na forum3d.pl, będzie tam kącik pythonowski dotyczący wykorzystania go w Houdinim, Nuke'u, Mai. Na przykład do przenoszenia geometrii z dowolnymi atrybutami między pakietami...
  5. Pierwsza główna edycja Nuke'a pod sztandarem TheFoundry została wydana: www.thefoundry.co.uk Nuke 5, to: - nowy interface (zerżnięty z Shake'a i Houdiniego ;)), - kompozycja stereoskopowa, - integracja Pythona - 1023 kanały na node (dotąd 64) - Windows, Linux i OSX ... i parę innych nowości pozdr., skk.
  6. SYmek odpowiedział mathix → na temat → Maya
    Cieszę się, że cutter przypadł Ci do gustu, kiedyś o nim rozmawialiśmy ;). Dla mnie ma więcej wspólnego z Vexem i Houdinim, które również wspiera (powiedziałbym nawet, że bardziej niż Mayę...;), w każdym razie nawet nie zauważyłem, że obsługuje również MEL... )
  7. SYmek odpowiedział mathix → na temat → Maya
    stare a jare: http://cgkit.sourceforge.net/
  8. SYmek odpowiedział spiralboy → na temat → Maya
    Wygląda to, jakby mental patrzył na alfę tekstury a nie rgb. Można to gdzieś zmienić? Jakiego pliku tekstury używasz? Równie dobrze może być tak, że mental nie chce wcale działać z tą teksturą? Sprawdzałeś z inną? Albo sam obiekt albo maskę dla tego obiektu i pomnóż maskę przez obiekt. Glow jest bardzo prostym efektem. Oczywiście istnieją jakieś fikuśne filtry, ale generalnie glow robi się tak: Kluczujesz obiekt (już wycięty maską z całego obrazka, dajmy na to X) za pomocą luminancji (luma key). Low i High level ustalają Ci, od jakiego poziomu luminancji Twój obiekt będzie "świecił". Ma zostać to, co chcesz żeby świeciło. Nadaj temu blur, duży. Wynik tego możesz pomnożyć przez jakiś kolor, rozjaśnić, poprawić gammą, jak Ci pasuje. To będzie A. Następnie nadaj znów spory blur Twojemu oryginalnemu obrazkowi. To będzie B. Pomnóż A * B = C. Następnie w trybie Add albo Screen skomponuj C na X. A Voila! Glow! Opacity C kontroluje ilość glowa, pierwszy blur jego szerokość. Luma Low & High kontroluje, co świeci, saturacja i hue warsty B kontroluje kolor glowa. I do tego masz setkę parametrów do podkręcania! ;) pozdr., skk.
  9. Dawno nie pracowałem w AFX i nie mam go przy sobie, ale tak na szybko: zduplikuj warstwę z video, zaaplikuj maskę na cały obrazek w warstwie górnej i dopiero do tego dodaj klucz Masz dwie warstwy, jedną tylko z niebem i kluczem na niebie. Drugą całą. Teraz to składasz zależnie od tego, czego Ci potrzeba. Dodam, że tak się nie powinno robić. To znaczy ograniczenie przestrzeni działania efektów i optymalizacja kompozycji to ważna kwestia. W Shaku, Fusion czy Nuke'u to normalna procedura. AFX zawsze był z tym na bakier. ... co nie znaczy, że nie da się zaaplikować maski dla efektu w ogólności. Po prostu nie pamiętam. Zatrzymałem się na AFX 4.1. Sorry ;) pozdr., skk.
  10. Aniu, to chodzi o władzę nad światem ;). To tylko częściowo jest żartem. $MS kupując Yahoo chce się dobrać Google do skóry - chodzi i kontent internetowy, wpływy z reklamy, strategiczne miejsca w sieci (youtube za parę lat będzie największą siecią telewizyjną, dystrybutorem informacji, narzędziem propagandy etc). Z drugiej strony Google włazi w paradę $MS, wchodząc na rynek aplikacji, opierających się o WEB. Pisanie tekstów, arkusz kalkulacyjny, obróbka zdjęć, filmy, gry online, serwisy społecznościowe. No i przede wszystkim największy z możliwych dostępów do informacji strategicznych dla biznesu. Google robi w tej chwili to, o czym $MS myślał jeszcze parę lat temu. Po co wynajmować ludziom programy instalowane na komputerze, skoro można ich użyczać przez sieć? Zachowując pełną kontrolę nad oprogramowaniem, dostając pełny dostęp do danych co, kto, kiedy i jak używa (znasz taki tekst: "Czy zgadzasz się przesyłać firmie XXX anonimowe informacje o użytkowaniu przez Ciebie programu takiego a takiego?"). Istnieją już nawet systemy operacyjne odpalane z sieci - przez internet. Google może udostępniać odpłatnie lub nie wszystko, gromadząc coraz więcej: - danych o użytkownikach, - budując kanały informacji i - dostęp do klienta. To są trzy rzeczy, na których buduje się swoją pozycję i zarabia pieniądze w internecie. Przez wiele lat ITI, dla przykładu, dokładało do Onetu, bo wiedzieli, że kiedy przyjdzie epoka Zumi, sklepów internetowych, zamawiania biletów przez internet, (nie mówiąc o banerach), wszystkie te nakłady się zwrócą, złotówka do złotówko i i zbiorą się ciężkie miliony. $MS chce też o to walczyć, bo to jest być albo nie być korporacji drugiej połowy XXI wieku, w której - o ile nie cofniemy się do epoki kamienia lub w ogóle w niebyt - rządzić będzie Matrix ;) Teraz rozumiesz, dlaczego Google zależy na osłabieniu $MS i vice versa? pozdr., skk.
  11. Ja przecież widzę, że Ty dyskutujesz z tym trendem ;), a nie z nami. Kiedy Autodesk kupował Alias mówiło się, że rozwój Mai zwolni... no i w ocenie ludzi tu piszących zwalnia. To nie panika, ale obserwacja. Nikt rozsądny nie twierdził, że A. kupuje A., żeby zamknąć M... ;). Z drugiej strony jak najbardziej rozumiem Twój niesmak takimi dyskusjami. Pewnie, że nie ma co biadolić, to tylko software, nie ten to będzie inny. Przeczytałem cały wątek, i podtrzymuje opinię, że z kolesia zakpił, może nawet miał prawo, człowiek sobie zasłużył - nie tym, że zadawał pytania, tylko tym, że zadawał je w niemądry sposób. Nie ma o czym pisać. Dla mnie jest jasne, że kiedyś pojawi się nowa generacja programów CCD i Autodesk będzie na to gotowy - to już niedługo, parę lat. A w Mai naprawdę nie ma czego rozwijać. Poprawianie i szlifowanie tak bogatego i dojrzałego programu jest trudniejsze, niż pisanie nowego. Wcześniej czy później to nastąpi. A poza tym, jak już pisałem, Bóg wie jakie inwestycje w Maxa czy Mayę nie mają sensu. Przecież i tak mają Was w kieszeni. Większa część rynku gier, kina, viz i tak należy do nich. Pewnie zresztą zauważyłeś, że woleli wprowadzić Toxik, zamiast rozwijać Cumbustion..., wcale im się nie dziwię zresztą.. he he. A co do Linuksa, to już zupełnie nie wiem, o czym piszesz. Linux rozwija się jak wściekły. Znam dziesiątki ludzi niezwiązanych zawodowo z komputerami, którzy normalnie go używają. Są nawet na ten temat anegdoty: http://www.forum3d.pl/f3dbb/index.php?md=topic&o=&tid=121764&pg=2 Pięć lat temu tak nie było. Mnie przy Windowsach trzyma już tylko Avid. Dajcie mi program montażowy na Linuksa, a nigdy więcej nie zobaczę Windows :)
  12. Przecież ten developer niczego nie powiedział. Wykpił faceta, który miał tam jakieś obserwacje na temat rozwoju Mai. Co nijak ma się do zasadności samych obserwacji. Niby co miał napisać?: "Tak, dostaliśmy wszyscy wymówienie, do końca roku mamy się wynieść, mamy tylko jeszcze zaprogramować kilka bugów, żeby ludzi zniechęcić do używania Mai, bo firma przestaje ją rozwijać..." Fakt faktów, że nawet gdyby chcieli zaprzestać rozwijać Mayę, nie będzie to takie proste. Jak wprowadzić nowy produkt nie tracąc rynku? Kupienie takiego pluginu jak cMucles to są żadne koszty w porównaniu z rozwojem nowych technologii takich jak Nucleus, które pewnie pożera większość ich mocy. Podobnie jak w przypadku Maxa, zachowanie Autodesk jest rozsądne. Nie wydaje się pieniędzy na coś, co się sprzedaje i bez tego. Za chwilę będę mieli nową dynamikę, mają cały pipeline renderingu, świetną animację, pythona (brakuje chyba wolumetryki) i jeszcze parę sezonów pociągną. A potem i tak czeka nas wszystkich engine Halo 5...
  13. Ja myślę, że to znaczyło, że się zrozumieliśmy ;) pozdr., skk.
  14. Nie zgadza się w jakiej kwestii? W kwestii zawartości pisma, czy w kwestii karygodnego poziomu edytorskiego, niektórych z zamieszczonych tam treści. Co do zawartości spierać się nie będę, pozostałe opinie mówią same za siebie. Co do polszczyzny materiału o Maxwell Render nie ma się o co spierać, to jest po prostu gniot, który nie widział ręki wydawcy. Wczoraj tknęło mnie, że to jest po prostu kiepskie tłumaczenie z angielskiego, no bo jak wytłumaczyć taki kwiatek: "Nowa, zaawansowana regulacja rozkwitania i blasku wprowadza grafikę komputerową na wyższy poziom realizmu i jakości." Wydawało mi się, że nie mamy po dziesięć lat, żeby się oburzać na "drwiny". To nie są drwiny, tylko dosadne stwierdzenie prostego faktu, że odstawiacie amatorszczyznę. Nie o mój ton tu chodzi, ale o to, że na niego z nawiązką zasługujecie, robiąc siebie i ludzi w konia. Czy wydawcę tego pisma naprawdę nie stać na to, żeby wam wynająć korektę i sekretarza redakcji? I żeby się postarać o kilka tekstów, które nie są kalką Helpa albo tutoriali dostępnych tuzinami w internecie? Czy jedyne branżowe pismo w Polsce naprawdę musi być na takim poziomie? Może zamiast proponować mi manto (do czego ja, osoba prywatna mam prawo, a Szanowna Redakcja, nie ;) ), zastanowić się nad dalszą pracą. Założenie implicite zawarte w mojej krytyce jest takie, że ja chciałbym kupować takie pismo, raz je kupiłem i nawet uważam (jako jeden z nielicznych tutaj), że cena jest uczciwa, ale za pismo, a nie wersje alpha pisma. pozdr., skk. PS I jeszcze słowo do moderatora ;): jestem zupełnie spokojny, staram się także, aby ta rozmowa była merytoryczna. Uważam po prostu, że trzeba powiedzieć wprost, co jest nie hallo, a nie owijać w bawełnę. Może będą jeszcze z tego dzieci - jak to się mówi. Peace!
  15. Kupiłem. Przeczytałem. Upadłem z wrażenia. Numer drugi zionie ponownie bezdenną pustką. Poza nieprzyzwoitą ilością materiałów szkoleniowych Autodesk, które to za pieniądze czytelników, Szanowna Redakcja, usłużnie dystrybuuje Autodeskowi w świat, nie ma w nim niczego! No dobrze, przesadzam. Listkiem figowym redakcji, zasłaniającym tę hucpę, jest ciekawa rozmowa z R. Rogockim i jeden przyzwoity tekst dla użytkowników XSI o deformacji za pomocą Hair Guides. Przyzwoity, ponieważ nie kopiuje wprost instrukcji obsługi jakiegoś programu, co robi większość pozostałych tekstów. Obrazu rozpaczy dopełnia tzw. "recenzja" Maxwell Render. Wątpię, czy ten tekst można w ogóle nazwać recenzją. Bardziej przypomina streszczenie broszury producenta. O ile oczywiście udało mi się go zrozumieć... bo mam pewne wątpliwości. Zastanawiam się, czy Szanowna Redakcja wie, że w Polsce obowiązuje prawo chroniące polszczyznę, które to prawo recenzja ta nagminnie łamie? Ja rozumiem, że student Ekonomii nie musi potrafić pisać w ojczystym języku choćby w zgodzie z normą internetową, która i tak jest daleka od normy literackiej (jego business chciało by się napisać), ale redakcja ma już ten obowiązek! Musi potrafić czytać i edytować teksty, które puszcza do druku. Nie przebieram w słowach, bo należy Wam się, Szanowna Redakcjo, ciężkie manto. Może to pomoże Wam wziąć się w garść! pozdrawiam, skk.
  16. Nie wydaje mi się, żeby Google było zainteresowane rozwijaniem tradycyjnego systemu operacyjnego - chyba tylko po to, żeby wykończyć $MS. Oni inwestują w aplikacje webowe. I to ma sens (dla nich, niekoniecznie dla mnie). Tak czy inaczej zagranie niezłe. Dla nich to żadne pieniądze, za to czysta polityka i wyraźnie korzyści strategiczne ;)
  17. Po prostu genialne posunięcie! Ci kolesie z Google mają łeb na karku... jak wydać pieniądze w taki sposób, żeby może na tym wprost nie zarobić, ale przynajmniej dokopać konkurencji...
  18. SYmek odpowiedział andy_a → na temat → Aktualności (mam newsa)
    Tak, ale to jest właśnie PBR. Wygląda ładnie ale czasy nie te i kontrola nie ta. PBR nie przeczy REYESowi, to znaczy ten obrazek jest PBR I REYES jednocześnie, ale przeczy innym sprawom, takim jak rendering w passach, praca nad cieniami etc etc. Może jako pass GI...? Nie wiem. Jak pisałem wyżej nie wyznaję się na tym enginie. Przerażają mnie tylko jako czasy i wysokość samplingu, którego trzeba używać. Tyle, że Sidefx jest już gotowe na Celle, i domyślam się, że taki PBR, jest jak znalazł dla firm, które będzie na nie stać. A wtedy bomba, bo będą mieli fizyczny renderer sprytnie wmontowany zawczasu z cały filmowy pipeline... nie ciało obce, ale ten sam program, te same shadery, jeden klik i mantra liczy metropolis albo path tracing zamiast poczciwych lamberów, cook-torranceów i itd ;) Jakoś czuję, że będę się powtarzał... magiczne 10%. Namawiałbym do wstrzemięźliwości. skk.
  19. SYmek odpowiedział andy_a → na temat → Aktualności (mam newsa)
    Nic dodać, nic ująć ;)
  20. SYmek odpowiedział andy_a → na temat → Aktualności (mam newsa)
    E tam! Mit panie! Połowa Supermana była renderowana w Mantrze, większość tego, co robi Digital Domain również (kilkadziesiąt ujęć z Transformers!). Tak, Mantra posiada engine mikro-poligonalny, to znaczy jest REYESem (ale nie tylko), jest bardzo podobna do PRMana. Ma niemal identyczny język shaderów: VEX, masę tych samych optymalizacji, swój format tekstur, pointcloudy, fotony, GI cache, filtrowanie swoich ribów (tu się nazywają ifd), Nie jest zgodna ze standardem, ale jest bardzo podobna. Tyle tylko, że oprócz mikro-poligonów, posiada jeszcze kilka silników, raytracer, Physical Based Rendering, Volumetrics, Metropolis (w fazie testów). Mantra to jest jakby kilka rendererów w jednym. Oj wiem, wiem... O ile wiesz, co robisz, Mantra jest bardzo szybka. Podobnie jak PRMan nie jest user friendly, więc warto się orientować, co w trawie piszczy. A to nie jest łatwe, bo w przeciwieństwie do PRMana, nie ma do niej niemal żadnych materiałów. Wszyscy uczą się Mantry z książek do Rendermana (większość shaderów rendermana przepisuje się dla Mantry niemal automatycznie - są niemal indentyczne). Takie życie. Mantra nie lubi GI. Tutaj zawiedziesz się srodzie. Nie do tego powstała. Jes wprawdzie PBR (physical based rendering), ale ja jestem za głupi, żeby tego używać. Męczyłem ostatnio fotony na okoliczność GI, ale nie jestem w stanie ich opanować. w H9 wywalili shadery dla fotonów, ich właściwości definiuje się teraz wewnątrz shadera powierzchni i nie umiem z tym pracować. Jest taka smutna prawda. że Houdini przeszedł niedawno dość gruntowny lifting i niektóre rzeczy, które działy świetnie w H8, nadal nie są dostępne, albo wręcz są skopane. Na przykład IPR...
  21. SYmek odpowiedział andy_a → na temat → Aktualności (mam newsa)
    Pisałem o tym wielokrotnie, wystarczająco często, żeby doczekać się etykiety wariata albo dystrybutora Sidefx ;). Houdini Apprantice HD jest genialną propozycją dla kogoś, kto chce robić swój film. Z punktu wydzenia kosztów i możliwości, jakie daje Ci jego toolset nie ma lepszej propozycji. Także z punktu widzenia Twojej przyszłej kariery, o ile jesteś gotów pracować za granicą... Ma on swoje słabe strony, jak każde narzędzie, ale zdecydowanie górę biorą jego zalety. Przy pracy nad animacją czy filmem, jego podstawową zaletą jest to, że to jest właściwie gotowy pipeline. Ktoś kiedyś ujął to tak (no dobra, był to Jordi Bares, CGI supervisor z The Mill): Houdini jest bardziej systemem operacyjnym do animacji 3d, niż programem. I coś w tym jest. Tyle, że dla kogoś, kto wyszedł z Maxa i VRaya, spotkanie z Houdinim może być niemałym szokiem... ;) Nie mówiąc już o tym, że pożegnanie z kilkoma pluginami z Maxa, typu FumeFx może skończyć się kompletym załamaniem. Nie ma w Houdinim tak przyjemnych narzędzi ;) Ale w przypadku dużych rzeczy, filmu, animacji, elastyczność i otwartość, które daje Houdini to jest coś, co jest warte wielu wyrzeczeń ;) pozdr., skk. PS A tak w ogóle: XSI ma wsparcie dla 3delighta? So what? Houdini ma od dziesięciu lat wsparcie dla 3delighta, mental raya, PRMana, Air, RenderDotC... no i jeszcze na dodatek ma Mantrę. Tylko nikt o tym nie mówi ;) PS2 Andrzeju, nie chce mi się teraz w to wnikać, ale teza o supremacji GI w Vray'u nad mentalem jest dyskusyjna z dwóch powodów. Jest pewne, że setup, który Vray ma wbudowany w siebie działa szybciej, i to nie powinno dziwić, powstał właśnie do tego, żeby renderować możliwie szybko, fotorealistyczne stille. Żaden z nas nawet nie przypuszcza, ile można wyciągnąć z metal raya dobrymi shaderami. Widziałem kiedyś jeden shader wolumetryczny dla mr, który powalił mnie na kolana. Nie widziałem nigdy niczego tak szybkiego. Tylko trzeba go było sobie kupić... Druga sprawa: przywołałeś "Auta". Owszem, tam było GI, ale to GI stanowiło nie więcej niż 10% całej iluminacji w scenie. Kiedy natomiast Ty powołujesz się na GI w Vrayu, mówimy o obrazkach, w których często 100% światła pochodzi z tego algorytmu. Bo tak jest w przypadku scen Viz. To jest zupełnie inny świat. Ja w każdym razie, gdybym robił animację, wolałbym mieć wolniejszy GI (10% iluminacji!), ale za to lepszy sampling, filtrowanie tekstur, motion blur , DOF i displacement, które dają mi REYESY, albo jedyny raytracer o możliwościach filmowych - mental ray. Zwróć jeszcze raz uwagę na obrazek, który wkleiłem powyżej w tym wątku, spójrz ile tam szczegółów. Tam jest 100 poligonów. 100. Wybraź sobie, co z takiego narzędzia może wyciągnąć grafik tak zdolny, jak Ty! Pozdrawiam. PS3: Rozmawiałem na temat owego wątku o renderach w 3delight i XSI, o kŧórym wspominam powyżej na chacie z ludźmi pracującymi w Houdinim. Zrobił się z tego challenge. Jak widać Mantra potrafi dokładnie do samo, co 3delight: Cały wątek tutaj: http://forums.odforce.net/index.php?showtopic=6517&st=0entry43686
  22. No to super. Grunt, że działa. pozdr., skk. PS Właśnie po roku używania tego forum, odkryłem co to jest "rep" i gdzie go widać w moim profilu... No i mam mnóstwo repów z wątków, o których już nie pamiętałem, że istnieją. Ale lamerka, he he... Dzięki wszystkim!
  23. SYmek odpowiedział andy_a → na temat → Aktualności (mam newsa)
    ... to była tylko taka ciekawostka... nie martw się. "Monster House" powstawał na ten przykład rasowym raytracerem, którego rdzeniem jest stary dobry Arnold. No ale tego enginu nie da się kupić w sklepie ;) Zresztą PCA da się wyjaśnić znacznie prościej. Cała ta technika posłużyła do czyszczenia noise'a, który jak wiesz powstaje w niskich ustawieniach GI. Kurde, właśnie sobie przypomniałem, że w Autach nie było jeszcze fotonów, tylko cache GI, to w Ratatouille były fotony. Będzie trochę łopotologii, uwaga nudne, tylko dla zainteresowanych (kompletnie nieistotnie z punktu widzenia kogoś, kto robi shorta): PCA przy czasach takich jak GI z samplowaniem 16x16, umożliwiło Pixarowi uzyskać efekt bardzo wysokiej jakości. Metoda porównuje cache z różnych klatek i dzięki temu znajduje to, co jest szumem. Po odjęciu szumu, zostaje gładkie GI. Podobną technikę stosowano już wcześniej, tylko że nie stosowali PCA, tylko zwykle filtry gaussa wykonywane w przestrzeni czasu (temporal domain). To taki blur ale nie w x,y, tylko w t. Blur miesza kolory pixeli oddalonych w x i y od jakiegoś punktu (w przypadku blura box to jest zwykła średnia wartości tych pikseli), ale ten sam blur można wykonać na jednym pikselu na przestrzeni kilku klatek. Albo, jeszcze lepiej, jeśli zastąpimy piksele, wartościami cache GI i będziemy pracować w 3D, a nie w 2D. PCA to jest mniej więcej to samo, tyle że trochę bardziej zaawansowana metoda "mieszania wartości" - a dokładniej metoda na znajdowanie wartości, jak bardzo je mieszać, to znaczy ile w obrazku jest szumu a ile wartościowych dla nas informacji. Czy ja się nie dzielę!? Się czyta się wie... tyle Ci mogę powiedzieć... ;) Jest masa tych materiałów na sieci, wystarczy się interesować: http://www.max3d.pl/forum/showthread.php?t=47129 Ja nie jestem grafikiem komputerowym i jeśli coś mnie w tym interesuje, to właśnie wyzwania robienia filmów. Poza tym PRMan, Shake czy Houdini są dobrą szkołą, bo wymagają od Ciebie tych kompetencji. Jak nie wiesz, to nie zrobisz... Poleciłem Ci już świetną książkę, którą ktoś przypadkiem wydał po polsku. Klasyka gatunku. Nie ma tam zbyt wielu szczegółów technicznych, ale jest gdzie zacząć. Im więcej czytasz i testujesz, tym więcej powstaje pytań w Twojej głowie. Dla jednego kwestia fotonów to jest pytanie o sekwencję przycisków w interfacie, a dla innego, w jaki sposób je przefiltrować, żeby wywalić zbyt jasne sample, albo czy nie ma lepszej metody ich generowania niż "rosyjska ruletka". Nie. Tak. Nie wiem. Wszystko zależy od Ciebie. Na pewno odradzam Ci robienie filmu w VRayu ;). Ale z drugiej strony trudno Ci będzie być jednocześnie grafikiem i technikiem i może nie warto się na to strasznie napinać (choć znam kilku takich, którzy znają się i na jednym i na drugim znacznie lepiej ode mnie). Warto się natomiast orientować, żeby wiedzieć gdzie i czego szukać w razie kłopotów. Ty najwyraźniej już otworzyłeś sobie głowę, więc możesz być spokojnym ;). Gdybyś mnie zapytał czy to dobry pomysł robić film w XSI i mentalu, wspomagając się 3delightem, kiedy trzeba, powiedziałbym że to bardzo dobry pomysł... :) EDIT: zmierzam do tego, żebyś się nie przejmował takimi terminami jak PCA, bo w niemal każdym dostępnym pakiecie masz zastaw narzędzi, którymi z powodzeniem zrobisz film ;). A że są różnice między tymi narzędziami i że niektóre z nich wyraźnie mniej się nadają do filmów, to zauważyłeś już sam ;) EDIT2: Integracja PRMana z Mayą, mentala z XSI, a teraz 3deligtha z XSI, albo Mantry z Houdinim, jest tak dobra, że teraz naprawdę nie warto się tym wszystkim martwić. Warto natomiast poznać się na metodach stosowanych w filmach, które znacząco różnią się od tych, stosowanych w stillach. sie masz, sy.
  24. SYmek odpowiedział andy_a → na temat → Aktualności (mam newsa)
    No się zdziwisz, ale w Autach było GI, tyle że tzw. "Production Ready GI". GI w Autach robiono na fotonach, które preparowano w bardzo specyficzny sposób za pomocą tzw. Principal Component Analysis. Techniki rodem ze statystycznych metod w socjologii... ;) Co jest zresztą zupełnie a propos tego wątku, bo to kolejny przykład na to, do czego służą programowalne renderery.
  25. Więcej, to znaczy co dokładnie?

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności