![](https://max3d.pl/uploads/set_resources_6/84c1e40ea0e759e3f1505eb1788ddf3c_pattern.png)
SYmek
Members-
Liczba zawartości
1 532 -
Rejestracja
-
Ostatnia wizyta
-
Wygrane w rankingu
14
Typ zawartości
Profile
News
Forum
Kalendarz
Zawartość dodana przez SYmek
-
Co w tłumaczeniu na polski, znaczy, że czasami, jak dobrze pójdzie, masz wolne w niedziele :P.
-
Film promujący polską prezydencje w UE
SYmek odpowiedział splasz → na temat → Aktualności (mam newsa)
Gustem, delikatnie mówiąc, to nie grzeszy. -
Oj, chłopcy się chyba przeliczyli...
- 10 odpowiedzi
-
- lightwave
- lightwave core
-
(i 1 więcej)
Oznaczone tagami:
-
Nie widzę w uwagach benego cienia zniewagi wobec kogokolwiek, ani braku kultury. Co więcej, całkiem celnie zdiagnozował sytuację. Film trafił w złą przegródkę. Swoją drogą twórcy nie grzeszą skromnością, ale to normalne u młodych ludzi (u mnie wywołało raczej uśmiech, niż zgorszenie). Robiące komiczne wrażenie laury na początku filmu są kwestią smaku, a nie zasad. A to, jak Bóg da, przyjdzie z czasem.
-
Miałem tego nie komentować, bo niby co powiedzieć na takie dictum, wspomnę tylko, że tak skrajne opinie rzadko, jeśli w ogóle kiedykolwiek, bywają prawdziwe i więcej mówią o rozmówcy, niż o przedmiocie rozmowy. Pomyśl o tym, zanim powiesz coś następnym razem. Rada starszego kolegi. pozdrawiam, skk. ps sorry, end of OT.
-
Czyli 5000Eu za pięć licencji (Arnold). VRay (ostatnio jak sprawdzałem), 1500 Eu za licencję interaktywną, która przychodzi z 10 licencjami na farmę. Owszem, jest. A mianowicie to samo, co z Vrayem: jest prosty jak barszcz w użyciu. Sadzasz kolesia z wyczuciem plastycznym i masz piękny obrazek. Kropka. Nie ma tu żadnych tajemnic. Taki koleś zarabia 6 raz mniej od dobrego TD i jest ich 10 razy więcej. Szkolenie kogoś z dobrym okiem trwa max pół roku. Jak czegoś nie możesz, to tego nie robisz, albo obchodzisz problem w poscie. Kropka. Coś innego twierdzi Marcos w prezentacji o Arnoldzie, kiedy wyraźnie mówi, że Arnold nie ma żadnego wsparcia dla wolumetryki, no ale ostatecznie można je zawsze dodać. Nie chce mi się teraz tego szukać... Owszem Field3d byłby logiczne.
-
Mental ma jednak potężne API, które dla studiów jest jego podstawowym atutem (poza wszechstronnością). NIe wiem, jak Arnold w tym departamencie sobie radzi. Zdaje się, że Arnold nie wspiera volumes, więc to kwestia renderera, a nie pluginu. To, czego Arnoldowi brakuje to OSL. Jak zrobią OSL na produkcyjnym poziomie, będzie renderer jak się patrzy (i w odpowiednio wysokiej cenie (ile razy droższy od V-Raya? :P)).
-
Prawie tak. Chociaż nie zupełnie ;). Subtelna różnica polega na tym, że shader jest zdefiniowany w pewnym środowisku programistycznym, materiał natomiast w pewnym środowisku użytkownika. Materiał może się na przykład składać z wielu shaderów (kilku shaderów powierzchni ułożonych warstwowo oraz odkształcenia), albo abstrahować w ogóle od shaderów (i zmieniać je zależnie od tego, jaki silnik używa materiału). Materiał to opis powierzchni dostarczony użytkownikowi, shader to algorytm przeznaczony dla komputera. skk..
-
...bo się nie zna?
-
Opinia zbyt ogólna, by była prawdziwe, ale swoją drogą tutaj mowa jest bardziej o mr, niż o Mai. Implementację fizycznego SSS w mentalu uważa się za modelową, ale używanie zamkniętych shaderów (szczególnie w tak skomplikowanym środowisku, jak mr) to proszenie się o problemy.
-
Kawał kina.
-
Czy to przypadkiem nie jest kwestia optymalizacji skylight do górnej hemisfery? Co będzie jak obrócisz obiekt tak, aby miejsce ze schodkami było zwrócone w stronę zenitu? Tak w ogóle to na durne błędy zaszyte w shaderach rozwiązanie jest tutaj (rozwiązanie dobre z wielu zresztą powodów...).
-
Szczęśliwie jesteś w mniejszości, polskie filmy lądują regularnie w górnych partiach box-office'u, zupełnie zresztą niezasłużenie ;)
-
Po prostu napisz do nich. Powiedz, co i jak, że Ci zależy i dostaniesz nowy trial..
-
Takie proste to już nie jest w przypadku fizycznych modeli. Oczywiście można to zrobić, ale mówiąc najkrócej fizyczne materiały traktują światła (czyli dawne źródło odbić specular) i powierzchnie (czyli dawne źródło odbić), jak jedno i to samo (bo tak jest w rzeczywistości), więc klasyczny podział traci na oczywistości. Trzeba je rozdzielać w rdzeniu ray tracera, a nie w materiałach - czyli sprawdzać, w co uderzył ray, a nie traktować odbić specular i refleksów jako oddzielnych fenomenów powierzchni. to tak a propos. sorry za offtop. skk.
-
tri-Ace - technologiczny demo-trailer 2011
SYmek odpowiedział adek → na temat → Aktualności (mam newsa)
Nie wygląda to zachwycająco, ale nie o to, jak sądzę, chodziło. Jest to jednak jakościowa zmiana, jeśli cała iluminacje w scenie liczona jest realtime. Przecież, o ile się nie mylę, bo nie znam się na grach, klasyczne silniki używają map a GI "udają" najwyżej dla światła rozproszonego. Gorzej z odbiciami, trudno je oszukać, a w tym demie jest mnóstwo miękkich odbić, które są problematyczne nawet dla silników offline! Cały pokój oświetlony jest z okna, które odbija się (jak rozumiem bez tricków), w ubranku pilota. To samo dotyczy głębi ostrości, która jest najwyraźniej efektem fizycznego modelu kamery, a nie post-procesem, jak to zazwyczaj się dzieje w grach (?). Reasumując, demo może nie wygląda zachwycająco, ale nietrudno sobie wyobrazić artystę, który zrobi na tym silniku cuda... i, co chyba jeszcze ważniejsze, zrobi je szybciej, niż w klasycznym silniku, bo setup tego ustrojstwa powinien być, jak sądzę, łatwiejszy. Flicker rzeczywiście przeszkadza, właśnie dlatego, że strzelają jasne partie obrazu, klasyczny problem integratorów gi ;). -
Swego czasu było dyskutowane*, więc może warto wrzucić: http://www.sidefx.com/index.php?option=com_content&task=view&id=1937&Itemid=68 skk. * - http://www.max3d.pl/forum/showthread.php?t=74555
-
To jest jednak komiczne, że człowiek, który tak mało wie o sprawie, wypowiada jednocześnie tak kategoryczne sądy.
-
Śmiej się, ale jak się tego nie zrobi, to ludzie mówią, że film był tani, albo polski...
-
To znaczy? Korzystacie z reality server?
-
No, proszę. Mental Images ma konkurencję.
-
ca mel ma rację, ta książka ma swoje lata, ale jej autor to fachowiec, to raz. Dwa, mówi przede wszystkim o świeceniu animacji, gdzie shadow mapy mają swoje zalety, o ile są to deep-shadow-mapy, jak już powiedziano. Nie wyrzucaj książki do kosza, jest tam wiele ciekawych rzeczy, po prostu sprawy idą do przodu. A właściwie jedna sprawa: do niedawna ray tracing był tak wolny i zawodny, że unikano go jak ognia, o ile miano taką możliwość (bo niektórzy nie mieli i nie mają). Jest odwrotnie, DSM doskonale radzą sobie z wszelkiej maści przeźroczystościami..., dlatego wciąż używa się ich do wolumetryki czy włosów. pozdr., skk. ps Deep shadow maps nazywają się w mentalu detail shadow maps, o ile się nie mylę, i takich powinieneś używać, jeśli w ogóle (a uważam, że warto je znać, o ile ich implementacja jest dobra, bo mapy to jedno, a mapy w mentalu to drugie. DSM to koncept rodem z PRMana i tam sprawdzają się bardzo dobrze. Jak sprawdzają się w mentalu, nie wiem).
-
Mocny lifting przeszły te Auta2 od czasów pierwszej zajawki ;)
-
...zresztą, jak na BM to raczej słabo. Przyzwoita animacja, ale render, hmm...
-
Pathtracer z nodów do modelowania? Why not: skk. ps Matt Ebb najwyraźniej pozazdrościł wiecznie żywych zawodów na najlepszy renderer w 100 linijkach kodu (np. http://www.kevinbeason.com/smallpt).