Zawartość dodana przez Alibaba
-
Bmd
Tylko czemu zalorzyles temat w editing&compositing?
-
Asylum 5D - trailer
Fajne, ale jesli to ma isc w kinie to stereo jest "zdziebko" przesadzone.
-
Lightwave-porady,opinie,lużne gatki:) itp.
Masz masochistyczne przezwyczajenia widocznie albo slaba znajomosc modo :) Modelowanie w Modo jest tym czym powinno byc w LW. Nawet nie chce mi sie wymieniac roznic, za duzo by czasu zeszlo.
-
Lightwave-porady,opinie,lużne gatki:) itp.
Asia, biorac pod uwage Twoje potrzeby to bym Ci raczej Modo polecil niz LW. 90% czasu bedziesz spedzala przy modelowaniu, a w tym bije LW na glowe nawet dokladajac do tego ostatniego LWCad. No i wyjdzie taniej.
-
Stereoskopia - małe pytanie
easyDCP nie jest niestety darmowy. Tyle tylko ze fraunhofer udostępnia demo na żądanie.
-
Stereoskopia - małe pytanie
Tak jak Baggins pisze nie sa to raczej formaty stosowane powszechnie na codzien. Projektory cyfrowe stosowane w kinach potrzebuja kontenerow ( w skrocie DCP) ktorych ot tak sobie sie nie zrobi. To tak zeby przestraszyc nieznajacych tematu, bo paczki DCP okazuja sie tak naprawde kontenerem zwyklych jpeg2000. Da sie zrobic darmowo na zwyklym PC? Pewnie, ale proces jest dlugi, zmudny i wymaga sporej wiedzy o konwersji przestrzeni kolorow.
-
Houdini za darmo
Ktos bumpnal ten dwuletni 'news'? A nie, to z dzisiaj :)
-
Texture Editor - Gradienty
Wszystkie wymienione przez Ciebie tryby (poza Slope) wymagaja danych z innych layerow badz kanalow, wiec same w sobie nic nie zmienia. -previous layer modyfikuje poprzednia warstwe za pomoca gradientu. Przykladowo, jesli twoja poprzednia warstwa jest turbulence w odcieniach szarosci, to za pomoca previous layer mozesz gradientem przypisac rozny kolor do roznych wartosci jasnosci turbulence. -bump modyfikuje layer za pomoca tekstury w kanale bump. Przydatne jesli np. chcesz nadac inny kolor roznego rodzaju zaglebieniom. -slope to bardzo prosty tryb ktory mapuje gradient wzgledem osi Y obiektu -surface thickness modyfikuje Twoj gradient za pomoca grubosci obiektu. Kiedys, przydatny tryb do symulowania powierzchni SSS, teraz, z uwagi na obecnosc shaderow SSS rzadziej uzywany.
-
Wywiad z Marcinem Filipkiem nt. filmu "Bieg"
3D w stereo rowniez nie. Pamietam co najmniej dwa inne filmy w 3d (i stereo). Pierwszy byl dla Gillette sprzed bodajze 6 lat, drugi dla Kenta sprzed 3. Kolacze mi sie w pamieci jeszcze krociutka animacja dla Aristona sprzed lat 8, ale jako ze nie byla najwyzszych lotow to jej nie policze. W kazdym razie "Bieg" na pewno byl pierwszym w Polsce filmem 3d w stereo robionym przez PI.;)
-
„Shrek Forever”- nowa zapowiedź
Niezupelnie. Cecha narodowa Polakow sa kompleksy na punkcie wlasnej narodowosci. Dlatego sobie wlasne wady wymyslamy. Shrek 4 to odgrzewany kotlet? Zgadza sie. Kazda kolejna czesc jest gorsza od poprzedniej? Tez sie zgadza. Idzie obejrzec kolejna czesc w kinie? Kwestia osobistego wyboru, ja na przyklad nie zamierzam. PO chusteczke do tego mieszac naradowosc? Nie mam zielonego pojecia.
-
Sposób na uzyskanie odległości od kamery
Za pomoca ctr+F8 wchodzisz do menu effect/processing. Wszystko co Cie interesuje masz w Add Image Filter. Jest sporo opcji ale na twoje potrzeby wystarczy wybrac Render Buffer Export. Tam jako Source wybierasz Depth. Jako ze glebokosc w LW zawsze jest znormalizowana mozesz zignorowac Normalize. Negative odwraca zakres wartosci glebokosci, co moze sie okazac potrzebne bo standardowo najdalszy punkt przybiera wartosc 1. Potem jako destination wybierasz Image file i w Image type format jaki chcesz uzyc. Przydatne moze byc takze dodanie z tej samej list pluga Buffer view. Dzieki niemu po nacisnieciu F9 w Image Viewer procz kanalow rgb i alpha pojawia ci sie tez dodatkowe wybrane przez Ciebie kanaly. Pozdrawiam i powodzenia
-
Sposób na uzyskanie odległości od kamery
Do tych celow sluzy mapa glebokosci. W LW mozesz ja zapisac do takich formatow jak chociazby psd, exr czy rla. Te formaty moga zapisac wiele kanalow w jednym pliku wiec sie nadaja najlepiej. Mozesz tez uzyc Buffer export z listy Image Filter by zapisac Depht do dowolnego formatu, ale stosowanie formatow 8-bitowych mija sie moim zdaniem z sensem. Najlepsze sa wiec te formaty ktore zapisuja w formanie float, ewentualnie 16-bitowe. LW normalizuje kanal glebi do przedzialu float 0..1 dla najdalszych i najblizszych punktow obrazu, wiec dwa obiekty z ktorych jeden ma glebokosc 1m a drugi 2m beda mialy identyczny zakres glebokosci. Do twoich celow potrzebujesz raczej absolutnych glebokosci, wiec tego typu mapy sa malo przydatne. By tego uniknac mozesz w scenach testowych wstawic dwa obiekty w najblizszej i najdalszej uzywanej przez Ciebie odleglosci, a obiekty testowe wstawiac miedzy nimi. Dzieki temu mapy glebokosci beda skalowane zawsze do odleglosci najdalszego i najblizszego obiektu, ktore dla kazdego testu beda stale. PS. Fajny temat sobie wybrales, daj znac jak Ci idzie. PS2. Plugin Ocula przeznaczony do programu Nuke robi dokladnie to o czym piszesz, tzn tworzy mape glebii na podstawie stereopary.
-
Jaki program na początek ?
Co drugie zdanie to jakas mitologia. Nie ma to jak pisanie o programie ktorego sie na oczy widzialo pare lat wczesniej lub wogole. Houdini to chyba wylacznie w HumanArk.
-
Jaki program na początek ?
NIe poradze Ci co wybrac, bo kazdy cos innego poradzi. Zwroce tylko uwage na fakt, ze trudnosci z przesiadka na inny soft sa niepotrzebnie demonizowane. Solidne podstawy da Ci kazdy dostepny w tym momencie soft, jesli zacznie Ci czegos w programie ktory wybierzesz brakowac, po prostu poszukasz czegos nowego. No big deal. Natomiast mocno zamotales w swojej liscie. Lightwave jest swietny jesli chodzi o cene, ale to ostatnia wersja jesl idzie o LW classic. LW Core z kolei jeszcze nie ma i tak naprawde potrzebuje 2-3 lat i paru wersji by moc mowic o nim jak o pelnoprawnym programie. Skad Ty tego Flowline wytrzasnales? Ten program nikt procz autorow nie widzial na oczy. Co prawda chodzily plotki ze Newtek mial go wykupic ale albo zrezygnowal, albo Scanline doszedl do wniosku ze wiecej zarobia na Flowline jako wewnetrznym sofcie, albo plotka byla po prostu...plotka. Tak czy inaczej o Flowline poki co zapomnij. Z kolei RealFlow co prawda zaczynal jako plug pod LW ale teraz dziala bodajze z prawie kazdym innym softem wiec nie musisz go uzywac akurat z LW (nie zebym mial cos przeciwko). Zbrush na Twojej liscie dopisales jako program dodatkowy? Bo jako sculpter do niczego innego sie raczej nie nadaje. Houdiniego nie znam za dobrze, ale zawsze wydawalo mi sie ze PyroFX nie jest zewnetrznym programem a czescia skladowa programu.
-
W jakie gry gracie i jakie polecacie??
Na Heavy Rain tez mam ochote, ale bedzie musial dlugo czekac zanim skoncze Demon's Souls. Trudna jak cholera, ale w zadnej innej grze nie cieszy mnie tak bardzo przebiegniecie wirtualnych 100m i pozostanie zywym:)
-
3D Studio DOS - wczesna propotypowa wersja (wideo)
Dlatego, specjalnie dla Reala1.4 dokupilem dwie dodatkowe, zewnetrzne stacje dyskietek, HDD to wtedy rarytas byl:)
-
[realflow]Woda w obiekcie
Siatka realwave Ci sie raczej nie dopasuje dokladnie do ksztaltu kadluba. Zreszta nie do tego sluzy. Natomiast nikt Ci nie broni wyrenderowac wody i statku na oddzielnych warstwach. Bedziesz mial problem z glowy.
-
Biopsy Games poszukuje... (Modelarze Wskazani :))
A kogo CV obchodzi? Jest akurat dla grafika, animatora najmniej istotne. Wazne że doświadczenie zbierasz, a do tego takie projekty sa dobre.
-
Biopsy Games poszukuje... (Modelarze Wskazani :))
A tak właściwie co Was to interesuje. Nie nasz kłopot, nie nasza ewentualna porażka czy sukces. 50%-60% grafików, powiedzmy, "starszego pokolenia" swoja karierę zaczynała od takich właśnie "bezsensownych" projektów, które określiły w pewien sposób dalsza kerierę, niezalerznie od tego czy zakończyły się sukcesem. A tu Panowie, krytyka zaczyna padać co najmniej jakby Szajni Wam cieżko zarobione ostatnie grosze z kieszeni wyrywał.
-
Renderfarm dla Maya
Witam Szukam pilnie namiarów na renderfarmy zdolne przyjmowac natywne sceny Mayi, bez konieczności eksportowania do ".mi". Dokładnie zalerzy mi na możliwości renderowania mayowskich fluidów. Wiec jesli kiedys przsycisnal Was termin i korzystaliscie lub chociazby znalezliscie jakies namiary na renderfarmy w internecie, bardzo prosze o info. Pozdrawiam
-
uv - rzutowanie na stozek
Nie wiem czy te posty sa na tyle odkrywcze by warto bylo je za monitorem wieszac, ale dzieki:) Lat nauki sporo bo w sumie pracuje na lw od wersji 3.5 , wiec co najmniej 15:P Z tym ze zarowno nowe AA jak i Catmull-Clark to nowe funkcje wiec to nie tyle sprawa doswiadczenia co testowania nowych funkcji.
-
uv - rzutowanie na stozek
Dwie najwazniejsze roznice to mozliwosc uzycia polygonow z dowolna iloscia wierzcholkow w Catmull-Clark. Subpatch obsługuje tylko 3 i 4 punktowe poly. Druga roznica to mozliwosc ustawiania wagi przyciagania do krawedzi, a nie tylko do punktu jak w subpatch. Z mniej istotnych roznic: Ta sama klatka obiektu (klatka to obiekt wyjsciowy dla subD) daje rozne ksztalty dla subpatch i catmull-clark, a poniewaz subpatch nie jest juz poza LW nigdzie stosowany bezpieczniej jest uzywac CC. Podczas ewentualnego eksportu do innego programu masz wieksza szanse ze wszystko bedzie ok. Catmull-Clark daje tez wieksza ilosc poly przy tym samym stopniu podzialu. http://www.lightwiki.com/Fundamentals_of_Subpatch_Modeling
-
uv - rzutowanie na stozek
Zrob UV z cylindrical. Jest najlepszy do tego celu. Nastepnie wyselekcjonuj punkty wchodzace w sklad gornej, szerszej krawedzi kubka i zeskaluj je tak w osi U, by rozciagniecie tekstury zniklo.
-
Nuke 6.0v1 wydany.
Mam dokladnie odwrotne doswiadczenia z Keylightem i Primatte :)
-
AA w animacji
Ford: Wszystko zalerzy od tego co powoduje szum, bo przyczyn moze byc bardzo wiele i niekoniecznie podwyzszanie AA jest dobrym sposobem na jego usuniecie. Najczestsze powody to: duze, zroznicowane tekstury o duzej szczegolowosci; duze swiatla obszarowe; zle dobrane parametry radiosity; zle dobrane parametry materialow wymagajacych wielokrotnego samplowania; materialy refleksyjne i transparentne; DOF i motion blur szczegolnie w trybie Photoreal. Zanim zacznie sie optymalizowac predkosc i jakosc renderingu warto ustalic ktore z powyzszych jest za ten szum odpowiedzialne i sprobowac usunac przyczyne innymi sposobami niz podwyzszanie AA. Przy teksturach warto poeksperymentowac z roznymi ustawieniami mipmap Strenght, mode i quality. Przy swiatlach obszarowych, szczegolnie tych rozciagnietych i znajdujacych sie blisko oswietlanego obiektu, zamiast podwyzszac Light Quality warto je zduplikowac i nadac kopii lekkie przesuniecie. Z kolei wiekszosc materialow samplowanych wielokrotnie moze pracowac w trybie interpolated, co procz zmniejszenia szumu znacznie przyspiesza rendering itp, itd. Samo AA warto trzymac na jak najmniejszym poziomie, czesto AA=1 wraz z adaptative sampling w zupelnosci wystarcza, ale zalezy to od tego jak duzo szczegolow jest w teksturach i geometrii. Adaptative sampling ma ta wade, ze dziala tylko tam gdzie w przebiegu AA zostal wykryty jakis szum, wiec by funkcja dzialala dobrze po przebiegu AA render musi juz zawierac wszystkie istotne szczegoly. Moga one zawierac szum i posiadac aliasing, ale musza byc. Ja robie to tak ze puszczam render testowy z wylaczonym AS i AA=1. Jesli zawiera wszystkie interesujace mnie szczegoly dodaje AS, jesli nie, podwyzszam AA o 1 i sprawdzam dalej. W praktyce czasem wystarczy AA=1, najczesciej AA=4 i przy bardzo szczegolowych scenach AA=8. Jedna uwaga o Pattern i Reconstruction Filter. Pattern odpowiada za dystrybucje sampli przy AA i moze znacznie poprawic jakosc. Przy wlaczonym AS nie uzywaj Classic. Z AA Zeby dluzej nie przynudzac, jeszcze tylko slowko o DOF i MB. Przy scenach zawierajacych te parametry (szczegolnie w animacji) nie warto darzyc do calkowitego pozbycia sie szumu. Czesto dodaje on naturalnosci. Jestesmy do ziarna na obrazie tak przezwyczajeni ze wiekszosc osob nawet go nie widzi i rzadko komu ono przeszkadza. Zreszta w animacji lekkie ziarno zawsze warto dodac, byle bez przesady. EDIT: Sorry, jeszcze jedna uwaga. Jesli w kadrze tylko pewien obszar wymaga dokladnijszego AA warto go wyodrebnic, albo renderujac go w oddzielnym przebiegu, albo (jesli to still) stosujac limit region. Zreszta rendering na warstwach tez mozna przeprowadzic w dwu lub wiecej przebiegach z roznymi ustawieniami AA. To wszystko oczywiscie przy zalozeniu ze sie z jakiegos programu do kompozycji korzysta.