Skocz do zawartości

mantragora

Members
  • Liczba zawartości

    158
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    1

Zawartość dodana przez mantragora

  1. mantragora

    Houdini 13

    mam taka zasade, "Do not feed the trolls" ;)
  2. mantragora

    Houdini 13

    Uzywanie Windowsa 7 bez SP1 pod koniec 2013? Are you serious?
  3. Ale co? Myslisz ze jak wrzucisz szybszy procek to ci mniej bedzie maks mulil? Ten program potrafi nawet prostymi rzeczami zajezdzic najszybsze i7. Moze czas na zmiane programu?
  4. No wlasnie o to chodzi. 50% czasu pracy w maxie to czas w jakim sie uruchamia :D
  5. To Kramona wina :D Pod Maxa to dysk SSD warto bo na zwyklym HD bedzie sie slimaczyl. Zreszta nawet z SSD bedzie sie slimaczyl :).
  6. A ty sie nie martw o ten bilion poly bo w tym bilione to se kilkaset porzadnych modeli smiescisz :D [font=sans-serif]milion = 1000000 30 milionow = 30000000 100 milionow = 100000000 [/font]bilion = [font=sans-serif] 1000000000000[/font] xNormal 30 milionow poly wciaga bez problemu na 4GB, przy 16GB 100 milionow pojdzie jak z bicza. I jak wyzej, chcialbym zobaczyc te twoje 100 milionowe modele, jesli mozna ;)
  7. Taaa, szkoda tylk ze Zbrush jest nadal 32-bitowy i obsluguje maks 4 GB ;)
  8. Marmoset Toolbag nie jest szczytem mozliwosci realtime 3D. Obecna wersja nawet nie posiada PBR oraz ma kompletnie sztuczny DOF i nierealistyczne cienie. W nastepnej wersji 2.0 maja dodac bardziej filmowy DOF i materialy PBR ale jak to im wyjdzie to sie zobaczy. Na razie nawet z wiekszymi modelami sobie srednio radzi. Poza tym wersja standalone Toolbag ma gorsza jakosc od wersj ktora zostala uzyta jako przegladarka w pluginie dDo. Co nie zmienia faktu ze obie sa lata swetlne za tym co Activision pokazuje w swojej prezentacji. W tym momencie swoja jakoscia dorownuja tak mniej wiecej CryEngine 2 (jak przymkne oko na polowe bajerow ktorych nie potrafia) ktory wyszedl w 2007 roku. 6 lat temu. CryEngine ma realtime reflections wiec cubemapsy nie sa konieczne jesli nie musisz miec 60 kl/s tylko jedna co 5 sekund. Ale CryEngine jest takze starym silnikiem, nawet wersja 3. W nastepnym roku wersja 4 ma sie pokazac.
  9. Raczej spodziewalbym sie pelnometrazowego filmku animowanego po ktorejs z firm robiacych gry. Moze Square Enix ktore juz raz 13 lat temu rzucilo sie w nieznane z Final Fantasy? Ich silnik tez zapowiada sie niezle.
  10. Jak cie nie wystarczy realizm z tego dema Activision (oraz SSS ktore tam zaprezentowali, najlepiej pokazany w filmikach zamieszczonych w tym PowerPoincie ze slajdami) to nie wiem co cie zadowoli. Ile animacji widziales ktore taki realizm potrafia osiagnac normalnie renderowanych? Ile takich klatek bylbys w stanie wyrenderowac w jednej sekundzie przy 1080? Bedziecie sie czepiac teraz kazdej rzeczy ktorej nie pokazano. Bo jak nie widac to pewnie nie mozna osiagnac tego? Bardzo mi przykro ze nie moge wam dostarczyc wiecej wysokorozdzielczych probek z silnika Activision ale mysle ze ten render glowy ktory tam pokazuja (ktory dziala 180kl/s przy 1080 na pojedynczym GTX680) mowi jasno na jakim poziomie w tej chwili jest realtime i co mozna nim osiagnac. Od tego tylko w gore moze jechac jakosciowo. Szczegolnie ze razem z nowymi silnikami dostajemy PBR i kupe innych bajerow ktore rozwiazuja problemy ktore wczesniej stanowily bariere dla uzywania realtime do czegos powazniejszego. Teraz wyobrazcie sobie ze zamiast 180 kl/s wypuszczacie taki render raz na 5-10 sekund przy 8K. Mysle ze jakosc zadowoli nawet najbardziej wybrednych. Poza legomirem ;)
  11. @legomir: Ja tylko twierdze ze realtime jest juz dzisiaj gotowe na to by dostarczac filmy animowane w tej samej jakosci jak normalnie renderowane animacje pokroju Shreak czy ToyStory. Natomiast to ze nie ma jeszcze ogolnie dostepnych narzedzi z ktorych moglyby skorzystac firmy pokroju PI to inna sprawa. Jest CineBox od Cryteka, ale z tego co wiem to na razie jest on zamknieta beta dla duzych wytworni filmowych. Nawet nie wiem jaka jakosc oferuje bo nigdy go na oczy nie widzialem a filmik promujacy jaki wypuscili z rok temu byl nedzny, o kilka klas ponizej tego co tu podlinkowalem. Activision raczej swojego narzedzia nie wypusci dla mas wiec mozemy sie obejsc tylko smakiem. PS. Moze PI mogloby sie postarac o CineBox do testow. Wtedy byoby troche wiecej wiadomo co Crytek szykuje tam po cichu.
  12. W pierwszym poscie wyraznie podkreslilem, w pierwszym zdaniu, ze chodzi mi o animacje a nie o normalne filmy. Poza tym masz tu goscia co robi na wlasna reke w CryEngine2 dzungle (dopisal sobie kilka wlasnych shaderow, np. do motion blura i DOFa). Symulacje roslin ma za free jako ze ten silnik obsluguje kolizje roslinnosci z roznymi obiektami. A ten silnik ma juz kilka ladnych latek (toz to 2007 rok, czasy pierwszego Happy Feet) i nie obsluguje wielu rzeczy ktore maja najnowsze silniki (tesselacja itp.). 6 lat roznicy w grafice realtime widac na demku Activision. Nowy CryEngine ma wyjsc w nastepnym roku i bedzie mogl uciagnac na pewno duzo wiecej danych niz wersja z 2007 roku. EDIT: Poza tym przeciez to ma sluzyc jako renderer a nie narzedzie do symulacji. Tak jak w normalnym zestawie. Zasysasz cala gotowa animacje, ustawiasz co chcesz i w ciagu jednego dnia machasz pelnometrazowy film :)
  13. Ale ty jedziesz na Blenderze ;)
  14. Gdyby Symek nie wpadl wykrzykujac cos o znecaniu sie nade mna, poszlo by inaczej. Jestem pewien ze piszac swojego pierwszego posta nawet nie zajrzal do zalinkowanych przeze mnie slajdow Activision ani nie obejrzal filmika tej firmy i postanowil po prostu po mnie pojechac dla zasady, bo on wie lepiej. Do Symka nic nie mam. Poza tym ze sie z nim nie zgadzam ;) Czasami jest spoko gosc, jak nie przynudza o Pixarze itp. Dla tych co mnie minusowali dla zasady, a jestem pewien ze jestescie takze tymi ktorym sie nawet nie chcialo zajrzec do llinka z mojego pierwszego posta, ponizej link do slajdow w ktorych omawiaja co i jak (uwaga, bezposredni link wazocy 312 MB, RMB myszka na nim i "save as", darmowa przegladarka PowerPoint jest dostepna do zassania od Microsoftu): http://www.iryoku.com/projects/nextgen/downloads/Next-Generation-Character-Rendering-v6.pptx prezentacja z youtube: oraz kilka zdjec luzem: I jak mi Baggins powie ze technika realtime sie nie nadaje do robienia animacji to pojade jak Symek po ostatnim cinematiku PI do wiedzmina ;). Heya. PS. Wszystkiego najlepszego Symek.
  15. Bo nie masz nic do powiedzenia sensownego i zapychasz caly topik bzdurami o wielkich studiach ktore malo kogo interesuja. Skup sie na rynkach gdzie nie ma firm liczacych 500+ osob i bedziesz mial inna sytuacje. Rozchmurz sie Symek ;). Jak ci szkoda czasu to po co wypowiadasz sie w topiku realtime o ktorym nie masz pojecia? Pozdrawiam
  16. Dokladnie. Jak wspomnialem w pierwszym poscie, moge wypuscic klatke w 8K co 5-10 sekund, natomiast zeby zrobic ta klatke w tej samej jakosci i rozdzielczosci normalnie to musze swoja stacje zaprzadz do roboty na caly dzien. Nie mam renderfarm za plecami.
  17. Smiem twierdzic ze Pixar ma takie pojecie o robieniu grafiki RealTime jak SESI ktore od dwoch lat meczy sie z viewportem w Houdym. Z tego powodu przywolywanie tych firm jako wzor, ze skoro one nie wykorzystuja to sie nie da, jest bzdura. To firmy pokroju Activision pokazuja przelomowe papiery w RealTime a nie Pixar. Porownywanie z animacjami zrobionymi przez nich jest jak najbardziej na miejscu bo pokazuje uplyw czasu i postep techniki. PS. nie watpie w to ze Pixar moga robic juz testy lub pracowac nad RealTimowa wersja Rendermana ale to nie zmienia faktu ze sa nikim w porownaniu do CryTek'a lub Activision, maja zero znaczocych osiagniec na tym polu. W tydzien nie zrobia z siebie potegi w Realtime jesli nne firmy dekade R&D maja za soba w tym temacie. No to przejrzyj sobie kazdego Shrecka i Toy Story wydane do tej pory, bedziesz mial porownanie z nowszymi filmami. Obejrzyj sobie render Arnolda z Terminatora 4 i porownaj go z tym renderem Activision z tych slajdow ktore zalinkowalem. Nadal wytrzymuje porownianie. Sorry, o Path Tracing mi chodzilo ;) Musialo kupic bo pipeline na RealTime nie byl gotowy i bylo to w czasach gdy RealTime jeszcze nie oferowal takich mozliwosci. Ale teraz mamy 2013 rok a nie 2007/2011. W 2007 Microsoft smial sie z iPhona, w 2013 sprzedarz desktopow spada z kwartalu na kwartal i Microsoft trzesie sie na nogach. To samo jest z RealTime i normalnymi renderami.
  18. Duze studia z dnia na dzien nie wywala calego swojego pipelinu. Zreszta nie rozumiem czemu podajesz te studia za wzor? Sa to wszystko firmy ktore bazuja na rozwiazaniach z z epoki gdy w grafice realtime szczyytem mozliwosci byly postacie niewiele rozniace sie od szescianu. A czasy sie zmienily. Czy mi sie wydaje czy Pixar dodal raytracying do rendermana ledwo ze dwie edycje temu podczas gdy inne silniki milay go juz dawno i byly normalnie wykorzystywane w produkcji? Czemu wiec Pixar mialby byc jakimkolwiek wzorem tutaj? Wspominasz tylko o Pixarze a przyjrzyj sie filmom dla dzieci jakie leca na dobranocke, chcesz mi powiedzie ze nie da sie tego zrobic w realtime? W takim razie sam gadasz bzdury. Na normalne filmy typu starwars moze nie jest to jeszcze gotowe ale animacja moze byc spokojnie robiona za pomoca tych technik. Toy story od poczatku do konca jest mozliwe do zrobienia w RealTime. Nie ma w tym filmie ani miliardow polygonow ani tony symulacji ktore wymagalyby masywnych renderfarm. To ze nie robi tego Pixar to ich problem nie moj. Oni zarabiaja na sprzedarzy Rendermana ktory nie jest realtime. To tak jak z Microsoftem i Ballmerem wysmiewajacym iPhona, sami jeszcze nie maja implementacji to i beda sie zapierac ze jeszcze sie nie da tego uzywac i nikt tego nie kupi. PS.Przejrzales link do slajdow Activision ktory podalem w moim pierwszym poscie tu? Patrze na to i porownuje z FinalFantasy Spirits Within i wydaje mi sie ze wytrzymuje porownanie bez problemu. PS2. Ja caly czas mowie ze jest to gotowe na animacje, nie na normalne filmy krecone kamera.
  19. W grach takze nadal nie uzywa sie montion blura i dof'a z prawdziwego zdarzenia, co nie przeszkodzilo jednemu smialkowi http://cryenginefilmtools.blogspot.com zrobic sobie wlasna implementacje tego w cryengine. Wlosy w realtime juz byly pokazywane przez chyba Nvidie. To naprawde nie jest juz problem jakiejs implementacji tylko checi zbrania tego w jedna calosc w jednym silniku z zalozeniem wykorzystania nie tylko do gier.
  20. Oni robia dokladnie to o czym ja mowie. Chca miec problem postprodukcji z glowy.
  21. Patrze na Happy Feet i widze film ktory jest do uciagniecia przez aktualne karty graficzne. Jak chcesz symulowac na tym miliony ziarenek piasku plus 20 tys ginacych ludzi to jasne ze ci nie pojdzie, ale tej wielkosci filmy jak ToyStoy sa do ogarniecia. Poza tym czy mi sie tylko wydaje czy branza 3D leci na skladaniu scen w programach typu Nuke? Mysle ze spokojnie 60-70 procent rzeczy mozna bez ciecia na czesci robic a reszte podzielic i zlozyc. Ilosc oszczedzonego czasu jest tego warta.
  22. Najnowsze silniki juz spokojnie moga zastapic tradycyjny rendering do robienia filmow animowanych. Paranoja dla mnie jest robienie filmu animowanego w 2013 roku za pomoca normalnego renderingu. Ja juz sobie darowalem tradycyjny rendering. Jeszcze w Modo cos tam czasem wyrenderuje ale poza tym nie na moje nerwy czekanie po kilka godzin na efekty. Od kilku miesiecy swoj workflow zmieniam i wykorzystuje narzedzia typowo robione/najczesciej spotykane w firmach produkujacych gry. Jak dodam do tego ze moge w ciagu pieciu sekund wywalic obrazek w 8K z jakoscia ktorej aby dorownac normalnie musialbym zaprzac wsoj sprzet na caly dzien to szkoda gadac. BTW. Jesli przez przypadek przegapiliscie pokaz Activision to zerknijcie na te slajdy http://www.iryoku.com/stare-into-the-future w ktorych opisuja swoje realtimowe osiagniecie dokladniej.
  23. W Vexie masz tylko rint ale to ci da integer. Mozesz pomnozyc przez 1000 lub inna sume aby przesunac przecinek i zrobic poronanie integer. Porownywanie floatow ma wiele minusow i nie ma sensu z tym walczyc czasami. Co ty chesz zrobic, bo moze za bardzo kombinujesz? Nie moglys zapodac Hipa jak kazdy normalny uzytkownik Houdego? ;)
  24. Nie bawilem sie jeszcze pointWrangle ale podejrzewam ze dziala podobnie jak reszta Vexa wiec bedziesz musial zrobic to w dwoch nodach. Podobna sprawe mialem tu (jest tam tez link do topica z hip'em). Mierzylem dystans kazdego punktu ale zeby znalezc ten ktory jest najbardziej podobny do mojego wzorowego dystansu musialem wywalic to porownanie do PythonSOP. Ewentualnie jak chcesz mozna zrobic to w jednym nodzie za pomoca inlineCPP lub HDK. Prosta sprawa.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności