Jump to content

Monio

Members
  • Posts

    4,418
  • Joined

  • Last visited

  • Days Won

    19

Everything posted by Monio

  1. Nie wiem czy pamiętacie ale za był czas kiedy Mudbox miał bardzo duży udział w rynku, 30% jak nie więcej. To dlatego Pixo wzięło się do roboty i zaczęło robić tak tłuste updaty. To że ADSK spartolił to już inna sprawa. Na szczęście Pixo dalej rozwija temat mimo że zostawili wszystkich w tyle. Idaho- Come on. Photoshop przypomina Painta bo jest ołówek, wiaderko i narzędzie do wstawiania tekstu. Zrób booleana na siatkach z milionem poly w jakimkolwiek sofcie 3D. Mało który ci w ogóle na to pozwoli. Zbrush pozwala to robić (tudzież mieć dokładny podgląd) w czasie rzeczywistym. Nigdy nie było czegoś takiego. Vector Displacement nie ma kompletnie nic wspólnego z Surface Deform. To że coś wygląda podobnie nie znaczy że działa tak samo i daje takie samo możliwości. Jest masa rzeczy w zbrushu które nie są dostępne w innych softach lub działają o tyle wydajniej że pozwalają na zupełnie inny workflow.
  2. Twój procek ma dosyć małą wydajność jednego rdzenia. Może w maxie te operacje korzystają z wielu wątków a w blenderze z jednego. Anyway, ja na swoim startym 7 letnim kompie uzyskuje przy dokładnie tak gęstej bryle 8 FPS w animacji Latticea. Może nie realtime ale muleniem tego bym też nie nazwał, pozwala płynnie pracować. W temacie Edit Mode. Obecna wersja blendera korzysta ze starej technologii renderowania linii i dlatego tak to muli. To się zmieni za kilka miesięcy w wersji 2.8 gdzie przechodzą renderowanie siatek shaderami. Trzeba poczekać.
  3. Jaką masz specyfikacje? Stery aktualne? Tryb viewportu? Lattice i simple deform działają błyskawicznie. Nawet na tak gęstej siatce to powinno działać w realtime.
  4. Ryan jest świetnym artystą ale nie zna się za bardzo na technikaliach. Takie gadanie to bajki. Jak masz gotową technologie to wprowadzasz ją na rynek tak szybko jak się da żeby dogonić konkurencje albo umocnić pozycje lidera. Jakby Pixo miało w szufladzie gotowe rozwiązania to nie pozwoliliby się rozwinąć Coatowi, Mudboxowi czy nawet Modo które też w dużej mierze jest ich konkurentem. W software developmencie moc sprzętu jest o wiele mniej ważna niż design i wydajność softwareu. Zobacz jak wszystkie renderery stają się wydajniejsze pomimo tego że na rynku procesorów od wielu lat mamy stagnacje, nowe procesory są marginalnie szybsze niż modele z wcześniejszych lat. To również dotyczy zbrusha, software renderer na CPU. Takie wyliczanie mocy przyszłych sprzętów sprawdza się tylko w przypadku grafiki do gier. Robisz rzeczy na istniejącym nowym hardwarze i liczysz na to że po kilku latach produkcji taką moc będą miały kompy mid-range. Jest szansa że te live booleany wymagają więcej mocy bo renderujesz subtoole w osobnych pasach, w tym 2 passy na tryb Intersect. Z drugiej strony jest możliwość że poprzednio subtoole również były renderowane na osobnych pasach ale tylko w trybie dostatnim. Skłaniam się ku tezie odpalenia bongo.
  5. Tak mnie olśniło, ciekawostka. Technologia renderingu zbrusha pozwalała na taki live preview booleanów od zawsze. Wystarczy wyciąć pixole i już. W trybie 2.5D to działało od pierwszej wersji zbrusha. Po prostu musieli wpaść na to że się da to samo zrobić per-subtool. ;) Inna sprawa że konwertowanie na mesha to najlepszy algorytm CSG jaki widzieliśmy w programach do grafiki, jakość CADa, szybkość z marsa. Edit: Pobawiłem się chwilę i mam 100% pewność że to właśnie tak działa. Przy okazji znalazłem buga. ;) Zobaczcie co się dzieje jak macie pixole na canvasie, w edit mode włączycie live boolean, dajcie jakiemuś subtoolowi tryb Intersect lub Difference i poprzesuwacie obiekt po tych pixolach. Możecie zauważyć ramkę passu renderowania Subtooli. :D Czyli ta technologia była tam od 15 lat. Musieli po prostu odpalić bongo i połączyć kropki.
  6. Live boolean to jeden z największych przełomów w modelowaniu od lat. Tego się nawet nie można porównywać z booleanami z innych softów. Reszta ficzerów też super, same konkrety usprawniające workflow. Warto było czekać. Pixologic po raz kolejny rewolucjonizuje branże 3D.
  7. Jarałem się bym modyfikatorem właśnie dlatego że można robić takie rzeczy ale zapomniałem że można już z niego korzystać. :P Dzięki za info, idealnie się sprawdzi w moim obecnym projekcie.
  8. Lol. Twoja ignorancja rozkłada mnie na łopatki. Poczytaj może o tym.
  9. Faceplam. DjDraco - Ustaw sobie skale metryczną w Properties -> Scene. Wszystkie wymiary będziesz miał wtedy w metrach i centymetrach. Potem musisz jeszcze w eksporterze FBXa mieć zaznaczone Apply Unit Scale i będziesz miał dokładną synchronizacje w Blenderze i Unrealu.
  10. Dobra rzecz. Napisałem sobie kiedyś coś podobnego (OBJ i FBX) i od tamtego czasu wszystko tym eksportuje.
  11. Tak przyszłościowo to Substance Painter ale na upartego można w zecie za pomocą polypaintu. Ogarnij Mask by Cavity. Tylko musisz bardzo mocno zagęścić obiekt, tyle ile komp ci udźwignie. Przy dobrze rozłożonym UV jeden milion poly da ci maksymalnie teksturę 1024x1024 znośnej jakości. Potem możesz ją dopieścić mikro detalem w shopie, użyć sharpena. Jeśli się zdecydujesz na Paintera to proponuje zacząć od tych tutoriali: https://www.artstation.com/artwork/Z0501
  12. Ja w też ale gdzieś trzeba szukać newsów, śledzić development blendka i addonów. Kiedyś miałem czas czytać wszystkie commity, teraz wole sprawdzić BA. Niestety przy okazji trzeba przebrnąć przez sterty bullshitu. Co nie zmienia faktu że to akceleracja sprzętowa GPU i widać to jak na dłoni. Rozumiem że osoba zaczynająca zabawę z 3D może tego nie wiedzieć ale gość który kręci tutoriale do softu? WTF. Też bym chciał ale to wymaga kilku składowych. Sam wydajny viewport tego nie załatwi, obracanie kamery to jeszcze nie rzeźbienie. Potrzebny byłby "przynajmniej" refactoring multiresa i mechaniki deformacji pędzlami żeby to płynnie działało. Teraz 2 gości działa w temacie sculptu w ramach GSoC. Jeśli im się teraz uda to może kiedyś wezmą się za usprawnienie tych bebechów.
  13. W ogóle przez komentarze odnośnie 2.8 trochę trące wiarę w community. Goście piszą o Eevee że nie potrzebują silnika gier w blenderze (?!). Drudzy się pytają czy to zamieni Cyclesa. Jeszcze inni narzekają że warstwy im nie działają jakby to była finalna wersja. Ja rozumiem że nikt nie musi być na bieżąco z każdą nowinką, ale skoro już ściągają eksperymentalnego, niedokończonego builda to mogliby się chociaż trochę zorientować z czym mają do czynienia. Mam wrażenie że ludzie oczekują że kilku koderów wykona rok pracy w miesiąc, nie chce im się przeczytać ogólnodostępnych informacji ale za to są pierwsi do narzekania że Ton chce usunąć Cyclesa i zrobić z blendera silnik gier. Chyba za dużo czytam BA. Duże ilości raka.
  14. Spoko prezentacja ale ja pier****. Jak można nie ogarniać że to działa tylko na GPU. Uzyskanie takiej grafy w realtime na CPU jest zwyczajnie niemożliwe.
  15. Oczywiście że nie! Benchmarki pokazują wersje na OpenCLa z samplowaniem Sobol kontra CUDA i Sobol. Jaki byłby sens odpalać w ogole benchmark jeśli ustawienia renderu byłyby inne? CMJ działa już na OpenCL tylko Mai nie wyrobiła się żeby to weszło do 2.79. Sampluje wolniej, kilka procent, tak jak w przypadku CUDA. Po prostu wymaga testów. Niedługo i tak nie bedzie miało to znaczenia bo w momencie wyjscia bety 2.8 Lukas skończy sampler oparty o błekitny szum. Ten deklasuje wszystkie inne znane metody samplowania (przy niskiej ilości sampli) i dodatkowo produkuje output który będzie doskonale współgrał z denoiserem. Śmiało można zakładać zredukowanie czasu renderu prostych scen o połowę bez denoisera, n-razy z denoiserem. To rozwiazanie to jeden z głównych powodów szybkości Arnolda. :) Przy mało doswietlonych scenach CMJ może działać lepiej. Też będzie dostępny na OpenCL niedługo. Czyli sprawa jest prosta, jak masz w tym momencie multum projektów do wyrenderowania to inwestujesz w Nvidie. Jak możesz poczekać do końca roku to wtedy większy sens będzie miało AMD.
  16. Musisz stworzyć plane z UV i wypalić na niego te wymodelowane obiekty. Googlaj: Normalmap Baking, Cycles Baking.
  17. Czarujesz jakieś bzdury. Jedyna rzecz której brak w wersji OpenCL w stosunku do CUDA to CMJ który nie sprawi większego problemu z przeportowaniem oraz Baking (który trzeba by było przepisać we wszystkich wersjach żeby był miał sens). Ty chyba porównujesz do wersji CPU.
  18. http://www.cartoonbrew.com/feature-film/agent-327-operation-barbershop-trailer-blender-used-pull-off-hollywood-level-animation-150785.html
  19. Nezumi - To jest Proof of Concept Trailer. Ton teraz jeździ po świecie i szuka inwestorów. Samo Blender Cloud i datki od fanów do tego nie wystarczą (co pokazało Gooseberry), potrzebna jest dużo grubsza kasa. Dlatego shareujcie gdzie się da żeby nabiło wyświetleń. Jeśli uda im się zebrać te kilka milionów euro to development blendka idący w parze z produkcją filmu będzie kosmosem.
  20. Opad szczęki. Wrzućcie to do newsów no to zasługuje na insta-fronta.
  21. Pół roku. Siggraph 2017 - Alpha Końcówka 2017 - Stable Potem przez kilka miesięcy pewnie będą tweakować niuanse interfaceu i dopracowywać poboczne rzeczy. Ale takie zmiany mamy na dobrą sprawę non-stop od lat.
  22. Vertex i Pixel shadery to nie rodzaje cieniowania tylko etapy Rendering pipelineu. Tak więc na pewno chodzi o Phonga, Blinna, Gouraud itp. https://en.wikipedia.org/wiki/Graphics_pipeline W drugim pytaniu 2a to laicko uproszczona wersja odpowiedzi 2b. Poznając temat powinieneś iść w stronę 2b. Tematy do googlania : Fixed function pipeline, Programable pipeline, compute shader, GPGPU
  23. https://blenderartists.org/forum/showthread.php?419704-The-latest-additions-to-cycles-has-made-it-nearly-real-time-in-certain-scenarios Tu masz wszystko opisane.
  24. Huh. Ja eksportuje FBXy setkami i takich problemów nie miałem jeszcze nigdy. Masz jakiś plik na którym da się to zreprodukować?
  25. Czy twój obiekt ma modyfikatory które odwołują się do innych obiektów albo masz constrainy, grupy, parenty, duplikatory?
×
×
  • Create New...

Important Information

We are using cookies. Read about our Privacy Policy