Skocz do zawartości

Vaticinator

Members
  • Liczba zawartości

    224
  • Rejestracja

  • Ostatnia wizyta

Zawartość dodana przez Vaticinator

  1. No czad :) Zwłaszcza motocykl... magia. Używałeś do tego Freestyle'a, czy to jakiś zupełnie autorski system?
  2. Ja jak kiedyś widziałem tego kosmonautę, to mi się bardzo spodobał, ale teraz po przejrzeniu galerii też jakoś mnie to nie zachwyca. Mimo wszystko podejrzewam, że można z tego wycisnąć więcej. Pochwalisz się jakimś renderkiem? Ciekaw jestem rezultatów. Mi się udało z Blendera wypuścić coś takiego: Bazowałem na tym shaderze: https://blendernpr.org/classic-ink-shader/
  3. Mam wiadomość trochę z innej beczki... ASP we Wrocławiu będzie szukało kogoś na stanowisko asystenta w katedrze sztuki mediów. Najlepiej kogoś biegłego w 3D. Może ktoś byłby chętny? Od razu zaznaczę, że pensja nie jest adekwatna do wymaganych umiejętności, ale niektórzy czują powołanie ;) Więcej info na priv (ważne do 15. czerwca ...i trzeba mieć tytuł magistra).
  4. Pod timelinem kliknij w czerwoną kropkę opisaną: "automatic keyframe inssertion...". Przesuń kamerę tam gdzie chcesz, żeby była na początku animacji (pojawi się żółta pionowa linia na tajmlajnie w pierwszej klatce, która oznacza klatkę kluczową). Przesuń zielony pasek na tajmlajnie w prawo (np. do klatki 100 [ok. 4 sec.]) i ustaw kamerę w nowym położeniu. Teraz suwają się po timelinie, zobaczysz jak Blender zanimował ruch kamery z punku A do punktu B. Analogicznie można dodać kolejne klatki kluczowe dla kamery. Po wszystkim odznacz czerwoną kropkę.
  5. Faktycznie trochę za mało podano informacji, żeby stwierdzić ile w projekcje było konwencji komputerowego algorytmu. Wg źródła (http://www.bbc.com/news/technology-35977315) komputer został "poproszony" o wygenerowanie portretu mężczyzny rasy kaukaskiej w przedziale wieku 30-40 lat. Nie wątpię, że Rembrandt namalowałby to inaczej, ale jednak tutaj komputer bazując na podanych referencjach spełnił założenia projektu. Nawiązując dalej do pierwszego komentarza Nordena, w tym roku w Japonii książka napisana przez AI trafiła do ścisłego finału narodowego konkursu literackiego. Może nie ma jeszcze kinowych produkcji filmowych opartych na generatorach, ale mnie osobiście nie zdziwi jeśli w niedalekiej przyszłości się pojawią. Absolutnie nie wieszczę sytuacji, w której komputery zastąpią człowieka w branżach kreatywnych, ale wierzę, że są w stanie ten świat nieco urozmaicić.
  6. Akurat trafiłem na projekt, który miał na celu "nauczenie komputera" stylu naśladującego malarstwo Rembrandta. Można obejrzeć krótki materiał na ten temat na YT:
  7. Cycles Rendering has better Subsurface Scattering, GPU support for Smoke/Fire and Point Density, and a few other features and optimizations. User Interface has faster OpenGL rendering and better Anti-Aliasing, and other improvements Modeling now has an edit-mode boolean tool, better decimate modifier, selection tools Sequencer has a Gaussian Blur effect speedup, and other strip and modifier improvements Sculpting/Painting has better extruding and weight painting tools Animation has a new constraint interpolation method, and improvements in graph editor, dope sheet, armatures and motion paths Grease pencil now has stroke sculpting, and several other workflow improvements Library handling has been improved to better manage missing and deleted datablocks Game Engine has a few new small features A new Add-on supports packing .blend files and their dependencies, some other IO Add-on was improved, and Python was upgraded OpenVDB caching is now supported for smoke/volumetric simulations, multithreading is now massively supported, and also 2D stabilization node, Image editor, Cubemap and spotlights were improved Support for Windows XP was removed, and the SCons build system too. And, as usual, a massive bug fixing! źródło: https://www.blender.org/2-77/ Wideo z dokładniejszym omówieniem nowości:
  8. Tak myślałem, że Wy będziecie wiedzieli o co chodzi ;) Moja konkluzja jest taka, że coś co pozornie wydawało mi się bez sensu (czyli miksowanie dwóch takich samych shaderów) jest nie dość, że sensowne, to jeszcze przynosi doskonałe rezultaty. Wcześniej myślałem, że dwa te same shadery zmiksowane z różnymi parametrami, można zastąpić jednym. Myślę, że nie jestem odosobnionym przypadkiem, dlatego się tym dzielę. Dzięki Ikkiz za obrazowe tłumaczenie, zdecydowanie przemówiło mi do wyobraźni.
  9. Taka ciekawostka... Pewnie patrząc na to "od kuchni" nie ma w tym nic zaskakującego, ale dla mnie to dość niespodziewane zachowanie. Jakby się zastanowić, że wynik nie musi być zależny liniowo od parametru Roughness, to nie ma w tym nic dziwnego, ale nawet jak oba shadery z lewej będą miały parametr Roughness 0.5, to i tak render wyjdzie nieco inny niż gdybyśmy wykorzystali tylko jeden shader Glass z Roughness 0.5.
  10. hophead ninja, Faktycznie bardzo przyjemny Addon :) Będę kibicował.
  11. Nie zgadzam się. Porównanie bardziej adekwatne do sytuacji, to mieć inżynierów tworzących bazy na księżycu i ściągnąć do Polski firmę która ogarnie marketing i znajdzie sponsorów, ale oczywiście masz prawo mieć swoje zdanie. Dla mnie w obecnej sytuacji pewnikiem jest, że pieniądze na Wieśka się znajdą.
  12. @Reanimator Producent, to w końcu stanowisko przede wszystkim odpowiedzialne za pozyskiwanie pieniędzy. Jak jest producent, to raczej można założyć, że i pieniądze się pojawią. Ciekawe czy zdjęcia będą realizowane w Polsce, czy raczej będzie to zlepek z różnych miejsc globu.
  13. @Monio & McGavish Dzięki za wskazówki. Niestety mimo aktualnych sterowników wciąż tylko "none", ale metoda z uruchamianiem z wybraną kartą zadziałała na drugim laptopie :)
  14. A ja mam na lapku GeForce 540M i żadnej opcji poza "none" w preferencjach OpenSubdiva niestety :/ Ale samo przyspieszenie Viewportu i point density node mi wystarczy, żeby cieszyć się z nowego wydania.
  15. [video=youtube;Y-rmzh0PI3c]https://www.youtube.com/watch?v=Y-rmzh0PI3c Pierwsze 10 minut "Cosmos Laundromat", filmu stworzonego w głównej mierze w programie Blender. Całość z wykorzystaniem programów Open Source. Można oglądać, pobierać, remiksować i uczyć się, bo projekt udostępniono dla wszystkich. https://gooseberry.blender.org/cosmos-laundromat-first-cycle/
  16. Można rozłożyć UVkę i wybejkować Diffuse Color na ustawieniu gdzie linia układa się tak jak chcesz. Potem przypniesz uzyskaną teksturę zamiast colorrampa i już. Albo jeszcze prościej... i bez uv mapki. Zaznaczasz w edit mode ścianki, które mają być żółte i przypisujesz im żółty materiał. Wymaga to odpowiedniego podziału geometrii na wieczku i denku, ale w tym przypadku to sekunda.
  17. Chyba, że działałoby to na zasadzie: "Blender, wymodeluj mi las sosnowy, z paprotkami i mchem. Taki jak na zdjęciu."
  18. Ja mam jeszcze drobną sugestię co do kadru i kompozycji. Wydaje mi się, że... Może lepiej podmaluję. Oczywiście to Wasza praca i zrobicie co uważacie.
  19. No właśnie mam 1296 obiektów :/ Jak wymyślę jakiś inny sposób, to się podzielę. EDIT. Poradziłem sobie. Opiszę jak, może kiedyś komuś się przyda. Omówię na prostym przykładzie, ale na złożonym działa to analogicznie. Trzeba zrobić duplikat obiektu. Na jednym "apply" Arraya w klatce z pierwszym kluczem animacji, a na drugim obiekcie w klatce z drugim kluczem. Potem obydwóm obiektom stworzyłem shape keye. Zaznaczyłem obydwa i wybrałem opcję "join as shapes" i gotowe :) Ilość i indexy vertexów są odpowiadające dzięki czemu obiekt transformuje się zgodnie z przewidywaniami. Są oczywiście lekkie straty, bo kurs jest po najkrótszej drodze, ale można ewentualnie dodać jeszcze jakieś stany pośrednie. W moim przypadku świetnie się to sprawdziło.
  20. W zasadzie to ilość pozostaje bez zmian. Animuję jedynie położenie i obrót obiektu "empty" względem którego generują się kolejne kopie.
  21. Aż trudno mi opisać to co chcę uzyskać... Mam obiekt z modyfikatorem Array, który sobie animuję. Teraz muszę apply'ować mu ten modyfikator (będę obiekt eksportował do innego programu). Jak klikam Apply, to oczywiście mam swój gąszcz obiektów, ale one już się nie animują. Ma ktoś pomysł jak to zrobić, żeby tą animację zachować... na shape keysach, albo jakkolwiek?
  22. Chodzi o kliknięcie w "Apply" w modyfikatorze mirror.
  23. Kiedyś bawiłem się w mandelbulber i pamiętam swój zachwyt... Ale to wygląda i działa jeszcze lepiej. Kopalnia inspiracji.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności