Skocz do zawartości

Monio

Members
  • Liczba zawartości

    4 418
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    19

Zawartość dodana przez Monio

  1. Oh tak. Jobs wielki wizjoner i genialny inżynier... Nope. Za Stallmanem- "I'm not glad he's dead, but I'm glad he's gone."
  2. Ja pamiętam LEAP! Czekam aż zrobią 10 jego wersje i wreszcię odpalę na tym coś do rzeźbienia. Poczekam sobie. ;P Wszystkie te technologie mogą znaleźć masowe zastosowanie tylko je trzeba dopracować, zapewnić software i content. Mizianie palcem po ekranie istniało w konsumenckim sprzęcie dokładnie 25 lat przed iPhonem. To HoloLens to kolejny krok w wolnej ewolucji OHMD o której pisałem na poprzedniej stronie. Jak to zmniejszą do wielkości normalnych okularów z zachowaniem tej samej wydajności to pewnie się przyjmie już na stałe.
  3. Działa ale opiera się o coś N razy mniej złożonego niż to co wcześniej opisałeś. Grid to nazwa marketingowa. Tak samo jak te Hologramy u MS, nie ma nic wspólnego z Grid computing bo nie wykonuje obliczeń na komputerach podłączonych do usługi tylko na centralnych serwerach. To jest po prostu wirtualny pulpit na ich serwerze i przesył streamu do klienta. Taki zajebiście wydajny VPN. Druga opcja na zrobienie tego co piszesz to przesyłanie małych paczek obliczeniowych na serwer i wykonywanie ich za pomocą zainstalowanych tam programów. Tutaj można zastosować grid obliczeniowy. BOING, SETI, te klimaty. Przesyłanie mocy obliczeniowej to już zupełnie inna para kaloszy i coś co nie jest realne przy obecnej technologii. edit: Pomieszałem Grid z Cloudem. ;)
  4. Olaf- Koncept bardzo ciekawy ale odpal sobie najpierw kalkulator. Z dużej chmury mały deszcz. ;) Na chwile obecną najszybszy konsumencki net na świecie ma Singapur i średnia wychodzi tam 105 Mb/s. Przepustowość pamięci DDR3 to 51,200 Mb/s. Przepustowość w magistrali PCIe 3.0 jak podłączysz jakieś normalne dzisiejsze GPU to 8 x 985 MB/s czyli 63,040 Mb/s. Fizyki się nie da przeskoczyć. Światłowody w każdym gniazdku nie wyrobią. Zdajesz sobie sprawę że do przesyłu danych w takiej przepustowości i ilości jak podzespoły dzisiejszych kompów musielibyśmy najpierw wynaleźć działający, super wydajny i przede wszystkim stabilny internet kwantowy? To jest relatywnie młody koncept naukowy i zupełnie nie jesteśmy w stanie przewidzieć kiedy to nastąpi. Dodatkowo twoja wizja się rozsypie jeśli wcześniej niż stabilny internet kwantowy uda nam się zbudować wydajnie działający komputer kwantowy. Nie wiemy czy to nastąpi za 10, 20 czy 50 lat. Lepiej celować to co działa teraz, tylko na szerszą skalę i w bardziej kreatywny sposób. Czyli: odbież paczkę, *magia*, wyślij do klienta na jego stacje roboczą. Biznes takich usług będzie się rozwijał ale konsumenckie silne kompy nadal będą potrzebne jeszcze przez lata. Chyba że faktycznie trafi się jakiś cud w fizyce i ten kwantowy internet dostaniemy szybko. Opieranie biznesu na czekanie na cud i technologie które jeszcze nie istnieją to nie jest zbyt dobra droga.
  5. Tak to się zgadzam. Napierw pojawi się trochę gierek i wodotrysków dla mas a szeregowi twórcy contentu od tego motoru na biurku skorzystają z tego, jak zawsze, ostatni. Co ty masz z tymi chmurami... buzzword dekady. Wi-Fi nie wystarczy? :D Rotomonks - Kwestia X milionów dolców na odpowiednią kampanie żeby ludzie pragnęli chodzić w holopierdo hełmie po ulicy. Tak zwani "trendsetterzy", lol. Temat google glass też powróci. Obiecuje ci że za 3-5 lat będziesz widywał ludzi popalających z czymś takim na głowie, nawet jak w urządzeniu nie będzie już prądu.
  6. Ja nie skreślam. To świetny pomysł wynaleziony w 2011 roku przez Meta Company. ;) Olaf- Nie potrzebują dekady. Już Kinect2 radzi sobie z grubszymi obliczeniami. To jest wykonalne już teraz. Dokładniej było już w 2011 bo to serio nie jest niewiadomo jak złożona technologia. Akcelerometry są już tak dokładne że potrafią wyłapać w które miejsce na ekranie stukasz palcem, wielokrotny naddatek dokładności jaki jest potrzebny do headtrackingu.
  7. Wow. Gratulacje! :) Oby film się dobrze przyjął u nas i za granicą.
  8. Czemu? Fotogrametria do spółki z dzisiejszymi kamerkami głębokości, akcelerometrami, żyroskopami i kompasami pozwala ci w chwilę zrobić skan pomieszczenia w 3D i potem wyłapywać gdzie jest to urządzenie. W dronach to się sprawdza od lat. Bardziej bym się martwił o jakość połączenia internetowego żeby to wszystko mogło się łączyć z serwerami NSA.
  9. Nie wiedziałem czy mam się śmiać czy płakać oglądając ten filmik. Marketingowy bełkot, podstawieni aktorzy, flipchart ich inżynierów z napisem "Holograms are Awesome!" w chmurce. Wygląda jak parodia reklam apple które po kilku latach same w sobie były tak wtórne że aż śmieszne. Disclamer dla ludzi na bakier z technologią i googlem. Ten ich hełm nie ma absolutnie nic wspólnego z hologramem. Wyświetlacz to jest zwykły Head-up-Display czyli rozwiązanie stosowana od początku lat 70 ubiegłego wieku. Połączenie HUD z Augumented Reality nazywa się Optical-Head-Mounted-Display. Początki takiej technologii to rok 1995, pierwsze prototypy były finansowane przez DARPA i miały zastosowanie miltarne. Wersje konsumenckie były dostępne 5 lat później. Przez następne 15 lat technologia ewoluowała w taki sposób że do takich okularków o co raz to lepszej rozdzielczości dodawano kolejne czujniki jak akcelometry, różne typy kamer i w końcu kamerę IR wykrywającą głębokość. Pierwszy prototyp urządzenia działającego identycznie jak to zaprezentowane dziś przez MS to META który powstał w 2011 roku a rok później został ufundowany na Kickstarterze. Urządzenie jest już dostępne dla wybranych osób od tego miesiąca i sprawdza się dobrze. https://www.spaceglasses.com/ http://en.wikipedia.org/wiki/Optical_head-mounted_display Takie tam nowiki technologiczne z 2011 roku. ;)
  10. Nareszcie! :) Niby dało się wcześniej ale teraz nie trzeba się pierniczyć ~godzinę z driverami za każdym razem. ------- https://developer.blender.org/rBdda355442dc7ba4f83f65cb792be3f27be8c9fee Lol. :D ---- Lukas Toenne pierdyknął combo-pusha związanego z Gooseberry 2 dni temu. Razem na oko jakieś 300 różnych comitów. Jakie cuda w środku. Podwaliny renderowania PTexa w Cyclesie, masa zupełnie nowych rzeczy z hair-sima. Dużo nowości z renderem włosów w cyclecie jak i w internalu. Grube zmiany w systemie particli. Warto popatrzyć do Release logów co już jest dostępne. PTexa chyba możemy się spodziewać bardzo szybko. :) http://wiki.blender.org/index.php/Dev:Ref/Release_Notes/2.74 http://wiki.blender.org/index.php/Dev:Ref/Release_Notes/2.74/Hair !!! ----- https://developer.blender.org/D1008 Początkowa implementacja OpenVDB particle mesher modifier.
  11. Monio

    Blender 2.73

    Pojawiła się wersja 2.73a czyli bugfixy. http://www.blender.org/download/ Lista poprawek do przejrzenia tutaj: http://wiki.blender.org/index.php/Dev:Ref/Release_Notes/2.73/Bug_Fixes#Blender_2.73a:_Bug_Fixes
  12. Temporal- W Blenderze możesz, w Majce musisz. Oczywiście że to osobista preferencja. Mnie nadgarstek bolał. mariuszs- Houdini też ma darmową wersje edukacyjną. Pytanie do jakiej firmy chcesz uderzać. Im mniejsza firma tym większa szansa że będą się trzymali tylko jednego softu w pipeline. Bo integracja kosztuje a speców od tego mało. Mój kumpel z jednego warszawskiego domu produkcyjnego mi się żalił że ne mogą działać na Hudym w firmie. Uczył się w czasie wolnym i chciał ich przekonać żeby kupili jedną licencje do firmy, taką do zadań specjalnych kiedy "maya cannot into space". Pokazywał szefowi jak łatwo i szybko da się uzyskać określony efekt w Hudym a ten mu powiedział coś w stylu "No fajnie fajnie a teraz rozkmiń jak to zrobić w maya". ;) Tylko że u nich w temacie symulacji to raczej jogurcik i płynna czekolada a nie jakieś super destrukcje. Jak znasz już podstawy majki to na pewno nie zaszkodzi żebyś się tam dynamiki poduczył. Na pewno część z tej wiedzy da się przenieść na późniejszą naukę Hudego. Rod- Serio? :D Tu chodziło o porównanie vfx Maya vs Hudy. Żaden lead nie powie ci nie jak chcesz modelować / teksturować / rzeźbić w blenderze.
  13. Proponuje Houdini do efektów i proceduralnych rzeczy a Blender do wygodnej ręcznej roboty z assetami. Sporo taniej wyjdzie. Jeśli będziesz się decydował na Blendera + Houdiniego to wskazane jest żebyś renderował przez Houdiniego. O tym niżej. Zaoszczędzoną kasę wydaj na Arnolda dla Houdiniego i pozamiatane. ;) Jak nie zamierzasz dokupować na start N dodatkowych softów to Blender będzie lepszym wyborem niż Maya. Oferuje w pakiecie pełniejszy pipeline do robienia assetów. Do Maya musiałbyś dokupić jeszcze Mudboxa żeby móc teksturować i rzeźbić modele, ona takich funkcji wbudowanych nie ma (o "pluginach" do rzeźbienia zapomnij). Plusy Blendera: 1. Szybsze narzędzia do modelowania i mapowania. Większa ergonomia.* 2. Wbudowane całkiem rozwinięte narzędzia do sculptu. Oczywiście to nie jakość zbrusha ale da się w tym rzeźbić skomplikowane rzeczy. 3. Bardzo fajne i wydajne malowanie tekstur 2d/3d. (Za kilka tygodni dojdzie PTex. :) ) Plusy Majki: 1. Lepsza integracja. W przypadku blendera obecnie jest słabo z wczytaniem w nim rzeczy z Hudego żeby je wyrenderować. Alembic dopiero ma się pojawić w blenderze w gdzieś w drugiej połowie tego roku więc wszelakie symulacje (Nie tylko particje czy wolumetryka, również destrukcje meshy) będziesz musiał do tego czasu trzymać i renderować w Houdinim i potem ewentualnie łączyć w compositingu z renderami z blendera. 2. Animacja postaci. Tutaj majka wymiata. Żeby zrobić porządny rig w Blenderze trzeba sporo rzeczy załatwić driverami połączonymi z pythonem. W Majce wiele z tych rzeczy zrobisz łatwiej i szybciej za pomocą wbudowanych edytorów. Jak lubisz programować i ogarniesz pythona to powinno być trochę lepiej. *[Ciekawostka/Nie na serio] Modelowanie w blenderze to mniejsza szansa na Zespół Cieśni Nadgarstka. ;) W majce modeluje się tak: Trzymasz przycisk myszy, przesuwasz, puszczasz. W blenderze: Naciskasz klawisz, przesuwasz myszkę (bez wciśniętego przycisku), klikasz żeby zatwierdzić. Przy wielogodzinnej sesji modelowania to przytrzymywanie przycisku myszy będzie bardzo męczące. Mnie nadgarstek bolał jak crunchowałem robiąc rzeczy w majce, przy blenderze raczej nie.
  14. Chciałbym uwierzyć że Autodesk zrezygnuje z FBXa na rzecz USD. Tylko zwyczajnie tego nie widzę. Dzięki relatywnie prostemu do połączenia FBX SDK stworzyli uniwersalny format wymiany danych, który mogą kontrolować oraz modyfikować kiedy i jak tylko im się podoba. Przeskoczenie na USD (na którym totalnie nic nie zyskują bo mogą wsadzić w FBXa co chcą) to dla nich utrata wpływów w branży na rzecz wspierania konkurencyjnych firm. Wierzysz że to pójdzie tak gładko? ;)
  15. USD nie jest jeszcze dostępny w żadnym konsumenckim sofcie i nie wiadomo kiedy/ czy Pixar go wyda i nawet nie wiemy czy się przyjmie. Autodesk bankowo będzie go tępił bo to konkurent ich parszywego FBXa. Collady produkty ADSK nie potrafią poprawnie obsłużyć do dziś. Już lepiej inwestować w Alembica który ma oczywiste wady ale działa dzisiaj, przyjął się. USD teoretycznie jeszcze nie istnieje dla szarych zjadaczy chleba i nie umożliwia komunikacji między ich programami. Nie każdy pracuje w Pixarze. ;)
  16. Niestety jest, i nie da się jej ustawić w żadnych opcjach. Możesz najwyżej przeskalować obiekt za pomocą Deform-> Unify żeby ci się dopasował do tej skali, ale nie w drugą stronę. Deformacje i pędzle mogą się dziwnie zachowywać jeśli skala mesha jest za duża lub za mała w zbrushowych jednostkach.
  17. Hmmm. Masz jakieś layery na subtoolach?
  18. Toć przecież tak się dzieje od dłuższego czasu i wszystko wskazuje na to że ten trend będzie się pogłębiał! :) Dostępne od dawna: OpenEXR, OpenColorIO, OpenImageIO, OSL, Bullet na CPU Rozpoczęte projekty: OpenSubdiv, Ptex(!), Alembic (najpierw jako wewnętrzny cashe, potem jaki import/export) Tak na pardwę z dużych branżowych standardów to brakuje właśnie OpenVDB i Bulleta na GPU. Cierpliwości. Jak będą robić zunifikowany system do symulacji PO pilocie Gooseberry to bankowo dodadzą te rzeczy. Na razie niech się skupią na Viewporcie. :) W pełni zasłużenie. TechOscary są dla mnie jakoś wyjątkowo miarodajne w porównaniu do filmowych Oskarów. :D
  19. Monio

    Houdini 14 wydany

    Racja. Słowo "Programowanie" zyskało przez lata zbyt negatywny wydźwięk. Moim zdaniem przez programistów starej daty którzy za wszelką cenę chcieli podkreślać swoją elitarność. Oni pamiętają czasy abstrakcyjnie trudnego assemblera a nie "jakiegoś tam pythona". Nie ma nic magicznego w programowaniu i podejściu proceduralnym. To jest jak Lego Technics. Skąd ten minus? ;)
  20. Monio

    [Model3d] LMG

    Tak ale wystarczy kliknąć w obrazek i masz oryginalny obraz. Masz taki czarny pasek nad obrazkami? Dzięki za szczegółowy opis workflowu. Pełen podziw za dokładność i poświęcenie. :)
  21. Monio

    Szybki gameart #2

    Ok tylko jak masz PNGi w grze na mobile to strasznie zarzynasz GPU. PVR zajmuje 2 razy mniej miejsca w VRAMie (indeksowanie palety PNG nie ma tutaj znaczenia) i jest o ~30% wydajniejsze przy renderingu. W końcu to kompresja sprzętowa. Przede wszystkim nie obciążasz tak CPU. Jak zamierzasz kompresować swoje PNGi indeksując paletę to PVR też ma do wyboru wiele możliwych kompresji. Od bezstratnego RGBA8888 do 40 razy mniejszego PVRTC z 2 bitami na pixel. http://wiki.sparrow-framework.org/manual/pvr_textures
  22. Monio

    [Model3d] LMG

    Ale petarda. Na fronta z tym! :D Jaki miałeś workflow teksturowania?
  23. Monio

    ZBRUSH - kącik porad

    Tu: http://docs.pixologic.com/user-guide/3d-modeling/reference-images/grids/
  24. Monio

    Szybki gameart #2

    To mówisz tylko o ikonkach do marketów. Rajt? W samych grach masz kompresje sprzętową?
  25. 2.74 będzie super ale to co się pojawi za pół roku to będzie potęga. :D Jestem strasznie ciekaw nowej Keymapy + pies + sticky keys. Z chęcią się przestawię dla rozruszania mózgu. Fajnie jakby też odświerzyli bazowy theme, lubię zapach nowości. :) Oby tylko dostosowali blendka również do nowszego OGLa, jedyna rzecz o którą się teraz boje.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności