Skocz do zawartości

SYmek

Members
  • Liczba zawartości

    1 532
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    14

Zawartość dodana przez SYmek

  1. SYmek

    MODO 701

    To super, wrapper SDK w Pythonie czy C# potrafi nieźle namieszać :)
  2. SYmek

    MODO 701

    Rwetes, jakbym Wam matkę obraził, a ja piszę uprzejmie jak zawodowiec (bo tak się składa, że nikt z komentujących nie napisał niczego konkretnego, tak był zajęty ochami), że nowe ficzery to nieprodukcyjne bajery, a nie poważna kontrpropozycja dla konkurencji, którą nie jest, btw, Houdini czy Maya, ale Max, LW, Cinema. Fajny program, a jak wypuszczą wersję na Linuksa, to już w ogóle bomba, co nie znaczy, że nie mam prawa, jako profesjonalista, do jego oceny teraz, a nie za 5 lat i nie widzę, co to ma wspólnego z moją narodowością. Zobaczyłem wczoraj wszystko, co było na stronie i podstronach a dziś tę prezentację i jako program dla designerów wciąż mi się podoba :)
  3. SYmek

    MODO 701

    Naprawdę ciekawostka. Nie mam jakoś wybitnie pozytywnych wrażeń z tej prezentacji. Oczywiście firma prezentuje się świetnie, rozwija produkt bla, bla, bla, cena ok, i jesteśmy tacy zabawni, nie to co Adsk, które się chowa za korporacyjnym bullshitem, tutaj wszystko ok, ale jeśli chodzi o same ficzery i stąpanie po ziemi, to jednak: - narzędzia do rzeźbienia nijak mają się do tygrysów branży, nie proponują niczego, co byłoby prawdziwą atrakcją dla użytkowników ZBrusha. - animacja jest na poziomie Mai sprzed 10 lat. - podobnie cząsteczki to jakiś wstęp. Nikt, kto zajmuje się zawodowo cząsteczkami, nie znajdzie tu atrakcji. Więc ok, chłopaki pracują, super, ale większość nowych propozycji to wodotryski, jeśli porównać je do poziomu narzędzi u konkurencji. Nadaj świetny modeler z świetnym rendererem dla designerów. Boo! So great.
  4. Oczywiście upraszczasz, ale rozumiem, że Ci tak wygodniej... nic w tym złego patrząc wprost, patrząc nie wprost natomiast to jest kwestia zaufania do swojego dostawcy oprogramowania. ...to się po angielsku nazywa "integrity", trudne do przetłumaczenia słowo, które w tym kontekście znaczy tyle, że są duże szanse, że "skopiowana" funkcjonalność nie będzie działać tak jak powinna, ponieważ autorski pomysł był częścią jakiejś filozofii myślenia o swoim programie, tudzież włożonego w niego talentu i profesjonalizmu, a kopia jest zestawem funkcji włożonych w obcy kontekst. To jest oczywiście kwestia niuansów. ICE jest doskonałą kopią dlatego, że pod wieloma względami przerósł oryginał, a na przykład assety w Mai wręcz odwrotnie. Ciekawe jak będzie z "scene assembly", które znów próbują załatać dziurię w czymś, co jest po prostu od postaw źle skopiowane od konkurencji. EDIT: Nie chodziło mi o integrity programu, ale jego autorów, że pozwolę sobie sprecyzować...
  5. Nigdy nie było tam super stałego team, Maya to w końcu sklejka z kilku programów i kupionych komponentów, ale główni programiści i projektanci chyba zostali, tak? (Duncan na pewno).
  6. Hm, ewidentnie ktoś nad tym programem pracuje... i pewnie przepisują teraz cały core. Dziwie się, że pozwolili na istnienie takich rupieci. Chyba wszystko poza usprawnieniami w animacji i paint effectach to nadrabianie oczywistych zaległości albo kopiowanie rozwiązań konkurencji. Alias ma dobrą historię innowacji na swoim koncie. Ewidentnie zaspali i muszą teraz przebudować architekturę, żeby pójść dalej. 2GB ograniczenia na plik? Raz, że żadna scena nie powinna tyle mieć (to oczywisty błąd założeń), dwa że powinna od dawna móc taka być, jeśli komuś na tym zależało!
  7. Wszystko to jest możliwe i stosowane w praktyce (choć nie w renderowaniu grafiki na potrzeby rozrywki) włączając w pełni automatyczny podział danych i przesyłanie do jednostek obliczeniowych tylko fragmentów, na których mają pracować i włączając w to sam proces (który również może przylecieć siecią - program nie musi być zainstalowany). Poczytaj o obliczeniach rozproszonych, clustrach, MPI i będziesz wiedział, z czym się to jada. Żyje na świecie armia informatyków, którzy zarabiają na pączki pracą nad takimi systemami, wiele z nich jest open sourcowych. Skonfigurowanie takiego systemu jest na tyle skomplikowane technicznie, że dostosowanie do niego któregoś renderera z otwartymi źródłami, jest najmniejszym problemem. Tyle tylko, że nie masz przecież dostępu do takiej sieci i nigdy mieć nie będziesz, nawet gdybyś miał na to pieniądze, bo ludzie, którzy sprzedają te usługi nie są idiotami. Z technicznego punktu widzenia byłoby to także bardzo nieefektywne, ilość czasu traconego na zarządzanie byłaby niewspółmierna do czasu spędzonego na obliczeniach. Koszt klatki wzrósłby pewnie kilkukrotnie.
  8. Część jest, część nie jest. Prędkość ICE wcale nie musi wynikać z wielowątkowości, ale ze struktur na których operuje, sposobie, w jaki updatuje system etc. To nowy system, a jego możliwości modelowania są bardzo ograniczone. Oryginalnie ICE wzorował się na engine VEX w Houdinim, który działa w architekturze SIMD (czyli świetnie się paralelizuje), ale generowanie geometrii lub kinematyka już niekoniecznie musi być w ICE wielowątkowa. No i nadal nie jest to i nigdy nie będzie pełny modeler, nie możesz w ICE zrobić wszystkiego, czego potrzeba do modelowania. Ja nie bronię Maxa, zwracam uwagę na naiwność myślenia w kategoriach gigaherców i kart graficznych, które powinny dawać "kopa", bez uściślenia gdzie i w jakich warunkach tego kopa można w ogóle się spodziewać. Jak się przyjrzeć bliżej to się okaże, że problem nie jest jednowątkowość, ale na przykład przestarzała struktura danych, albo nieoptymalny algorytm. Trzeba, żeby ktoś się wypowiedział, jak na przykład Wings3d dźwiga ciężkie siatki w porównaniu z Maxem. No i w końcu może się okazać, że oczekiwanie od współczesnego komputera, że złączy dwie siatki po 100M poly w czasie rzeczywistym przekracza świat rzeczy możliwych ;) Większość operacji na particlach świetnie się nadaje do optymalizacji wielopotokowej, (zarówno w wątkach jak i rejestrach), także deformacje, bo to w istocie bardzo atomowa operacja wykonywana na tablicy identycznych obiektów. Ale tutaj również są ograniczenia. Na przykład takie SPH, z którego właściwie zrezygnowano w świecie VFX na rzecz FLIPa, bo ten pierwszy miał problemy ze skalowalnością. Ludzie musieli zmienić algorytm i efektywnie sposób przechowywania danych, bo coś co wydawało się intuicyjne i fizycznie poprawne nie dawało się zastosować w większej skali. Bez względu na to ile rdzeni i procesorów brało udział w obliczeniach i czy było to GPU czy CPU ;)
  9. he, he, to jest dużo bardziej skomplikowane! Do tego stopnia, że najlepsi ludzie w tej dziedzinie, głowią się nad tym do dzisiaj. Na tym poziomie ogólności wszystko to zresztą niewiele znaczy. tak, tak, powinny się sumować, a głodu nie powinno być na świecie... Co to w ogóle znaczy? Nie ma jednoznacznego związku między wydajnością poszczególnych podzespołów komputera a wydajnością dowolnego programu. Pomyśl chwilę o tym, co piszesz... Czy upgrade karty WIFI ze standardu g na n zwiększa wydajność Maxa? A może zwiększy wydajność programu do montażu, który ciągnie media po sieci? A jeśli dysk po drugiej stronie sieci będzie na gnieździe USB 1.0, to upgrade karty nadal pomoże programowi do montażu? To jest po prostu bardziej skomplikowane niż sumowanie gigaherców. Przede wszystkim jednak operacje na siatkach są bardzo trudne do paralelelizacji, szczególnie biorąc pod uwagę arsenał narzędzi, których oczekuje się od programu do modelowania. Chyba tylko modelowanie na voxelach wchodzi w rachubę. To akurat nie jest żaden fakt, nawet podstawowy. Dokładnie, a co więcej poprosić ich o zrobienie tego na tej samej tablicy i tą samą kredą... Można dać do rozwiązania układ równań, co przyniesie może nie czterokrotny, ale np. trzykrotny przyrost wydajności. Ale zrobić to dla 400 operacji modelerskich, z których większość jest matematycznie banalna jak dodawanie, to inna sprawa. Jakby nie było podejrzewam, że ograniczeniem wydajności większości operacji na siatkach w Maxie nie jest wydajność procesora, więc ich wielowątkowość niczego by nie dała. Znów, na tym poziomie ogólności można sobie gdybać, trzeba by przejść przez konkretne przykłady.
  10. Co dokładnie masz na myśli? Sterowniki SĄ wielowątkowe w tym sensie, że pozwalają wielu wątkom i procesom na niezależne używanie zasobów kart. Same urządzenia są wręcz modelowo "wielowątkowe", to znaczy właściwie nie potrafią wykonywać operacji nieparalelnych. Co do modelowania, wszystko zależy po prostu od przypadku. Podstawowym problemem paralelizmu przy modelowaniu jest struktura danych, które musi dopuszczać wielowątkowy zapis zmieniający topologię, co jest właściwie niewykonalne w większości przypadków. Co nie znaczy, że nie istnieją operacje, których nie da się wykonać wielowątkowo (operacje morfologiczne, konwersje, skinowanie), ale to mniejszość tego, co robią modelarze. Poza tym, modeler najczęściej wykonuje operacje na kilku werteksach czy ściankach jednocześnie, więc zastosowanie do tego wielu wątków mijałoby się z celem. To, że mergowanie lub separowanie ciężkich geometrii jest/może być powolne w Maxie, to kwestia architektury programu, a nie wielowątkowości jako takiej. Pewna wiedza na temat tego, jak działają programy 3d jednak pomaga w rozstrzygnięciu przynajmniej części tych kwestii. Prawie wszystkie operacje na geometrii wykonuje CPU, w niemal każdym programie (chyba że mówimy o Madboxie, który od zera powstał jego program na GPU). Rzecz w tym, że GPU, które nie bierze w tym procesie w ogóle udziału, nadal może go spowalniać, bo co z tego, że model zostanie zmodyfikowany przez CPU szybko, jeśli 500MB tablic z pozycjami werteksów ich normalnymi etc musi polecić na kartę, która to wyświetli. Cała zabawa z programami do modelowania polega na tym, aby struktura używana do przechowywania modelu była jednocześnie równie dobra do szybkiego modelowania (swobodny dostęp do każdego prymitywu i jego powiązań), jak i do wyświetlania na karcie (miała wsparcie hardware'owe), co zawsze jest jakimś kompromisem i wymaga sprytnego transferu z/na kartę. Dobrym przykładem jest Opensubv, który sprowadza się do tego, że model, na którym pracuje grafik właściwie nigdy nie jest wyświetlany. W zamian tego karta wyświetla wersję high res, ale wykonaną nie z dowolnego modelu, lecz bardzo konkretnego typu danych, które hardware i software potrafią szybko zagęścić. Inna sprawa, że nowoczesne GPU mogłyby właściwie wszystkie operacje wykonywać bez synchronizacji z CPU (poza zapisem na dysk), ale wymagałoby to całkiem nowej aplikacji i było przynajmniej na początku bardzo ograniczające.
  11. Powitajcie Houdini 12.5 - CloudFx - OceanFx (aka Hot) - OpenVDB http://www.sidefx.com/index.php?option=com_content&task=view&id=2445&Itemid=66
  12. Przecież 12 milionów kosztowało studio, a nie ten film, więc "wywalić w błoto" nie jest zupełnie trafione, right? Nie rozumiem, jak można forować tak skrajne opinie wiedząc tak niewiele o naturze przedsięwzięcia.
  13. Prezentacja długo zapowiadanej, linuksowej wersji Lightworks, pierwsza liga video edycji na Linuksa za 50 euro... http://www.redsharknews.com/technology/item/512-lightworks-for-linux-first-ever-official-full-length-demo
  14. SYmek

    Modo dla Linuksa

    Jak najbardziej z Twojej, nawet FAT16 nie zepsuje dysku z własnej winy..., bo co by to właściwie znaczyło, że zrobił to naumyślnie? Pytanie o to, co ma Linux, czego nie ma Windows, nie ma zasadniczego znaczenia w kontekście tego newsa. Luxology może mieć taką samą opinię o Linuksie, co Ty (najwyraźniej nieprzychylną a na pewno naiwną), co nie zmieni faktu, że jak chcesz poszerzyć swój rynek o studia filmowe, to Twój produkt musi wspierać Linuksa. I kropka. Najwyraźniej Luxology/TheFoundry zamierzają ekspansję na rynek filmowych aplikacji wchodząc w drogę Mai i Houdiniemu (co wieszczono od dawna). Dokładnie to samo zrobił parę lat temu VRay. Wyczerpał możliwości swojego natywnego rynku (architektura) i poszedł dalej, żeby robić kasę także w filmie. Co musiał zrobić? Przeniósł Vraya na Linuksa. Co do różnic między Linuksem a Windą, jedna jest zasadnicza: administrowanie więcej niż jednym komputerem pod Windowsem jest a) drogie, b) trudne c) upierdliwe (zawodne, nieskuteczne etc). Administrowanie nawet 1000 komputerów pod Linuksem jest a) proste b) tanie c) skuteczne. Dla end-usera, o ile jego aplikacja istnieje na Linuksa, różnica między systemami jest żadna. Klikasz i działasz, gdyby nie oprawa okien, nie wiedziałbyś na jakim systemie pracujesz.
  15. Eeeee, niezupełnie. Siadasz i robisz plugin dla aplikacji o zamkniętym kodzie. Nie słyszałem, żeby komuś pomogło to, że Blender ma otwarte źródła. Może w grach byłby to jakiś atut, ale firmy growe i tak piszą własne edytory. Eeee, znów się nie zgodzę, chociaż coś z tym GPU jest, tylko na odwrót. Moc produkcyjna korporacji jest wirtualna, podobnie jak moc GPU, która prawie nigdy do niczego pożytecznego się nie przydaje. To nie jest tak, że jak posadzisz dwa razy więcej ludzi do projektu, to zrobią dwa razy lepszy projekt. To w ogóle tak nie działa. W programowaniu dużo bardziej liczy się pomysł i ktoś kto będzie nadawał projektowi odpowiedni kierunek. A tego nie da się kupić. Udane programy piszą ludzie, konkretni ludzie. Wszystkie programy 3D są bardzo osobistymi projektami swoich twórców, mają wręcz ich cechy charakteru :). Nie wydaje mi się, żeby powolność podejmowania decyzji była problemem. Problemem są priorytety, czyli kasa dla udziałowców, z czego rozliczany jest szef Media&Entertaiment. M&E ma straty, Adsk spada na giełdzie, szef M&E odbiera telefon. Wskaźniki idą w odwrotną stronę, szef M&E odbiera premię. Wskaźniki nijak się mają do jakości oprogramowania, długo terminowych planów rozwoju programów czy ambicji naukowych ich projektantów. Nijak, ponieważ korporacja nie walczy o rynek jakością produktów, po prostu robi wszystko, żebyś musiał wydać u nich pieniądze, czy tego chcesz czy nie. Ludzie piszący ZBrusha nie mają żadnego produktu, mają swoje dzieło. To jest zasadnicza różnica.
  16. To nie jest jakaś złota zasada do zastosowania w każdym przypadku. Przecież to byłby trywialny fałsz. Istnieją jakieś warunki początkowe, które musi spełniać zarówno robota jak i zespół. To jakiś temat z teorii zarządzania, mniejsza o to. Pewnie to czytałeś, wyraźnie widać problem zarządzania. Duża kasa, sprzeczne interesy i ludzie pełni pomysłów, których nie mogę zrealizować przez nadmiar polityki.
  17. Bo w Blenderze jest znacznie więcej do zrobienia, jako że jest relatywnie młodym programem (biorąc pod uwagę ile lat trwa w miarę profesjonalny, zaplanowany i zmasowany development). Druga sprawa, że standard nowości w Blenderze może być i faktycznie jest znacznie niższy. Blender może sobie pozwolić na niedorobione funkcje, które z czasem dopiero zyskują jakość (albo nie). Adsk nie bardzo może sobie na coś takiego pozwolić. Trzeci powód, zawarty niejako implicite w tych wszystkich narzekaniach na forach, to że korporacja naprawdę nie jest wymarzonym środowiskiem do pisania klienckiego oprogramowania. Za dużo polityki, za dużo zmian w zespole, za mało pasji i czyjejś konkretnej wizji całości. Nie bez powodu Adsk nie jest w stanie wypluć z siebie żadnego autorskiego programu, który trzyma się kupy.
  18. http://www.hollywoodreporter.com/news/vfx-group-pixomondo-closes-offices-424559
  19. E tam, ani ładne obrazki, ani wizualna doskonałość to nie to samo, co wybitne zdjęcia filmowe.
  20. Nie widziałem Hugo, ale Richardson ma takie (!) filmy w karierze, że nie zdziwiłbym się, gdyby zrobił niezłe zdjęcia, chociaż wybór między nim a Lubezkim musiał być trudny i wcale nie jest powiedziane, że był trafny (to przecież tylko głosowanie bandy fachowców a nie fakt objawiony ;) ). Sprawa ostatnio komplikuje się, to prawda, ale albo film posiada swój styl, albo jest zrobiony po bożemu i kamera stoi zawsze tam, gdzie się jej spodziewamy. Albo jest spójny, albo nie, albo piękny, albo po prostu ładny lub brzydki. Obrazy są albo hipnotyczne, albo chaotyczne, z czegoś bije prawda, albo tylko landszaft. Avatar to raczej przeciętny film w tym względzie, ale to był trudny materiał na dobre zdjęcia.
  21. Zrobić po prostu wybitne zdjęcia. Mógłby ten film zrobić każdy operator i wyglądałby tak samo albo lepiej. Gdyby to był Darius Khondji na pewno byłoby lepiej. Oczywiście kwestia gustu, ale ja mam gust i twierdzę, że te zdjęcia niespecjalnie zasługują na Oscara, choć trzeba przyznać, że pomysł na zdjęcia był ciekawy (taki Pixar a'la carte).
  22. To są problemy każdego niezależnego studia w USA. To nie jest problem jednego bankructwa źle zarządzanej firmy. Przypadek R&H jest spektakularny, ponieważ zbiegł się rozdaniem Oscarów, o które ubiegały się 3 filmy, nad którymi pracowali, 3 filmy które zbiły gigantyczny majątek dla ich producentów, w tym film który jest jednym z najlepszych osiągnięć finansowych w historii kina, film który jest krokiem milowym w CG i film, który bez TEJ dokładnie firmy nie powstałby teraz (bo teraz nikt inny nie ma takiej technologii). Jest to też chyba najmniej zasłużona nagroda dla operatora w historii Oscarów za film, który nie ma prawie wcale prawdziwej kinematografii, poza kinematografią cyfrową właśnie.
  23. Raczej dlatego, że powstają w kontrze do disney'owskiego mainstreamu, a poza tym "Nightmare before....", "Coraline" i "Paranorman" robili właściwie Ci sami ludzie....
  24. Poznałem bodaj dwóch grafików komputerowych, z którymi rozmowa o pieniądzach była wyzwaniem. Większość ponad "większą kasę" interesuje głownie stabilność, rekompensata nadgodzin (i ich godziwa ilość), ciekawe projekty (żeby nie musieli się wstydzić swojej pracy), porządek i profesjonalizm (który zdejmuje im z głowy nerwy), dobry leader, który ich wspiera. Edukacja, o której mowa polega na wpojeniu poczucia odpowiedzialności za grupę, tego się po prostu uczy. Grafik jest z natury zwierzęciem introwertycznym, łatwiej mu założyć kaptur na głowę, niż pójść do kuchni zrobić kawę, kiedy są tam goście. Stąd większe wyzwanie, ale dowodów na to, że się nie da, nie znam. "no to edukuj", dobre.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności