Skocz do zawartości

Rekomendowane odpowiedzi

Gość User190
Napisano

legomir> oficjalnie projekt adaptujący Naiada nazywa się Bifrost. Niestety nie spodziewałbym się za wiele po najblższym wydaniu Mayi. Z tego, co się orientuje, sam projekt ma się nieźle.

Miłosz, Luki, Nezumi> Mbx 2k14 wnosi spory powiew świeżości, w porównaniu do kilku ostatnich releasów. Dziwi mnie ten blur w okienku - nie ma tam nic, co opłacało by się ukryć ;)

  • Odpowiedzi 136
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

Napisano

Fajnie. Mudboxem się zainteresuje prawdopodobnie - Zbrush wciąż skutecznie mnie odstrasza. Jak już mówimy o nowościach w sofcie - równiutko za tydzień panowie z The Foundry będą mówili o nowej wersji MARI - 2.0

 

Tutaj można się zapisać na rodzaj online-konferencji:

 

http://www.thefoundry.co.uk/articles/2013/02/28/489/mari-20-is-coming-be-part-of-our-digital-global-event/

 

Szczerze mówiąc cholernie nie mogę się doczekać.

Napisano

Nowe snik piki dla mayki i maksa. Maya w końcu doczekała się nowych narzędzi do modelowania (wyglądaja trochę jak NEX plugin). Jaram się.

 

maya

 

max
Napisano

Mozna bylo juz od dawna... tylko autodesk zawsze baaardzo leniwie wprowadza nowe fukncje mentala. Najczesciej bylo tak ze wraz z nowym maxem dostajemy nowsza wersje mr ale zeby wykorzystac wiekszosc funkcji trzeba posilkowac sie tona skryptow...

 

Jakims cudem jednak adks w koncu wprowadzil mozliwosci jakie mental oferuje juz od dawna... Podobnie z unified sampling ktore bylo juz w mentalu w maxie 2012... dopiero w wersji 2014 max doczeka sie "kontrolek" do obslugi fukncji z poziomu programu bez odpalania dodatkowych skryptow... Mam nadzieje ze to poczatek zmian na lepsze bo od kiedy nvidia przejela mr pod swoje skrzydla silnik zaczal sie dynamicznie rozwijac i fajnie by bylo dostawac nowe ficzery na biezaco co rok np. a nie czekac na nie 2-3 wydania...

Napisano

a tak zbaczajac z tematu armi poteznych nowych ficzersow.

to moze to wina hdrki. ale czy ten ibl wyglada dla was chodziaz w 1/10000 fotorealistycznie ? porownujac do najprostszego setupu puszchonego na ktoryms z nowszych rendererow

 

Napisano

łał. Nareszcie up, po którym to powiedziałem. Fajnie- będzie się szybciej pracowało. Nie sprawdzałem, ale ten robot i styl pisania to na stówe Zap Anderson, pozytywny gość. ttaaddeekk: nie wiem, okaże się, ale nie wygląda na to IMO.

Napisano

ttaaddeekk - odpusc temu panu :) to programista nie grafik. Cudow sie nie spodziewaj - wrzucil mapke jaka mial pod reka i pokazal ze ficzer dziala ;)

Tez mi sie wydaje ze to Zap A. - facet mentala zna na wylot ale nie przypominam sobie zeby kiedys renderowal cos poza torusami i innymi teapotami :) robocik tez juz sie kiedys pojawial w jego kursach o mr. Jakosc renderigow byla rownie uboga ale nie mialo to wiekszego znaczenia. On po prostu wyjasnial jak co dziala - dokladnie ale bez przyklepywania swojej wiedzy fotorealistycznymi obrazkami ;)

 

Tak czy siak szykuje sie fajny update dla fanow mentala ;) Ja tam zacieram lapy...

Ciekawe czy dodadza MILA shaders w tym wydaniu... to by bylo nie w stylu autodesku... zeby tak wszystko dac od razu? A za roook?...

Napisano

Ostatnio często używam narzędzi do retopologii 3ds maxa (z tego górnego paska Graphite), są całkiem niezłe i w zupełności wystarczają, ale w momencie kiedy siatka robi się coraz gęstsza (powiedzmy pow. 20 tys. poligonów) trzeba długo czekać na zainicjalizowanie np. narzędzia relax, a potem kolejne czekanie po oderwaniu palca od myszki.

 

No jest sporo takich i innych niedociągnięć, mam wrażenie że jak dodają jedno to schrzanią drugie, a potem wielkie fanfary bo oto teraz super mega nowość: "coś tam działa szybciej" (mimo, że kiedyś tam było ok)

 

 

Napisano

Pewnie piszesz o retopo z polyboosta ktory kiedys wchloneli ;) Faktycznie sprawdza sie w prostych zastosowaniach - tez chetnie uzywam.

Problem szybkosci w maxie od lat jest ten sam - wiekszosc operacji wykorzystuje tylko jeden watek podczas gdy procesory maja ich juz po 8 i wiecej...

Cieszy ze ponownie przyspieszyli viewport ale jak jeszcze kiedys rusza temat wielu rdzeni to bedziei mega dopalka...

Napisano

Problem szybkosci w maxie od lat jest ten sam - wiekszosc operacji wykorzystuje tylko jeden watek podczas gdy procesory maja ich juz po 8 i wiecej...

 

Ten problem ma większość programów.

Napisano

Nie zupelnie. Prosty test np. w blenderze - laczenie wielu obiektow w 1 mesha. Podczas takiej operacji blender obciaza wszystkie rdzenie... Nie na maximum ale widac ze rozklada zadanie - sumarycznie procesor jest wtedy obciazony w ok 30% co jest i tak niezlym wynikiem. Na tym samym procku z 8 rdzeniami max uzywa do podobnej operacji tylko 1 z nich na 100%.. reszta rdzeni odpoczywa. Wykorzystuje wiec 12,5% mocy proca. Jest roznica? Ano jest ;)

Napisano
Nie zupelnie. Prosty test np. w blenderze - laczenie wielu obiektow w 1 mesha. Podczas takiej operacji blender obciaza wszystkie rdzenie... Nie na maximum ale widac ze rozklada zadanie - sumarycznie procesor jest wtedy obciazony w ok 30% co jest i tak niezlym wynikiem. Na tym samym procku z 8 rdzeniami max uzywa do podobnej operacji tylko 1 z nich na 100%.. reszta rdzeni odpoczywa. Wykorzystuje wiec 12,5% mocy proca. Jest roznica? Ano jest ;)

 

I te rdzenie tak zawsze odpoczywaja?

Odpoczywaja przed puszczeniem prevki :) Ostatnio poprostu musialem na chwile przesiasc sie na maxa i czasami juz brakuje mi cierpliwosci na ten soft. gapilem sie w system monitor, 1 watek na 100 i wolno.

Napisano

Ano prawie zawsze tak odpoczywaja :) Jeszcze troche roboty przed autodeskiem jest zeby to ogarnac choc zdaje sobie sprawe ze to gruby temat. Predzej czy pozniej musza sie z tym zmierzyc bo za pare lat procki moga miec wiecej niz 24 rdzenie i wtedy wydajnosc maxa na tle konkurencji bedzie po prostu smieszna.

 

 

Napisano

eh Open gl i direct x nie jest wielowatkowy i dopolki to sie nie zmieni mozna zapomniej o modelowaniu na wszystkich rdzeniach .

Ilosc rdzeni wrecz zwalnia modelowanie bo 1 proces musi byc rozbity na wiecej watkow.

Napisano

Chodzi o operacje za ktore zawsze odpowiedzialny jest tylko procek czyli np. atachowanie duzej ilosci obiektow, weldowanie tysiecy vertexow, uzycie optimize pro na ciezszym modelu itd itd. Co ma do tego Ogl czy DX? Max po prostu siedzi na starych korzenieniach i program w wiekszosc operacji "nie wie" co to znaczy miec wiele watkow do dyspozycji.

Napisano

Skad wiesz za co dokladnie odpowiedzialny jest procek za za co karta? Probowalem kiedys sie tego dowiedziec

pytalem niejedna madra glowe ,szukalem w sieci , robilem testy na roznych konfiguracjach i nic sie nie dowiedzialem .

Napisano
eh Open gl i direct x nie jest wielowatkowy i dopolki to sie nie zmieni mozna zapomniej o modelowaniu na wszystkich rdzeniach .

Ilosc rdzeni wrecz zwalnia modelowanie bo 1 proces musi byc rozbity na wiecej watkow.

 

Co dokładnie masz na myśli? Sterowniki SĄ wielowątkowe w tym sensie, że pozwalają wielu wątkom i procesom na niezależne używanie zasobów kart. Same urządzenia są wręcz modelowo "wielowątkowe", to znaczy właściwie nie potrafią wykonywać operacji nieparalelnych.

 

Co do modelowania, wszystko zależy po prostu od przypadku. Podstawowym problemem paralelizmu przy modelowaniu jest struktura danych, które musi dopuszczać wielowątkowy zapis zmieniający topologię, co jest właściwie niewykonalne w większości przypadków. Co nie znaczy, że nie istnieją operacje, których nie da się wykonać wielowątkowo (operacje morfologiczne, konwersje, skinowanie), ale to mniejszość tego, co robią modelarze.

 

Poza tym, modeler najczęściej wykonuje operacje na kilku werteksach czy ściankach jednocześnie, więc zastosowanie do tego wielu wątków mijałoby się z celem. To, że mergowanie lub separowanie ciężkich geometrii jest/może być powolne w Maxie, to kwestia architektury programu, a nie wielowątkowości jako takiej.

 

Skad wiesz za co dokladnie odpowiedzialny jest procek za za co karta? Probowalem kiedys sie tego dowiedziec

pytalem niejedna madra glowe ,szukalem w sieci , robilem testy na roznych konfiguracjach i nic sie nie dowiedzialem .

 

Pewna wiedza na temat tego, jak działają programy 3d jednak pomaga w rozstrzygnięciu przynajmniej części tych kwestii. Prawie wszystkie operacje na geometrii wykonuje CPU, w niemal każdym programie (chyba że mówimy o Madboxie, który od zera powstał jego program na GPU). Rzecz w tym, że GPU, które nie bierze w tym procesie w ogóle udziału, nadal może go spowalniać, bo co z tego, że model zostanie zmodyfikowany przez CPU szybko, jeśli 500MB tablic z pozycjami werteksów ich normalnymi etc musi polecić na kartę, która to wyświetli.

 

Cała zabawa z programami do modelowania polega na tym, aby struktura używana do przechowywania modelu była jednocześnie równie dobra do szybkiego modelowania (swobodny dostęp do każdego prymitywu i jego powiązań), jak i do wyświetlania na karcie (miała wsparcie hardware'owe), co zawsze jest jakimś kompromisem i wymaga sprytnego transferu z/na kartę.

 

Dobrym przykładem jest Opensubv, który sprowadza się do tego, że model, na którym pracuje grafik właściwie nigdy nie jest wyświetlany. W zamian tego karta wyświetla wersję high res, ale wykonaną nie z dowolnego modelu, lecz bardzo konkretnego typu danych, które hardware i software potrafią szybko zagęścić.

 

Inna sprawa, że nowoczesne GPU mogłyby właściwie wszystkie operacje wykonywać bez synchronizacji z CPU (poza zapisem na dysk), ale wymagałoby to całkiem nowej aplikacji i było przynajmniej na początku bardzo ograniczające.

Napisano

wpelni wielowakowosc rozumie tak ze dodanie kazdego rdzenia zwieksza wydajnosc w modelowaniu . Gigaherce z rdzeni powinny sie sumowac i dawac proporcjalnego kopa tj odbywa w przypadku zwiekszenie czestotliwosci procka z jednym rdzeniem . Tak nie jest jest wrecz przeciwnie im wiecej rdzeni tym bardziej przymula .Da sie zrobic pewne testy zeby to potwierdzic .

piszesz o jakiejs synchronizacji ale zwroc uwage na podstawowy fakt masz procek 1 rdzeniowy 2gh i taka karte zwiekszasz do 4gh i masz mega kopa

na tej samej karcie. Sprobuj dodac 3 rdzenie i zysk jest zaden nawet w weldowaniu i innych operacjach teoretycznie za ktore odpowiedzialeny jest procesor.

Napisano

O ile dobrze rozumiem, problem z kilkoma rdzeniami i różnymi operacjami przy modelowaniu jest taki, jakby dać np. 4 osobom po 1/4 równania do rozwiązania. Nie pomoże to uzyskać poprawnego wyniku szybciej, a wręcz uniemożliwi jego uzyskanie. O, albo jakby myśleć, że 9 kobiet powinno urodzić jedno dziecko w miesiąc, skoro jedna robi to po 9 miesiącach. ;)

Nawet jeśli to nie do końca tak, to jako laik w ten sposób to sobie tłumaczę. ;)

Napisano (edytowane)
Dzieki SYmek za rozjasnienie. Sprawa faktycznie znacznie bardziej zlozona niz mogloby sie wydawac.

 

he, he, to jest dużo bardziej skomplikowane! Do tego stopnia, że najlepsi ludzie w tej dziedzinie, głowią się nad tym do dzisiaj. Na tym poziomie ogólności wszystko to zresztą niewiele znaczy.

 

 

wpelni wielowakowosc rozumie tak ze dodanie kazdego rdzenia zwieksza wydajnosc w modelowaniu . Gigaherce z rdzeni powinny sie sumowac i dawac proporcjalnego kopa tj odbywa w przypadku zwiekszenie czestotliwosci procka z jednym rdzeniem . Tak nie jest jest wrecz przeciwnie im wiecej rdzeni tym bardziej przymula .Da sie zrobic pewne testy zeby to potwierdzic .

 

tak, tak, powinny się sumować, a głodu nie powinno być na świecie... Co to w ogóle znaczy? Nie ma jednoznacznego związku między wydajnością poszczególnych podzespołów komputera a wydajnością dowolnego programu. Pomyśl chwilę o tym, co piszesz... Czy upgrade karty WIFI ze standardu g na n zwiększa wydajność Maxa? A może zwiększy wydajność programu do montażu, który ciągnie media po sieci? A jeśli dysk po drugiej stronie sieci będzie na gnieździe USB 1.0, to upgrade karty nadal pomoże programowi do montażu?

 

To jest po prostu bardziej skomplikowane niż sumowanie gigaherców. Przede wszystkim jednak operacje na siatkach są bardzo trudne do paralelelizacji, szczególnie biorąc pod uwagę arsenał narzędzi, których oczekuje się od programu do modelowania. Chyba tylko modelowanie na voxelach wchodzi w rachubę.

 

piszesz o jakiejs synchronizacji ale zwroc uwage na podstawowy fakt masz procek 1 rdzeniowy 2gh i taka karte zwiekszasz do 4gh i masz mega kopa

na tej samej karcie. Sprobuj dodac 3 rdzenie i zysk jest zaden nawet w weldowaniu i innych operacjach teoretycznie za ktore odpowiedzialeny jest procesor.

 

To akurat nie jest żaden fakt, nawet podstawowy.

 

 

 

O ile dobrze rozumiem, problem z kilkoma rdzeniami i różnymi operacjami przy modelowaniu jest taki, jakby dać np. 4 osobom po 1/4 równania do rozwiązania

 

Dokładnie, a co więcej poprosić ich o zrobienie tego na tej samej tablicy i tą samą kredą...

 

Można dać do rozwiązania układ równań, co przyniesie może nie czterokrotny, ale np. trzykrotny przyrost wydajności. Ale zrobić to dla 400 operacji modelerskich, z których większość jest matematycznie banalna jak dodawanie, to inna sprawa. Jakby nie było podejrzewam, że ograniczeniem wydajności większości operacji na siatkach w Maxie nie jest wydajność procesora, więc ich wielowątkowość niczego by nie dała. Znów, na tym poziomie ogólności można sobie gdybać, trzeba by przejść przez konkretne przykłady.

Edytowane przez SYmek
Napisano

SYmek piszesz tutaj o ile dobrze zrozumialem ze wielowatkowosc w programach do modelowania jest trudna do osiagniecia i ze wielu najlepszych w tej dziedzinie glowi sie jak to dobrze rozwiazac oraz ze w zasadzie zwiekszenie ilosci rdzeni wcale by nie przyspieszylo wykonywania operacji tak jak wyzszy zegar procesora. A jesli tak to jak to jest z ICEem w Softimage'u ? Bo tam wiekszosc operacji jest chyba wlasnie wielkowatkowych i rzeczywiscie wyglada to na o wiele szybsze niz gdzie indziej. Poza tym ostatnio ogladlem jakis tutorial o particlas. I pod tutorialem w komentarzach pan od Krakatoa'y (developer) napisal, ze napisali wlasnym modifikator do chyba skinwrapa, zeby byl wielowatkowy bo ten maxowy jest jedno i jest za wolny. No chyba ze deformacje paritkli a siatek 3D rzadzi sie jeszcze innymi zasadam. Oczywiscie wszystko co wyzej napisalem nie jest proba podwazniego tego co wczesniej napisales, stram sie to wszystko bardziej zrozumiec. W ogole dzieki za zabierasz glos w takich dyskusjach bo zawsze czegos ciekawego sie mozna od ciebie dowiedziec:)

Napisano
A jesli tak to jak to jest z ICEem w Softimage'u ? Bo tam wiekszosc operacji jest chyba wlasnie wielkowatkowych i rzeczywiscie wyglada to na o wiele szybsze niz gdzie indziej.

 

Część jest, część nie jest. Prędkość ICE wcale nie musi wynikać z wielowątkowości, ale ze struktur na których operuje, sposobie, w jaki updatuje system etc. To nowy system, a jego możliwości modelowania są bardzo ograniczone.

 

Oryginalnie ICE wzorował się na engine VEX w Houdinim, który działa w architekturze SIMD (czyli świetnie się paralelizuje), ale generowanie geometrii lub kinematyka już niekoniecznie musi być w ICE wielowątkowa. No i nadal nie jest to i nigdy nie będzie pełny modeler, nie możesz w ICE zrobić wszystkiego, czego potrzeba do modelowania.

 

Ja nie bronię Maxa, zwracam uwagę na naiwność myślenia w kategoriach gigaherców i kart graficznych, które powinny dawać "kopa", bez uściślenia gdzie i w jakich warunkach tego kopa można w ogóle się spodziewać. Jak się przyjrzeć bliżej to się okaże, że problem nie jest jednowątkowość, ale na przykład przestarzała struktura danych, albo nieoptymalny algorytm. Trzeba, żeby ktoś się wypowiedział, jak na przykład Wings3d dźwiga ciężkie siatki w porównaniu z Maxem.

 

No i w końcu może się okazać, że oczekiwanie od współczesnego komputera, że złączy dwie siatki po 100M poly w czasie rzeczywistym przekracza świat rzeczy możliwych ;)

 

 

Poza tym ostatnio ogladlem jakis tutorial o particlas. I pod tutorialem w komentarzach pan od Krakatoa'y (developer) napisal, ze napisali wlasnym modifikator do chyba skinwrapa, zeby byl wielowatkowy bo ten maxowy jest jedno i jest za wolny. No chyba ze deformacje paritkli a siatek 3D rzadzi sie jeszcze innymi zasadam.

 

Większość operacji na particlach świetnie się nadaje do optymalizacji wielopotokowej, (zarówno w wątkach jak i rejestrach), także deformacje, bo to w istocie bardzo atomowa operacja wykonywana na tablicy identycznych obiektów. Ale tutaj również są ograniczenia. Na przykład takie SPH, z którego właściwie zrezygnowano w świecie VFX na rzecz FLIPa, bo ten pierwszy miał problemy ze skalowalnością. Ludzie musieli zmienić algorytm i efektywnie sposób przechowywania danych, bo coś co wydawało się intuicyjne i fizycznie poprawne nie dawało się zastosować w większej skali. Bez względu na to ile rdzeni i procesorów brało udział w obliczeniach i czy było to GPU czy CPU ;)

Napisano
he, he, to jest dużo bardziej skomplikowane! Do tego stopnia, że najlepsi ludzie w tej dziedzinie, głowią się nad tym do dzisiaj. Na tym poziomie ogólności wszystko to zresztą niewiele znaczy.

 

 

 

 

tak, tak, powinny się sumować, a głodu nie powinno być na świecie... Co to w ogóle znaczy? Nie ma jednoznacznego związku między wydajnością poszczególnych podzespołów komputera a wydajnością dowolnego programu. Pomyśl chwilę o tym, co piszesz... Czy upgrade karty WIFI ze standardu g na n zwiększa wydajność Maxa? A może zwiększy wydajność programu do montażu, który ciągnie media po sieci? A jeśli dysk po drugiej stronie sieci będzie na gnieździe USB 1.0, to upgrade karty nadal pomoże programowi do montażu?

.

 

Nie no nie kumam tego wywodu dokonca. Po co ten wkret z usb 1 i jakies wifi? Mialem na mysli taka sama maszyne tylko z ustawianym taktowaniem procka 2 giga herce.

Ustawiasz koligacje na 1 rdzen. Odpalasz soft modelujesz zeby zobaczyc jak idzie praca .Oczywiscie nie ma jakis benczmarkow na weldowanie ,przesuwanie czy transformacje verteksow.Ale to wszystko da sie mniejwiecej wyczuc.Potem zwiekasz taktowanie na plycie i masz 4 gigaherce .Odczujesz mega kopa. potem wracasz do poprzednich taktowan ale w windzie ustalasz koligacje na 4 rdzenie i wszystko jest wolniejsze dochodzi wrecz do zacinania sie softu w stosunku do 1 rdzenia. Jaki z tego moral ?Do modelowania lepiej

miec 1 rdzen 5 gigaherciowy niz 4 rdzenie po 4 gigaherce dajace w sumie 16 gigahercow. I sytuacja dotyczy sie wszystkich softow a nie

tylko maxa ktory ma ponoc przestarzala architekture. (caly czas pisze tylko o modelowaniu partickle i deformery to juz inna bajka .W mayi niektore deforemry ponoc od dawna sa juz wpelni wielowatkowe)

Napisano

Hmmm znalazlem pare fajnych drobiazgow ale to juz gdzies widzialem w innych softach .Zero innowacji .

Pocichu liczylem ze jednak autodesk zaskoczy po marnej 2013 ale oni ida w zaparte i leca w kulki...

Napisano
Mayowy help 2014:

http://download.autodesk.com/global/docs/maya2014/en_us/index.html

Dla mnie jest tam parę bardzo przydatnych opcji.

 

Hm, ewidentnie ktoś nad tym programem pracuje... i pewnie przepisują teraz cały core. Dziwie się, że pozwolili na istnienie takich rupieci. Chyba wszystko poza usprawnieniami w animacji i paint effectach to nadrabianie oczywistych zaległości albo kopiowanie rozwiązań konkurencji.

 

 

Hmmm znalazlem pare fajnych drobiazgow ale to juz gdzies widzialem w innych softach .Zero innowacji .

Pocichu liczylem ze jednak autodesk zaskoczy po marnej 2013 ale oni ida w zaparte i leca w kulki...

 

Alias ma dobrą historię innowacji na swoim koncie. Ewidentnie zaspali i muszą teraz przebudować architekturę, żeby pójść dalej.

 

2GB ograniczenia na plik? Raz, że żadna scena nie powinna tyle mieć (to oczywisty błąd założeń), dwa że powinna od dawna móc taka być, jeśli komuś na tym zależało!

Napisano
Tylko z Aliasów to tam prawie nikt nie został ;) Po przejęciu przez Autodesk większość programistów w świat.

 

Nigdy nie było tam super stałego team, Maya to w końcu sklejka z kilku programów i kupionych komponentów, ale główni programiści i projektanci chyba zostali, tak? (Duncan na pewno).

Napisano
kopiowanie rozwiązań konkurencji.

 

Ja nie mam nic przeciwko temu. Dzięki temu nie muszę patrzeć z zazdrością na programy, których z różnych powodów ciężko by mi się używało. Nie muszę myśleć o migracji, albo kombinowaniu, żeby odpalić jakiś program tylko dla jednej funkcji. Niech kopiują ile wlezie, byle tylko działało.

Założenie, że skoro w programie X jest jakaś funkcja, to implementowanie jej do programu Y jest powodem do wstydu, jest dla mnie dość idiotyczne. O ile rozumiem, że rzeczywiście się można pośmiać, że np. maya teraz będzie miała funkcje, które max miał kilka wersji temu, to w praktyce co konkretnie jest tym złego? Jeśli jeden soft ma extrude polygons, to w drugim już nie powinno go być? ;)

Napisano (edytowane)
Ja nie mam nic przeciwko temu. Dzięki temu nie muszę patrzeć z zazdrością na programy, których z różnych powodów ciężko by mi się używało. Nie muszę myśleć o migracji, albo kombinowaniu, żeby odpalić jakiś program tylko dla jednej funkcji. Niech kopiują ile wlezie, byle tylko działało.

 

Oczywiście upraszczasz, ale rozumiem, że Ci tak wygodniej... nic w tym złego patrząc wprost, patrząc nie wprost natomiast to jest kwestia zaufania do swojego dostawcy oprogramowania.

 

...to się po angielsku nazywa "integrity", trudne do przetłumaczenia słowo, które w tym kontekście znaczy tyle, że są duże szanse, że "skopiowana" funkcjonalność nie będzie działać tak jak powinna, ponieważ autorski pomysł był częścią jakiejś filozofii myślenia o swoim programie, tudzież włożonego w niego talentu i profesjonalizmu, a kopia jest zestawem funkcji włożonych w obcy kontekst.

 

To jest oczywiście kwestia niuansów. ICE jest doskonałą kopią dlatego, że pod wieloma względami przerósł oryginał, a na przykład assety w Mai wręcz odwrotnie. Ciekawe jak będzie z "scene assembly", które znów próbują załatać dziurię w czymś, co jest po prostu od postaw źle skopiowane od konkurencji.

 

 

EDIT:

Nie chodziło mi o integrity programu, ale jego autorów, że pozwolę sobie sprecyzować...

Edytowane przez SYmek
Napisano (edytowane)

mala zajawka populate - w sumie nic ciekawego....

 

http://www.youtube.com/watch?v=Bn0BZjSbeAU

 

Nie wiedzialem ze Autodesk odswiezyl logo :) Na max3d.pl nic o tym nie bylo jeszcze ;)

 

 

EDIT: tu jest wszystko w 1 paczce.

 

http://www.cgrecord.net/2013/03/autodesk-3dsmax-2014-new-features.html

 

a tu juz bezposrednio ze strony adsk - http://area.autodesk.com/2014unfold/products/3dsmax.html#

 

Calkiem calkiem te ficzery. Cieszy tool do szybkiego lapania perspektywy z bg.

Edytowane przez Zed

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności