Jump to content
n-pigeon

Blender - NEWS oraz dyskusje

Recommended Posts

Czemu wątpisz? Opensubdiv w blenderze już od pierwszej publicznej wersji korzystał z backendów: CPU, OpenMP, GLSL Transform Feedback, CUDA i OpenCL.

Wątpiłem, bo w BF nie lubią warunkowego renderingu i ciągną w dół. Te wszystkie wymienione przez Ciebie backendy to gotowe backendy napisane przez Pixara (myślałem, że ich nie udostępnią w blenderze).

 

Teraz nie ma już żadnych przeszkód żeby wykorzystali nowego OGLa żeby dodać backend z GLSL Compute. Po prostu jak ktoś ma za starą kartę grafiki to ta opcja będzie dla niego zablokowana i tyle. Magia ViewportFX. :o

Żadna magia. ViewportFX dalej nie potrafi zrobić kontekstu OpenGL 4.x (az specjalnie sprawdzilem w repo - to też tłumaczy dlaczego nie ma gotowego, napisanego przez pixara backendu w powyższym filmiku), więc o tesselacji, compute shaderach czy wydajnym rysowaniu zapomnij... przynajmniej w tej chwili. Obecnie w BF cieszą się, że ograniczenie się do OpenGL 2.1 pozwoli im zmniejszyć warunkowość kodu (obsługiwanie kart bez VBO, które ma naście lat i kart bez GLSL 1.2 (czyli kart starszych niż 2005 z tego co pamiętam)). Nie myślą puki co komplikować sobie życia wspierając karty z tego dziesięciolecia.

Edited by Skoti

Share this post


Link to post
Share on other sites
Nie myślą puki co komplikować sobie życia wspierając karty z tego dziesięciolecia.

 

Tez sie zastanawiam dlaczego tak sie boja nowszych rozwiazan... Nawet widzialem wpis Tona na Twitterze:

"Blender might move to OpenGL 2.1 minimum next release. Who will find that problematic, and why? "

 

Sam przyznaje pozniej, ze:

 

"OpenGL 2.1 is almost 9 years old already. Was important milestone though."

 

Skad taki strach przed czyms nowszym, dlaczego wiecznie ciagnac te dinozaury komputerowe za soba... Wedlug wielu standardow moge uchodzic za wrecz biednego, ale sprzet aktualizuje bo dzieki niemu zarabiam na zycie... Nie trzeba miec najnowszych zdobyczy techniki, ale do cholery... dekada w tym biznesie to cala epoka... Nie kumam.

Share this post


Link to post
Share on other sites

Na pewno się wam spodoba. Co do opengl to wolałbym by zapomnieć o wszystkim co jest 2 lata wstecz i skupić się na tym co teraz jest w miarę nowe bo będziemy tak ciągnąć w dół aż do niego wpadniemy

Share this post


Link to post
Share on other sites
Co do opengl to wolałbym by zapomnieć o wszystkim co jest 2 lata wstecz i skupić się na tym co teraz jest w miarę nowe bo będziemy tak ciągnąć w dół aż do niego wpadniemy

Myślę, że ograniczenie się do OpenGL 4.3 jako minimum byłoby rozsądne. Ogólnie, kto dziś korzysta w grafice z GPU starszego niż Fermi (pełna obsługa OpenGL 4.5), HD5k (pełna obsługa OpenGL 4.4 i ważniejsza połowa 4.5), czy nawet Intel z Haswelli (wcześniejsze i tak do niczego się nie nadają, a te obsługują OpenGL 4.3 w pełni). Jeśli ktoś ma starsze GPU to nawet low endy w cenie 100-200zł przy nowym API powinien dać im większą wydajność.

OpenGL 4.3 daje wszystko co potrzeba w standardzie, a bardzo młode dodatki (GCN/Kepler/Maxwell+) są dostępne łatwo jako rozszerzenia do kontekstu 4.3.

Nie oszukujmy się, że wymaganie 5-cioletniej karty graficznej od grafika było dużym wymaganiem.

 

Drugą sprawą jest to, czy obecnie nie lepiej jest przeczekać i zrobić wersji legacy dla starych kart z obecnej, a dla nowych napisać już w OpenGL Next (który powinien mieć wymagania podobne do powyżej podanych). Nie pozwoli może to przyspieszyć wydajności viewportu względem OpenGL 4.3 + rozszerzenia, ale przynajmniej na kolejne lata nie będzie wymówki, że się nie da, bo wszystko co nowe wymaga przepisania całości, bo to zupełnie nowe API.

Share this post


Link to post
Share on other sites

no właśnie, trzeba by może im to podesłać, pokazuje to że nawet nie ma sensu myśleć o starszej wersji. Trzeba jeszcze pomyślec o tym że jeśli oni wezmą teraz najnowszą wersję to zanim oni to przepiszą a nie wiem ile to może czasu zająć to może wyjść kolejne usprawnienie i co wtedy ?. Po co marnować zasoby ?

Share this post


Link to post
Share on other sites
Ta ankieta (zachecam do wziecia udzialu choc watpie, czy to cos zmieni...) pokazuje swietnie jaka wersja OpenGL dominuje wsrod uzytkownikow.

 

http://blenderartists.org/forum/showthread.php?359305-What-s-your-OpenGL-version

Pokazuje kiepsko (w praktyce jest znacznie więcej obsługujących nowe wersje) - głosują tam na OpenGL 2.1 osoby korzystające z MacOS X z obsługą OpenGL 4.x... bo blender pokazuje im 2.1 (sterowniki na Macu pokazują nie wersję jaką mogą obsługiwać, a taką jako kontekst jest stwrzony, a blender robi kontekst zgodny z 2.1).

Głosy na 3.0, 3.1 czy 3.2 to od osób które nie aktualizują sterowników (nielicząc starsze GPU Intela, których raczej do blendera nikt nie ośmielił by się użyć wszystkie karty które obsługują OpenGL 3.0 dostały aktualizacje sterowników do 3.3). Czyli tak napradę jest jeszcze większa przewaga 3.3+... co jednak przeraża to to, że opisują tam użytkownicy, że korzystają z Mesy (otwarte sterowniki pod Linuksa, gdy nie zainstaluje się sterowników od producenta kart)... przecież blender już obecnie na sterownikach mesy nie działa (latające czarne artefakty i masa błędów), a ludzie używają mesy? Tego sobie nawet w koszmarach nie wyobrażałem (tym bardziej, że na kartach, do których są dobre sterowniki i jest obsługa OpenGL 4.4 i częściowo 4.5).

Share this post


Link to post
Share on other sites

Skoti - ta, pozniej z kumplem dyskutowalem i faktycznie widac nawet w komentarzach, ze ten sam model nowej karty przez niezaktualizowane sterowniki pokazuje starsza wersje. Jest to paranoja ze bedzie sie opozniac rozwoj softu przez kilku zwolennikow starego sprzetu i kilku zaradnych inaczej co nie umieja zaktualizowac sterow... Ale tak czy owak, mimo tych wszystkich przeklaman nowy OpenGL goruje nad wszystkim innym. A tu Ton jeszcze sie pyta czy aby komus nie zaszkodzi zmieniajac na wersja dziesiecioletnia... O co chodzi? :/

Share this post


Link to post
Share on other sites

bo to jest jak twierdzenie iż komputery wymarły i nastała nowa era ale tak wcale nie jest bo co na tablecie będziesz programować czy może bądzmy bardziej SWAG na smartfonie, to że coś się umie nie znaczy że się to prawidłowo wykonuje, oczywiście widelcem też pokroisz chleb ale ile z tym męczenia na których mówię niepełno sprytni. Każdy myślący będzie dążyć do ostrzejszego noża z odpowiednim uchwytem czy jak to się zwie. Sam ma kartę z 4.4 nie jest najnowsza ale wolałbym gdyby była wykorzystana a nie ciągle marudzę na wydajność sculpt/viewport a proc nie wykorzystany, wiatraczki na karcie nie dyszą a ramu zdzarte, że nic nie idzie zrobić, no dobra myślałem że dokupię ramu ale jak 2 lata temu 8 GB mnie kosztowało 182 zł a teraz bez 420 zł na te same moduły to dziękuję bardzo aż tak inflacja poszła czy to wina ddr4 a może czegoś nie rozumiem. Tak więc cały mój zapał z rzeźbieniem poszedł w zbrush w którym strasznie ciężko jest przestawić swoje przyzwyczajenia i sposób w jaki on działa, naprawdę fajny program ale ma swoje dziwy które trzeba pojąć. Jak to poprawia to wrócę bo strasznie wygodnie mi się w blenderze pracuje.

Share this post


Link to post
Share on other sites
bo to jest jak twierdzenie iż komputery wymarły i nastała nowa era ale tak wcale nie jest bo co na tablecie będziesz programować czy może bądzmy bardziej SWAG na smartfonie, to że coś się umie nie znaczy że się to prawidłowo wykonuje, oczywiście widelcem też pokroisz chleb ale ile z tym męczenia na których mówię niepełno sprytni. Każdy myślący będzie dążyć do ostrzejszego noża z odpowiednim uchwytem czy jak to się zwie. Sam ma kartę z 4.4 nie jest najnowsza ale wolałbym gdyby była wykorzystana a nie ciągle marudzę na wydajność sculpt/viewport a proc nie wykorzystany, wiatraczki na karcie nie dyszą a ramu zdzarte, że nic nie idzie zrobić, no dobra myślałem że dokupię ramu ale jak 2 lata temu 8 GB mnie kosztowało 182 zł a teraz bez 420 zł na te same moduły to dziękuję bardzo aż tak inflacja poszła czy to wina ddr4 a może czegoś nie rozumiem. Tak więc cały mój zapał z rzeźbieniem poszedł w zbrush w którym strasznie ciężko jest przestawić swoje przyzwyczajenia i sposób w jaki on działa, naprawdę fajny program ale ma swoje dziwy które trzeba pojąć. Jak to poprawia to wrócę bo strasznie wygodnie mi się w blenderze pracuje.

 

Komputery nie wymarły i nie wymrą (jak jak superkomputery nie wymarły po wejściu PC). Jednak komputery potocznie nazywane PC nie są już tym, co oznacza ta nazwa. Dziś komputerem osobistym jest smartfon i tablet (a ich łączna sprzedaż to kilkukrotność sprzedaży PC) i taka jest prawda. Komputery stacjonarne/mocne laptopy to obecnie nie komputery osobiste, a stacje robocze (workstations), które służą do pracy, a nie jako komputer osobisty.

Jak najbardziej można to podsumować jako wymarcie komputerów PC i one zajeły dziś miejsce stacji roboczych (używanych przez grafików i programistów, gdy PC były jak smartfony/tablety... za słabe do profesjonalnych zastosowań). Rynek osobisty to dziś urządzenia mobilne... które z czasem podobnie jak PC kiedyś, przejmą rolę mocniejszych braci (jako urządzenia modułowe - podpinasz tablet/telefon pod dock roboczy i obsługujesz program klawiaturą i myszką), ale to przyjdzie później (dziś mamy czas przejściowy jak wtedy gdy graficy pracujący na Irixie wykorzystującym przodka OpenGL czyli IrisGL, na swoich 64 bitowych procesorach na początku lat 90 śmiali się z PC, że to zabawki dla dzieci i nie nadają się do poważnej pracy).

 

OFC co ciekawe, zwalanie winy za nie wykorzystywanie nowych API na mobilki to jest śmieszne gdy Tegra K1 i Tegra X1 obsługują OpenGL 4.5 z dużą nawiązką, PowerVR 7XT obsługuje OpenGL 4.4, a Adreno 400 (Snapdragony), Mali 600+ (Samsung Exynos) wspierają SSBO (zapomnij w blenderze - tu "nowość" bo używają UBO z OpenGL 3.x), compute shadery, tesselację, geometry shadery... Ofc stare tablety czy smartfony nie obsługują, ale na nich odpalenie blendera to jakiś żart (ze względu na stare, powolne CPU).

Share this post


Link to post
Share on other sites

a tak z ciekawości co oni się tak uparli na odpalanie blendera na tych smartfonach/padafonach/tabletach. Wątpię w wygodę pracy na czymś takim. Chyba że chcą odpalić oscyloskopie jak to miało miejsce w przypadku quake 1 ale to tylko wygląda czy się uda takie tam sobie dla sprawdzenia. Trochę to PC się przeobraziło tak jak piszesz tak zwane kużuale walą na tabletach i smartfonach bo oni chcą na chwilę coś sprawdzić i nie chce im się iść odpalać tego pudła a do grania jest konsola, choć znając moje stare przyzwyczajenia nie zamienię stacji roboczej nawet na laptopa bo zwyczajnie jest to dla mnie niewygodne, łapska duże, mały ekran, co to ma być ? stracę tylko kasę.///trochę odbiegłem od tematu //// Zastanawiające jest właśnie to 2.1 ci ludzie chyba mają całodobowo włączony komp tak ja to miałem bo zwyczajnie stary i za długo się uruchamia tak jak to było u mnie za nim uruchomiłem cokolwiek trwało to jakieś 15 min

 

Share this post


Link to post
Share on other sites
a tak z ciekawości co oni się tak uparli na odpalanie blendera na tych smartfonach/padafonach/tabletach.

Przyznam, że uruchomiłem blendera kilka lat temu na tablecie i działało to całkiem dobrze (do podstawowej pracy i wysłania renderingu w chmurę można by się pobawić) - ofc do sensownej obsługi wymagało to podpięcia klawiatury i myszki.

Rynek zmierza w kierunku urządzeń modułowych jak wspomniany przez Ciebie padfon. Obecnie masz tam tak: Masz smartfon, gdy potrzebujesz tabletu wkładasz telefon do obudowy i masz tablet (z dodatkową baterią). Gdy potrzebujesz netbooka (coś napisać na klawiaturze czy chcesz obsługę gładzika) to podpinasz klawiaturę (z dodatkową baterią).

 

W przyszłości zapewne takie rozwiązania będą ustandaryzowane i do tabletowej obudowy firmy X będziesz mógł podłączyć telefon firmy Y.

Ja przyszłość tego rynku widzę w ten sposób, że masz smartfona - swój osobisty komputer... który możesz podłączyć do ekranu (przykładowo 13 cali) i mieć tablet (z dodatkową baterią i dodatkowym procesorem, dodającym mocy) do prezentacji klientowi (imo wygodniejsza forma prezentacji niż na laptopie), a jak wrócisz do pracy to po prostu podpinasz telefon do 25 calowego ekranu z myszką i klawiaturą (i dodatkowym prockiem (lub miejscem na moduł procesora jak w projekcie Ara od Google - czyli zwykły monitor 2x usb, a procek dopinasz sobie sam)), aby popracować i masz iMac'a. Masz wtedy w jednym urządzeniu wszystkie urządzenia jakich potrzebujesz w smartfonie, wszystkie twoje dane (podpinasz w hotelu pod ekran smartfon i masz stanowisko pracy i swój komputer/swoje dane).

Tak wygląda kierunek rynku (od modułowych telefonów jak projekt Ara, gdzie podzespoły wybierasz sam i wpinasz jak w PC, po modułowe urządzenia jak Padfone, które rozszerzają możliwości sprzętu podstawowego do możliwości zupełnie innej klasy sprzętu) i mnie się on podoba. Ofc to nie jest osiągalne wcześniej niż w następnej dekadzie, ale taka ewolucja sprzętu mobilnego.

Edited by Skoti

Share this post


Link to post
Share on other sites

Moim zdaniem przyszłość to chmura, po co mocnieszy procesor w monitorze, zapłacisz abonament a moc obliczeniową dostaniesz po sieci, z super komputera w Koluszkach czy Berlinie;). Streaming gier już zaczyna być rzeczywistością, za 10 lat może być normą nie tylko w graniu.

Share this post


Link to post
Share on other sites
Moim zdaniem przyszłość to chmura, po co mocnieszy procesor w monitorze, zapłacisz abonament a moc obliczeniową dostaniesz po sieci

O ile chmura przy graniu ma jaką przyszłość (nie, że jakąś wielką, bo lagi obecnie uniemożliwiają sensowne granie i przed wprowadzeniem światłowodów do domów raczej się to nie zmieni, a obraz, który widzisz jest mocno zniekształcony (kodowany stratnie)). Jednak chmura nie ma przyszłości na stanowiskach produkcyjnych, w firmach itp. Już w wypadku obliczeń co większe firmy z mody chmurowej się wycofują, bo to jest po prostu niebezpieczne i kiepskie rozwiązanie.

Share this post


Link to post
Share on other sites

Jeszcze jest niebezpieczne i powolne, jak wszystko na początku. Za 10 lat zajrzymy do tego wątku i sprawdzimy kto miał rację, pewnie żaden z nas;)

Share this post


Link to post
Share on other sites

Z ciekawości podliczyłem za ile można zmontować desktopowego PC który odpaliłby blendera jeśli ten byłby oparty o OGL 3.3. Wyszło około 600pln za nowego kompa ze wszystkimi podzespołami poza dyskiem. Intel G1610, Nvidia GT210 (nawet CUDA jest na pokładzie :D), Mobo od ASUSa na LGA 1155, 2 giga ramu, zasilacz i obudowa. Rozumiem że w czołówce najbiedniejszych krajów to może być jakiś wydatek ale już w polsce a co dopiero w europie zachodniej to jest śmieszny pieniądz jak za sprzęt którym można zarabiać pieniądze robiąc grafikę 3d.

Trzeba ich męczyć o upgrade do OGL3.3 jako minimum.

Share this post


Link to post
Share on other sites
Jeszcze jest niebezpieczne i powolne, jak wszystko na początku. Za 10 lat zajrzymy do tego wątku i sprawdzimy kto miał rację, pewnie żaden z nas;)

Niebezpieczne będzie zawsze - wszystko podpięte do internetu da się złamać i to się nie zmieni. Nie bez powodu co poważniejsze firmy mają sieci wewnętrzne bez dostępu do internetu. Serwisy chmurowe poza tym, że sprawiają, że oddajesz zewnętrznej firmie tajne dane (dla firm nie do zaakceptowania) to jeszcze narażasz się w sposób okropnie łatwy dla atakującego (atakując jeden cel (serwis chmurowy), zyskuje dane na raz wielu osób i firm... dlatego serwisy chmurowe tak szybko padają (i to niezależnie czy dropbox, sony, asus czy innej firmy), bo są atrakcyjnym łupem).

Share this post


Link to post
Share on other sites

Z ta chmura i oczekiwaniami w stylu "na razie jest kiepsko, ale zobaczysz za kilka lat" to mi przypomina lata 80te jak w telewizji fantazjowali ze w roku 2000 to samochody beda latac a ludzie beda w jakims SF zyli :D

Share this post


Link to post
Share on other sites

Rozwój jest, tylko postępujący i niewielu udaje się go przewidzieć. Dla ludzi w latach 80 video-rozmowa z kimś na drugim krańcu globu za pomocą urządzenia które mieści się w kieszeni to było SF. Od paru lat to codzienność która nikogo nie dziwi.

 

Moc obliczeniowa z chmury kiedyś pewnie nadejdzie. Tylko obstawiam że to nie będzie Adobe Cloud tylko coś bardziej podobnego do BOINC, czyli przeliczeń rozproszonych. Są dziesiątki sposobów na wysyłanie pakietów obliczeniowych, nie trzeba przy tym uwzględniać całych danych, można tylko te na których ma się skupić jednostka licząca. Przynajmniej zdroworozsądkowo do takiego działania powinno się dążyć przy przeliczaniu rozproszonym.

Share this post


Link to post
Share on other sites
Z ta chmura i oczekiwaniami w stylu "na razie jest kiepsko, ale zobaczysz za kilka lat" to mi przypomina lata 80te jak w telewizji fantazjowali ze w roku 2000 to samochody beda latac a ludzie beda w jakims SF zyli :D

Jakby nie było... w takim SF teraz żyjemy ;p. Przykładowo "Powrót do przyszłości", który przenosil widza do 2015 roku pokazywał takie cuda jak wideokonferencje (skype/hangout i masa innych), rozpoznawanie twarzy i głosu (jest i wykorzystywane od odblokowania telefonu twarzą, po policję ścigającą osoby, które zobaczyły kamery monitoringu w wypadku twarzy, a głos to Siri/Google Now itp.), okulary VR (od Google Glass, po Oculus czy okularki od Sony/Samsung), Multiscreening (no ba), tablety. Tak naprawdę to co w tym filmie się nie sprawdziło to... latające samochody (istnieją, ale nie ma ich w sklepach - już w 2017 ma wyjść do detalicznej sprzedaży kilka latających motorów (na bazie konstrukcji quadcopterów (dronów))), i latające deskorolki (testowane

). Czyli tak naprawdę nie za bardzo się pomylili (a wielu jeszcze bardziej rewolucyjnych nowinek które obecnie sa powszechne lub za horyzontem - chociażby street view (takie coś było nawet niewyobrażalne) czy samochody od Google jeżdżące bez kierowcy, czy prężnie rozwijające się hologramy, które niektóre sklepy w japonii czy usa wykorzystują jako reklamę w 3D). Gdyby człowiek z lat 80 przeniusł się do dzisiejszego czasu to czułby się jak w SF... dla nas to norma, bo w tych czasach żyjemy (dziś gdy chce na kanapie coś wyszukać w google to po prostu mówię do telefonu i mi odpowiada - kompletne SF jeszcze niedawno). Edited by Skoti

Share this post


Link to post
Share on other sites
Nvidia GT210 (nawet CUDA jest na pokładzie :D)

 

GT210 kosztuje około 100zł... bardzo drogo. Nieporównywalnie lepszą opcją jest GeForce GT610 - czyli OpenGL 4.5, nowa wersja CUDA i wyższa wydajność, a takie GPU za 140zł już kupisz (na amazonie kartę OpenGL 4.5 można kupić za 40 dolarów - to ciężko nazwać zaporową ceną, dla kogoś chcącego zajmować się grafiką 3D).

Edited by Skoti

Share this post


Link to post
Share on other sites
Jakby nie było... w takim SF teraż żyjemy ;p.

 

Hehe, mam ponad 40 lat, dla mnie zmieniło się bardzo wiele, dokładnie SF w porównaniu z dzieciństwem;)

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

×
×
  • Create New...

Important Information

We are using cookies. Read about our Privacy Policy