Skocz do zawartości

Rekomendowane odpowiedzi

Napisano

pamiętam jak któraś z wersji dała się rzeźbić spokojnie na 6 bańkach(wyłączone dystopo) a teraz to nawet 1.5 staje się problemem nawet wersje Gooseberry tak działają, nosz kurde muszę czekać.

Napisano

@mandragora, porównujesz ten sam plik? Generalnie przy zachowaniu paru dobrych zasad, na paru bańkach sculpt w blenderze powinien iść gładko, aczklowiek ogólna ilość trisów, a nastawy w samym dyntopo to trochę inna historia; to jaka jest skala/zoom brusha, ile trisów dodajesz jednym maźnięciem; powoduje w pewnych momentach, że można zarżnąć nawet najlepszy sprzęt. Jutro siadam do skompilowania brancha dyntopo_holes, żeby zobaczyć czy da się tego używać - kolejna rzecz, którą rozpoczęli i nie dokończyli zajmując się innym tematem :) Sculpt na gęstych siatkach w zetce, a w blenderze to jednak przepaść wydajnościowa, natomiast odkąd bishop napisał dyntopo, w blenderze da się fajnie porzeźbić, także jakby dać Berniniemu do sculpcenia to by się ucieszył :)

 

Blender przez skrypt napisany w bashu aktualizuje mi się codziennie, przez pobranie i rozpakowanie paczki z "daily builds" i spadku wydajności w sculpcie przy 1-3 milionach trisów nie zauważyłem. Może jednak Twoje oczekiwania i skill się zmieniają :)

Napisano

Nie nie wracam do starych plików bo mogę się przestraszyć co to za paździejstwo ulepiłem. No nie powiem ale w blenderze dużo fajniej mi się rzeźbi tylko ta nieszczęsna wydajność bo sprawdzałem też jak mi idzie w zbrush i jak dla mnie blender jest wygodniejszy no ale zbrush ma więcej pędzli ale niektóre to z początku mogą wkurzać bo są wstępnie zbędne do nauki no ale wydajność to miazga i remesh też dużo lepszy no ale ja wolę blendera dla mnie bardziej spełnia oczekiwania prócz mojego narzekania. Co by się przydało:

- grab z zbrusha bo ten blenderowy to jakaś paranoja

- jeśli masz siatkę i tworzysz błonę i nie chcesz by siatki się zlepiły to ustawiasz próg odstępu siatki od siebie oczywiście możesz zmienić za chwile to na 0

- polygonal line, wiem jest curve line ale nie do końca działa jak polygonal(gdzieś był filmik, naprawdę to dobrze wyglądało)

- to narazie tyle ale z czasem może coś dojdzie

Napisano

ZBrush nie tyle co ma dużo pędzli to ma maaaasakrycznie zaawansowany silnik pędzli. W paletach Brush, Stroke i Alpha znajduje się razem grubo ponad 100 parametrów. Wszystko liczone bez przycinki na siatkach po parędziesiąt milionów poly. W blenderze masz może 1/10 tych opcji i mniej niż 1/10 tej wydajności. ;) Jak dla mnie jedyna poważna zaleta blendka w sculpcie to prawdziwa kamera 3d.

Napisano (edytowane)

no wiesz jak na razie mi starcza, jak będę coś umieć i będzie mi brakować narzędzi to pewnie się przesiądę.

 

-------------------------------------------------------------------------------------------------------

Projekty na 2015, cieszy nowy viewport tylko nie ma co liczyć że skończą w 2015, do tego poprawienie edycji siatki i wiele innych o których nie mam pojęcia a pewnie są ważniejsze niż moje narzekanie na wydajność

 

/////////// nie wiedzieć czemu link nie chce działać więc każdy sam wchodzi na stronę blendera

Edytowane przez mandragora
Napisano

Nom, fajne reczy wypisuja, mam nadzieje ze przynajmniej z wiekszoscia dadza rade. AD latami realizuje swoj projekt "Excalibur" dla 3dsmaxa i po latach wrescie dodal quad chamfera :D Mam nadzieje ze BF bedzie dzialac wydajniej i w krotce dostaniemy najbardziej oczekiwane ficzery.

Napisano

Śmiechłem. Url nie działa przez forumową autocenzurę, "anti-c-i-p-a-ted". :o

Czytałem wczoraj przed spaniem i miałem dobre sny. :D Wiadomość dużego kalibru więc postaram się nasmarować newsa razem z podsumowaniem 2014.

 

Skrócony URL do tej notki -> http://ow.ly/GFi92

Napisano

Sporo fajnych rzeczy się szykuje; alembic będzie przełomem. Trochę szkoda, że bez displacementu dla cyclesa.

 

Dwa fajne triki (pliki do pobrania w linku z vimeo):

 

Napisano (edytowane)

Tweet od Roosendaala:

Nicholas Bishop @nicholasbishop arrived safely today! Met him in person for first time, such a nice guy! He'll be working on PTEX :).

 

W takiej czy innej formie kasa z gooseberry dała jednak kopa blenderowi i Ton stawia na właściwych ludzi. W sumie wokół BF zawsze były jakieś indywidualności, ale takiego mocnego składu devów jak dziś, chyba nie było nigdy.

Edytowane przez alex3d
Napisano

JUŻ? Myślałem że oni się za PTEXa zabiorą za kilka miesięcy i pojawi się dopiero w przyszłym roku a tu taka niespodzianka. Pisali że on ma się zajmować tylko sculptem. Byłoby spoko jakby wyrobili się z tym i OpenSubdiv do 2.75, to będą okolice lipca. :)

 

http://blenderartists.org/forum/showthread.php?350296-Addon-Animation-Nodes

Bawił się ktoś Animation Nodes? Powoli to zaczyna wyrastać na zaawansowany system proceduralnej generacji, nie tylko do animacji. Obstawiam że Ton pisząc o koderach pythonowych systemów nodowych miał na myśli Sverhocka, MotionTool i właśnie to.

Napisano

No właśnie, bezpośrednia obecność Bishopa w BF pewnie przełoży się nie tylko na PTexa, ale myślę, że pośrednio na sculpt również. Animation Nodes nie próbowałem, ale geometryczny przyrost różnych blenderowych patchów/skryptów zaczyna być trudny do śledzenia :) Tonowi udało się w ostatnim czasie zebrać fajną ekipę i stworzyć pozytywny klimat wokół rozwoju blendera.

 

Ten skrypt do retopo, też warto byłoby przetestować, dzisiaj został udostępniony:

 

 

retopo_MT_001.gif

 

retopo_MT_002.gif

 

retopo_MT_003.gif

 

retopo_MT_004.gif

 

http://www.blenderartists.org/forum/showthread.php?355154-Addon-Retopo-MT-Not-available-right-now/page3

Napisano

Ten addon prezentuje się super. Akurat w czwartek będę cisnął retopo mowej pracki więc przetestuje. :)

 

----

 

Hi all,

 

Happy new year!

Here are the notes from today's meeting in irc.freenode.net #blendercoders.

 

1) Blender 2.73 release

 

- There are a couple of fixes that could be moved to the release branch. Campbell Barton and Sergey Sharybin check on this monday.

 

- If all goes fine, we call for a release build on tuesday.

 

2) The 2.74 targets

 

- We're still in BCon1 - within two weeks we should be able to define the release targets.

http://wiki.blender.org/index.php/Dev:Doc/Projects

 

- There's a release log in progress already!

http://wiki.blender.org/index.php/Dev:Ref/Release_Notes/2.74

 

- Proposal to make OpenGL 2.1 minimum: everyone agrees that this is sensible, however:

- do this together with tangible user benefits (like support for SSAO, cavity shaders, DOF)

- do this in a way the migration is smooth and friendly communicated

Discussion on this will continue, proposal coming next meeting.

 

Thanks,

 

-Ton-

Czyli pierwsze bajery z Viewport Experiment wskoczą do mastera w 2.74 :) OGL 2.1 to staruszek, szkoda że od razu nie pokusili się o 3.1 ale dobre i to. Na szczęście Viewport FX to na tyle elastyczna bestia że niektóre ficzery będą mogły być supportowane tylko na lepszym sprzęcie i to zostanie wykryte. Czyli OpenSubdiv 3.0 powinien śmigać gładko razem z jego nowościami. O ile ktoś ma nowoczesną kartę grafiki młodszą niż 7 lat. lol ;)

Napisano (edytowane)
Czyli OpenSubdiv 3.0 powinien śmigać gładko razem z jego nowościami. O ile ktoś ma nowoczesną kartę grafiki młodszą niż 7 lat. lol ;)

Niestety OpenSubdiv zapewne nie zadziałą na pełnej swojej wydajności z GLSL Compute (wymagany kontekst OpenGL 4.0), a wykorzystają Transform Feedback dostępny w GeForce 8k z 2006 roku. Dalej to prehistoria, ale już i tak lepiej niż obecnie (no ok, mogą jeszcze użyć CUDA/OpenCL, ale wątpię, skoro się ograniczają do GL2.1).

Edytowane przez Skoti
Napisano (edytowane)

Czemu wątpisz? Opensubdiv w blenderze już od pierwszej publicznej wersji korzystał z backendów: CPU, OpenMP, GLSL Transform Feedback, CUDA i OpenCL. Blenderowa implementacja jest obecnie najwydajniejsza (CUDA. 10 razy szybsza niż max na GLSLu) i jako jedyna pozwala na taką ilość backendów do wyboru. :D

 

[video=youtube_share;dzIl_S-qHIQ]

 

Teraz nie ma już żadnych przeszkód żeby wykorzystali nowego OGLa żeby dodać backend z GLSL Compute. Po prostu jak ktoś ma za starą kartę grafiki to ta opcja będzie dla niego zablokowana i tyle. Magia ViewportFX. :o

Edytowane przez Monio
Napisano (edytowane)
Czemu wątpisz? Opensubdiv w blenderze już od pierwszej publicznej wersji korzystał z backendów: CPU, OpenMP, GLSL Transform Feedback, CUDA i OpenCL.

Wątpiłem, bo w BF nie lubią warunkowego renderingu i ciągną w dół. Te wszystkie wymienione przez Ciebie backendy to gotowe backendy napisane przez Pixara (myślałem, że ich nie udostępnią w blenderze).

 

Teraz nie ma już żadnych przeszkód żeby wykorzystali nowego OGLa żeby dodać backend z GLSL Compute. Po prostu jak ktoś ma za starą kartę grafiki to ta opcja będzie dla niego zablokowana i tyle. Magia ViewportFX. :o

Żadna magia. ViewportFX dalej nie potrafi zrobić kontekstu OpenGL 4.x (az specjalnie sprawdzilem w repo - to też tłumaczy dlaczego nie ma gotowego, napisanego przez pixara backendu w powyższym filmiku), więc o tesselacji, compute shaderach czy wydajnym rysowaniu zapomnij... przynajmniej w tej chwili. Obecnie w BF cieszą się, że ograniczenie się do OpenGL 2.1 pozwoli im zmniejszyć warunkowość kodu (obsługiwanie kart bez VBO, które ma naście lat i kart bez GLSL 1.2 (czyli kart starszych niż 2005 z tego co pamiętam)). Nie myślą puki co komplikować sobie życia wspierając karty z tego dziesięciolecia.

Edytowane przez Skoti
Napisano
Nie myślą puki co komplikować sobie życia wspierając karty z tego dziesięciolecia.

 

Tez sie zastanawiam dlaczego tak sie boja nowszych rozwiazan... Nawet widzialem wpis Tona na Twitterze:

"Blender might move to OpenGL 2.1 minimum next release. Who will find that problematic, and why? "

 

Sam przyznaje pozniej, ze:

 

"OpenGL 2.1 is almost 9 years old already. Was important milestone though."

 

Skad taki strach przed czyms nowszym, dlaczego wiecznie ciagnac te dinozaury komputerowe za soba... Wedlug wielu standardow moge uchodzic za wrecz biednego, ale sprzet aktualizuje bo dzieki niemu zarabiam na zycie... Nie trzeba miec najnowszych zdobyczy techniki, ale do cholery... dekada w tym biznesie to cala epoka... Nie kumam.

Napisano

Na pewno się wam spodoba. Co do opengl to wolałbym by zapomnieć o wszystkim co jest 2 lata wstecz i skupić się na tym co teraz jest w miarę nowe bo będziemy tak ciągnąć w dół aż do niego wpadniemy

Napisano
Co do opengl to wolałbym by zapomnieć o wszystkim co jest 2 lata wstecz i skupić się na tym co teraz jest w miarę nowe bo będziemy tak ciągnąć w dół aż do niego wpadniemy

Myślę, że ograniczenie się do OpenGL 4.3 jako minimum byłoby rozsądne. Ogólnie, kto dziś korzysta w grafice z GPU starszego niż Fermi (pełna obsługa OpenGL 4.5), HD5k (pełna obsługa OpenGL 4.4 i ważniejsza połowa 4.5), czy nawet Intel z Haswelli (wcześniejsze i tak do niczego się nie nadają, a te obsługują OpenGL 4.3 w pełni). Jeśli ktoś ma starsze GPU to nawet low endy w cenie 100-200zł przy nowym API powinien dać im większą wydajność.

OpenGL 4.3 daje wszystko co potrzeba w standardzie, a bardzo młode dodatki (GCN/Kepler/Maxwell+) są dostępne łatwo jako rozszerzenia do kontekstu 4.3.

Nie oszukujmy się, że wymaganie 5-cioletniej karty graficznej od grafika było dużym wymaganiem.

 

Drugą sprawą jest to, czy obecnie nie lepiej jest przeczekać i zrobić wersji legacy dla starych kart z obecnej, a dla nowych napisać już w OpenGL Next (który powinien mieć wymagania podobne do powyżej podanych). Nie pozwoli może to przyspieszyć wydajności viewportu względem OpenGL 4.3 + rozszerzenia, ale przynajmniej na kolejne lata nie będzie wymówki, że się nie da, bo wszystko co nowe wymaga przepisania całości, bo to zupełnie nowe API.

Napisano

no właśnie, trzeba by może im to podesłać, pokazuje to że nawet nie ma sensu myśleć o starszej wersji. Trzeba jeszcze pomyślec o tym że jeśli oni wezmą teraz najnowszą wersję to zanim oni to przepiszą a nie wiem ile to może czasu zająć to może wyjść kolejne usprawnienie i co wtedy ?. Po co marnować zasoby ?

Napisano
Ta ankieta (zachecam do wziecia udzialu choc watpie, czy to cos zmieni...) pokazuje swietnie jaka wersja OpenGL dominuje wsrod uzytkownikow.

 

http://blenderartists.org/forum/showthread.php?359305-What-s-your-OpenGL-version

Pokazuje kiepsko (w praktyce jest znacznie więcej obsługujących nowe wersje) - głosują tam na OpenGL 2.1 osoby korzystające z MacOS X z obsługą OpenGL 4.x... bo blender pokazuje im 2.1 (sterowniki na Macu pokazują nie wersję jaką mogą obsługiwać, a taką jako kontekst jest stwrzony, a blender robi kontekst zgodny z 2.1).

Głosy na 3.0, 3.1 czy 3.2 to od osób które nie aktualizują sterowników (nielicząc starsze GPU Intela, których raczej do blendera nikt nie ośmielił by się użyć wszystkie karty które obsługują OpenGL 3.0 dostały aktualizacje sterowników do 3.3). Czyli tak napradę jest jeszcze większa przewaga 3.3+... co jednak przeraża to to, że opisują tam użytkownicy, że korzystają z Mesy (otwarte sterowniki pod Linuksa, gdy nie zainstaluje się sterowników od producenta kart)... przecież blender już obecnie na sterownikach mesy nie działa (latające czarne artefakty i masa błędów), a ludzie używają mesy? Tego sobie nawet w koszmarach nie wyobrażałem (tym bardziej, że na kartach, do których są dobre sterowniki i jest obsługa OpenGL 4.4 i częściowo 4.5).

Napisano

Skoti - ta, pozniej z kumplem dyskutowalem i faktycznie widac nawet w komentarzach, ze ten sam model nowej karty przez niezaktualizowane sterowniki pokazuje starsza wersje. Jest to paranoja ze bedzie sie opozniac rozwoj softu przez kilku zwolennikow starego sprzetu i kilku zaradnych inaczej co nie umieja zaktualizowac sterow... Ale tak czy owak, mimo tych wszystkich przeklaman nowy OpenGL goruje nad wszystkim innym. A tu Ton jeszcze sie pyta czy aby komus nie zaszkodzi zmieniajac na wersja dziesiecioletnia... O co chodzi? :/

Napisano

bo to jest jak twierdzenie iż komputery wymarły i nastała nowa era ale tak wcale nie jest bo co na tablecie będziesz programować czy może bądzmy bardziej SWAG na smartfonie, to że coś się umie nie znaczy że się to prawidłowo wykonuje, oczywiście widelcem też pokroisz chleb ale ile z tym męczenia na których mówię niepełno sprytni. Każdy myślący będzie dążyć do ostrzejszego noża z odpowiednim uchwytem czy jak to się zwie. Sam ma kartę z 4.4 nie jest najnowsza ale wolałbym gdyby była wykorzystana a nie ciągle marudzę na wydajność sculpt/viewport a proc nie wykorzystany, wiatraczki na karcie nie dyszą a ramu zdzarte, że nic nie idzie zrobić, no dobra myślałem że dokupię ramu ale jak 2 lata temu 8 GB mnie kosztowało 182 zł a teraz bez 420 zł na te same moduły to dziękuję bardzo aż tak inflacja poszła czy to wina ddr4 a może czegoś nie rozumiem. Tak więc cały mój zapał z rzeźbieniem poszedł w zbrush w którym strasznie ciężko jest przestawić swoje przyzwyczajenia i sposób w jaki on działa, naprawdę fajny program ale ma swoje dziwy które trzeba pojąć. Jak to poprawia to wrócę bo strasznie wygodnie mi się w blenderze pracuje.

Napisano
bo to jest jak twierdzenie iż komputery wymarły i nastała nowa era ale tak wcale nie jest bo co na tablecie będziesz programować czy może bądzmy bardziej SWAG na smartfonie, to że coś się umie nie znaczy że się to prawidłowo wykonuje, oczywiście widelcem też pokroisz chleb ale ile z tym męczenia na których mówię niepełno sprytni. Każdy myślący będzie dążyć do ostrzejszego noża z odpowiednim uchwytem czy jak to się zwie. Sam ma kartę z 4.4 nie jest najnowsza ale wolałbym gdyby była wykorzystana a nie ciągle marudzę na wydajność sculpt/viewport a proc nie wykorzystany, wiatraczki na karcie nie dyszą a ramu zdzarte, że nic nie idzie zrobić, no dobra myślałem że dokupię ramu ale jak 2 lata temu 8 GB mnie kosztowało 182 zł a teraz bez 420 zł na te same moduły to dziękuję bardzo aż tak inflacja poszła czy to wina ddr4 a może czegoś nie rozumiem. Tak więc cały mój zapał z rzeźbieniem poszedł w zbrush w którym strasznie ciężko jest przestawić swoje przyzwyczajenia i sposób w jaki on działa, naprawdę fajny program ale ma swoje dziwy które trzeba pojąć. Jak to poprawia to wrócę bo strasznie wygodnie mi się w blenderze pracuje.

 

Komputery nie wymarły i nie wymrą (jak jak superkomputery nie wymarły po wejściu PC). Jednak komputery potocznie nazywane PC nie są już tym, co oznacza ta nazwa. Dziś komputerem osobistym jest smartfon i tablet (a ich łączna sprzedaż to kilkukrotność sprzedaży PC) i taka jest prawda. Komputery stacjonarne/mocne laptopy to obecnie nie komputery osobiste, a stacje robocze (workstations), które służą do pracy, a nie jako komputer osobisty.

Jak najbardziej można to podsumować jako wymarcie komputerów PC i one zajeły dziś miejsce stacji roboczych (używanych przez grafików i programistów, gdy PC były jak smartfony/tablety... za słabe do profesjonalnych zastosowań). Rynek osobisty to dziś urządzenia mobilne... które z czasem podobnie jak PC kiedyś, przejmą rolę mocniejszych braci (jako urządzenia modułowe - podpinasz tablet/telefon pod dock roboczy i obsługujesz program klawiaturą i myszką), ale to przyjdzie później (dziś mamy czas przejściowy jak wtedy gdy graficy pracujący na Irixie wykorzystującym przodka OpenGL czyli IrisGL, na swoich 64 bitowych procesorach na początku lat 90 śmiali się z PC, że to zabawki dla dzieci i nie nadają się do poważnej pracy).

 

OFC co ciekawe, zwalanie winy za nie wykorzystywanie nowych API na mobilki to jest śmieszne gdy Tegra K1 i Tegra X1 obsługują OpenGL 4.5 z dużą nawiązką, PowerVR 7XT obsługuje OpenGL 4.4, a Adreno 400 (Snapdragony), Mali 600+ (Samsung Exynos) wspierają SSBO (zapomnij w blenderze - tu "nowość" bo używają UBO z OpenGL 3.x), compute shadery, tesselację, geometry shadery... Ofc stare tablety czy smartfony nie obsługują, ale na nich odpalenie blendera to jakiś żart (ze względu na stare, powolne CPU).

Napisano

a tak z ciekawości co oni się tak uparli na odpalanie blendera na tych smartfonach/padafonach/tabletach. Wątpię w wygodę pracy na czymś takim. Chyba że chcą odpalić oscyloskopie jak to miało miejsce w przypadku quake 1 ale to tylko wygląda czy się uda takie tam sobie dla sprawdzenia. Trochę to PC się przeobraziło tak jak piszesz tak zwane kużuale walą na tabletach i smartfonach bo oni chcą na chwilę coś sprawdzić i nie chce im się iść odpalać tego pudła a do grania jest konsola, choć znając moje stare przyzwyczajenia nie zamienię stacji roboczej nawet na laptopa bo zwyczajnie jest to dla mnie niewygodne, łapska duże, mały ekran, co to ma być ? stracę tylko kasę.///trochę odbiegłem od tematu //// Zastanawiające jest właśnie to 2.1 ci ludzie chyba mają całodobowo włączony komp tak ja to miałem bo zwyczajnie stary i za długo się uruchamia tak jak to było u mnie za nim uruchomiłem cokolwiek trwało to jakieś 15 min

 

Napisano (edytowane)
a tak z ciekawości co oni się tak uparli na odpalanie blendera na tych smartfonach/padafonach/tabletach.

Przyznam, że uruchomiłem blendera kilka lat temu na tablecie i działało to całkiem dobrze (do podstawowej pracy i wysłania renderingu w chmurę można by się pobawić) - ofc do sensownej obsługi wymagało to podpięcia klawiatury i myszki.

Rynek zmierza w kierunku urządzeń modułowych jak wspomniany przez Ciebie padfon. Obecnie masz tam tak: Masz smartfon, gdy potrzebujesz tabletu wkładasz telefon do obudowy i masz tablet (z dodatkową baterią). Gdy potrzebujesz netbooka (coś napisać na klawiaturze czy chcesz obsługę gładzika) to podpinasz klawiaturę (z dodatkową baterią).

 

W przyszłości zapewne takie rozwiązania będą ustandaryzowane i do tabletowej obudowy firmy X będziesz mógł podłączyć telefon firmy Y.

Ja przyszłość tego rynku widzę w ten sposób, że masz smartfona - swój osobisty komputer... który możesz podłączyć do ekranu (przykładowo 13 cali) i mieć tablet (z dodatkową baterią i dodatkowym procesorem, dodającym mocy) do prezentacji klientowi (imo wygodniejsza forma prezentacji niż na laptopie), a jak wrócisz do pracy to po prostu podpinasz telefon do 25 calowego ekranu z myszką i klawiaturą (i dodatkowym prockiem (lub miejscem na moduł procesora jak w projekcie Ara od Google - czyli zwykły monitor 2x usb, a procek dopinasz sobie sam)), aby popracować i masz iMac'a. Masz wtedy w jednym urządzeniu wszystkie urządzenia jakich potrzebujesz w smartfonie, wszystkie twoje dane (podpinasz w hotelu pod ekran smartfon i masz stanowisko pracy i swój komputer/swoje dane).

Tak wygląda kierunek rynku (od modułowych telefonów jak projekt Ara, gdzie podzespoły wybierasz sam i wpinasz jak w PC, po modułowe urządzenia jak Padfone, które rozszerzają możliwości sprzętu podstawowego do możliwości zupełnie innej klasy sprzętu) i mnie się on podoba. Ofc to nie jest osiągalne wcześniej niż w następnej dekadzie, ale taka ewolucja sprzętu mobilnego.

Edytowane przez Skoti
Napisano

Moim zdaniem przyszłość to chmura, po co mocnieszy procesor w monitorze, zapłacisz abonament a moc obliczeniową dostaniesz po sieci, z super komputera w Koluszkach czy Berlinie;). Streaming gier już zaczyna być rzeczywistością, za 10 lat może być normą nie tylko w graniu.

Napisano
Moim zdaniem przyszłość to chmura, po co mocnieszy procesor w monitorze, zapłacisz abonament a moc obliczeniową dostaniesz po sieci

O ile chmura przy graniu ma jaką przyszłość (nie, że jakąś wielką, bo lagi obecnie uniemożliwiają sensowne granie i przed wprowadzeniem światłowodów do domów raczej się to nie zmieni, a obraz, który widzisz jest mocno zniekształcony (kodowany stratnie)). Jednak chmura nie ma przyszłości na stanowiskach produkcyjnych, w firmach itp. Już w wypadku obliczeń co większe firmy z mody chmurowej się wycofują, bo to jest po prostu niebezpieczne i kiepskie rozwiązanie.

Napisano

Z ciekawości podliczyłem za ile można zmontować desktopowego PC który odpaliłby blendera jeśli ten byłby oparty o OGL 3.3. Wyszło około 600pln za nowego kompa ze wszystkimi podzespołami poza dyskiem. Intel G1610, Nvidia GT210 (nawet CUDA jest na pokładzie :D), Mobo od ASUSa na LGA 1155, 2 giga ramu, zasilacz i obudowa. Rozumiem że w czołówce najbiedniejszych krajów to może być jakiś wydatek ale już w polsce a co dopiero w europie zachodniej to jest śmieszny pieniądz jak za sprzęt którym można zarabiać pieniądze robiąc grafikę 3d.

Trzeba ich męczyć o upgrade do OGL3.3 jako minimum.

Napisano
Jeszcze jest niebezpieczne i powolne, jak wszystko na początku. Za 10 lat zajrzymy do tego wątku i sprawdzimy kto miał rację, pewnie żaden z nas;)

Niebezpieczne będzie zawsze - wszystko podpięte do internetu da się złamać i to się nie zmieni. Nie bez powodu co poważniejsze firmy mają sieci wewnętrzne bez dostępu do internetu. Serwisy chmurowe poza tym, że sprawiają, że oddajesz zewnętrznej firmie tajne dane (dla firm nie do zaakceptowania) to jeszcze narażasz się w sposób okropnie łatwy dla atakującego (atakując jeden cel (serwis chmurowy), zyskuje dane na raz wielu osób i firm... dlatego serwisy chmurowe tak szybko padają (i to niezależnie czy dropbox, sony, asus czy innej firmy), bo są atrakcyjnym łupem).

Napisano

Z ta chmura i oczekiwaniami w stylu "na razie jest kiepsko, ale zobaczysz za kilka lat" to mi przypomina lata 80te jak w telewizji fantazjowali ze w roku 2000 to samochody beda latac a ludzie beda w jakims SF zyli :D

Napisano

Rozwój jest, tylko postępujący i niewielu udaje się go przewidzieć. Dla ludzi w latach 80 video-rozmowa z kimś na drugim krańcu globu za pomocą urządzenia które mieści się w kieszeni to było SF. Od paru lat to codzienność która nikogo nie dziwi.

 

Moc obliczeniowa z chmury kiedyś pewnie nadejdzie. Tylko obstawiam że to nie będzie Adobe Cloud tylko coś bardziej podobnego do BOINC, czyli przeliczeń rozproszonych. Są dziesiątki sposobów na wysyłanie pakietów obliczeniowych, nie trzeba przy tym uwzględniać całych danych, można tylko te na których ma się skupić jednostka licząca. Przynajmniej zdroworozsądkowo do takiego działania powinno się dążyć przy przeliczaniu rozproszonym.

Napisano (edytowane)
Z ta chmura i oczekiwaniami w stylu "na razie jest kiepsko, ale zobaczysz za kilka lat" to mi przypomina lata 80te jak w telewizji fantazjowali ze w roku 2000 to samochody beda latac a ludzie beda w jakims SF zyli :D

Jakby nie było... w takim SF teraz żyjemy ;p. Przykładowo "Powrót do przyszłości", który przenosil widza do 2015 roku pokazywał takie cuda jak wideokonferencje (skype/hangout i masa innych), rozpoznawanie twarzy i głosu (jest i wykorzystywane od odblokowania telefonu twarzą, po policję ścigającą osoby, które zobaczyły kamery monitoringu w wypadku twarzy, a głos to Siri/Google Now itp.), okulary VR (od Google Glass, po Oculus czy okularki od Sony/Samsung), Multiscreening (no ba), tablety. Tak naprawdę to co w tym filmie się nie sprawdziło to... latające samochody (istnieją, ale nie ma ich w sklepach - już w 2017 ma wyjść do detalicznej sprzedaży kilka latających motorów (na bazie konstrukcji quadcopterów (dronów))), i latające deskorolki (testowane

). Czyli tak naprawdę nie za bardzo się pomylili (a wielu jeszcze bardziej rewolucyjnych nowinek które obecnie sa powszechne lub za horyzontem - chociażby street view (takie coś było nawet niewyobrażalne) czy samochody od Google jeżdżące bez kierowcy, czy prężnie rozwijające się hologramy, które niektóre sklepy w japonii czy usa wykorzystują jako reklamę w 3D). Gdyby człowiek z lat 80 przeniusł się do dzisiejszego czasu to czułby się jak w SF... dla nas to norma, bo w tych czasach żyjemy (dziś gdy chce na kanapie coś wyszukać w google to po prostu mówię do telefonu i mi odpowiada - kompletne SF jeszcze niedawno). Edytowane przez Skoti
Napisano (edytowane)
Nvidia GT210 (nawet CUDA jest na pokładzie :D)

 

GT210 kosztuje około 100zł... bardzo drogo. Nieporównywalnie lepszą opcją jest GeForce GT610 - czyli OpenGL 4.5, nowa wersja CUDA i wyższa wydajność, a takie GPU za 140zł już kupisz (na amazonie kartę OpenGL 4.5 można kupić za 40 dolarów - to ciężko nazwać zaporową ceną, dla kogoś chcącego zajmować się grafiką 3D).

Edytowane przez Skoti
Napisano
Jakby nie było... w takim SF teraż żyjemy ;p.

 

Hehe, mam ponad 40 lat, dla mnie zmieniło się bardzo wiele, dokładnie SF w porównaniu z dzieciństwem;)

Napisano

Ja dobiegam czterdziestki i o ile w wielu przypadkach na prawde nastapila kosmiczna zmiana (na przyklad pojemnosc nosnikow - kiedys przeliczylem ile dyskietek potrzeba bylo by zmiescic co dzis mamy w breloczku do kluczy :D. Albo predkosc procesorow, miniaturyzacja czy chociazby internet) to jakos zauwazam postepujace oglupienie. Myslalby kto, ze majac natychmiastowy dostep do niemal nieograniczonej WIEDZY (czasami ciezko ja zweryfikowac, ale jednak) ludzie jako ogol zaczna z tego korzystac i ogolny intelektualny poziom wzrosnie. Tymczasem zamiast rozwijac swoje zainteresowania, dowiadywac sie nowych rzeczy, chlonac wiadomosci z zakatkow swiata o ktorych nie mielismy pojecia ze istnieja co mamy? Zdjecia kotkow, "viral videos" o tym jak sobie ktos w tylek ognie sztuczne wsadzil i co z tego wyniknelo, mamy bezmyslne mazianie palcem po ekraniku w obsesyjnej checi sprawdzenia co 2 minuty ile lajkow ma juz zdjecie naszego posilku i tak dalej. Wiem, ze nie wszyscy tak robia, ale nie potrafie oprzec sie wrazeniu, ktore swietnie ujal Lem, kiedy powiedzial "nie wiedzialem ze na swiecie jest tylu idiotow dopoki nie poznalem internetu"...

Ostatnio odwiedzilem ogromne akwarium - na moich oczach osmiornica zmieniala kolory i ksztalty, meduzy majestatycznie unosily sie w wodzie jak stworzenia nie z tego swiata, mielismy wcale sporego rekina na wyciagniecie reki i moglem "przybic piatke" z plaszczka. Niesamowite. Niemal wszyscy ludzie - a przynajmniej zdecydowana wiekszosc - ogladali to wszystko na ekranikach swoich telefonow, mimo, ze tam byli. Skretynienie totalne jak dla mnie. I niezaprzeczalnie choroba masowa. Pewien pan oburzyl sie, kiedy mu powiedzialem, ze przyszedlem tu poogladac osmiornice a nie jego i-pada, ktory raczyl wetknac mi przed nos zaslaniajac wszystko bo najwidoczniej poczul sie fotografem...

 

Tak ze jasne, pelna zgoda co do niezaprzeczalnego postepu technologicznego. Tyle, ze w jakis magiczny sposob okupionego proporcjonalnym zidioceniem.

Napisano

A wracając do tematu OpenGL, znacie jakiś przykład gdzie można zobaczyć czym wizualnie różnią się kolejne wersje? Poczytałem sobie pobieżnie na wiki, ale duża część ficzerów kompletnie nic mi nie mówi. Patrząc na ankietę z blenderartist, nie sądzę żeby zdecydowali się na wyższą wersję niż zakładaną 2.1. Odcięliby prawie 10% userów (pomijam kwestię jacy to userzy). Skok z wersji 1 na 2.1 jest dla mnie widoczny gołym okiem. Do zrozumienia niuansów między wyższymi wersjami przyda się jakieś wyjaśnienie.

Napisano

i znowu widać jak mniejszość terroryzuje większość. Widać gołym okiem że ludzie od 2.1 to ludzie którzy kupili kompa i nigdy nic z nim nie robili i tak już im zostało i dla nich robić ?. A co oni takiego robią ? jakieś wielkie rzeczy, każdy narzeka na wydajność i tak jak wyżej pisano nawet u nas idzie kupić znośną kartę a jak już chcesz się zająć grafiką to jednak trzeba w coś zainwestować. Nawet na stronie apple nigdzie nie widać wzmianek o 2.1 najstarsza to 3.3 TU //// zaczyna się kolejne wciskanie kaktusa nie tam gdzie trzeba, może tak przeskoczmy z 1 na 1.2 OMG jaki przeskok normalnie skok technologiczny jak stąd do venus :mad:

Napisano
Odcięliby prawie 10% userów (pomijam kwestię jacy to userzy).

Z czego pewnie 5% użytkownicy MacOS ze sprzętem obsługującym nowe wersje (tylko blender pokazuje tam 2.1, bo taki tworzy kontekst... gdy blender stworzy kontekst 3.3 to będzie działać i taki zobaczysz), a 3-4% to osoby po prostu, ze starymi sterownikami (do sprzętu wspierającego 3.3), bo nie mieli takiej potrzeby - gdy będzie trzeba to zainstalują.

 

Skok z wersji 1 na 2.1 jest dla mnie widoczny gołym okiem. Do zrozumienia niuansów między wyższymi wersjami przyda się jakieś wyjaśnienie.

Jaki skok? Wersji 2.1 Blender używa od lat. Teraz po prostu postanowili wywalić kod dla starszych wersji - nie jest to żaden skok, a po prostu oczyszczenie kodu ze staroci.

Napisano
jeśli to jest 2.1 to dziękuję za taki postęp

OpenGL 2.1 wprowadził tak na dobrą sprawę tylko GLSL 1.2 i względem starszych OpenGL niż 1.5 gwarantuje VBO (1.5 gwarantuje, a 2.1 dziedziczy to). Blender od początku obsługi GLSL obsługuje wersje 1.2 (od jakiegoś czasu GE obsługuje 1.3 jeśli dostępne).

To oznacza jedynie to, że będzie można wywalić kod dla kart bez shaderów (wykorzystujący multitexturing jeszcze na fixed pipeline), i daje możliwość wyrzucenia kodu dla kart nie obsługujących VBO (do teraz VBO było opcjonalne, a jeśli nie było to był kod, dla zabytkowych kart z początku lat 90 ;p). OpenGL 2.1 ogólnie nic nie dodaje do tego co blender obsługiwał... po prostu odejmuje konieczność dbania o karty starsze (IMHO stanowczo za nisko ten limit minimum ustanowiony, bo 2.1 już dziś praktycznie nie istnieje).

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności