Skocz do zawartości

Blender Conference 2016


Monio

Rekomendowane odpowiedzi

Dzisiaj (28.10) rozpoczyna się Blender Conference. Żeby nie spamować w innych wątkach proponuje zgromadzić tutaj relacje na bieżąco, luźne dyskusje, rozmowy o dziurach grawitacyjnych. Zaczynamy o 11 od Keynote.

 

Schedule: http://www.blender.org/conference/2016/schedule

Streamy:

http://live.debalie.nl/1/

http://live.debalie.nl/2/

http://www.twitch.tv/mstuff

 

Na które prezentacje czekacie najbardziej?

Edytowane przez Monio
Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 34
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

Top Posters In This Topic

Using Blender in motorcycle and powerboat design

 

jako jestem akurat na ukończeniu studiów, projektowania yachtów i też w to chciałbym iść w przyszłości :)

 

 

Making of Saurora - Visual Effects

 

MAD Animation Studio: the Blender takeover

 

Point Density Texture goes Boom!

 

UV unwrapping gets an overhaul

 

Blender Italia Community

 

jako iż obecnie stacjonuje we włoszech to zdecydowanie!

 

 

Viewport 2.8: Oh the Possibilities!

 

 

 

no i oczcywscie lecha i bartka z przyjemnością posłucham, w sumie bardziej bartka, bo w sumie z lechem mam dość częsty kontakt więc :)

Odnośnik do komentarza
Udostępnij na innych stronach

Nie zebym byl Negative Nancy, ale o ile w przypadku ZbrushSummit jaram sie niesamowicie to w przypadku Blender Conference niebardzo :/ Mimo, ze wciaz Blendera uzywam DUZO wiecej niz ZBrusha w codziennej robocie. Raz, ze jesli chodzi o Blendera w zasadzie wszystko wiadomo na biezaco, wiec zaskoczen zadnych nie bedzie wiekszych, dwa ze zrazilem sie do tragicznego poziomu niektorych prezentacji na poprzednich konferencjach. Tematy ciekawe ale potem koles ledwo dukal po angielsku, mikrofon szumial, lapek sie rozlaczal...

 

ALE, zeby nie bylo - lubie konkrety. Czyli tak (kolejnosc przypadkowa):

- viewport w 2.8

- UV unwrapping gets an overhaul

- Cycles Roadmap presentation

- Smart slicing in Blender (nie wiem o co chodzi, zaintrygowalo mnie)

- Tipsy Sergeya

- Chocofur studio rendering techniques

 

Z rzeczy ktorych na pewno nie chce ogladac - Andrew i jego filozofie. Koles ma wiedze ale minal sie z powolaniem i powinien byc jakims marketingowcem. Ziew.

Gleb - tutaj pol na pol. Facet ma super prace, prywatnie jest bardzo pomocny ale na maksa mnie irytuje to kreowanie sie na blenderowe "celebrity" i staranie sie byc na luzie na sile. Caly ten trend celebrycki mnie wkurza. Oh tak Gleb, pokaz mi jeszcze jedno zdjecie twojej kawy na twitterze... WOW! Koniecznie dodaj, ze to nie jest zwykla kawa tylko nerd-kawa czy cos tam... Jakies to durnowate.

Odnośnik do komentarza
Udostępnij na innych stronach

Za kilka godzin będzie wykład na YT. Podlinkuje. Polecam zobaczyć bo to co zaprezentowali to jest game changer dla małych/średnich studiów. Blender w przeglądarce to jedno. Oni robią całą platformę gdzie będzie asset management, tracker, renderfarma i tak dalej. Przypomnę mózgiem operacji jest założyciel działu Character Animation w Dreamworks PDI więc zna się na rzeczy. ;)

Odnośnik do komentarza
Udostępnij na innych stronach

jeżeli będzie dało się odpalić blendera powiedzmy na ipad pro, a sama aplikacja jest uruchomiona powiedzmy na serwerowni czy na domowej stacji roboczej a ty sobie siedzisz u klienta na ipadzie, a bebechy to np 32 rdzeniowa stacja czy multi GPU.. i robisz rendering to game changer!.. idziesz do klienta.. i przy nim ustalacie wizkę kolor ścian światło i inne pierdoły w kilka minut przy kawie a nie pieprzysz się przez kilka dni mailami.. Albo targasz ze sobą laptopa za 8 tyś który i tak renderuje to wolno.

 

Pamiętam że nvidia na którejś konferencji pokazywała coś takiego

Odnośnik do komentarza
Udostępnij na innych stronach

chcialbym zobaczyc jak obslugujesz UI na ipadzie. Chodzi mi o to, ze sam koncept jest prosty do wykonania - witrualny monitor, ale z jakiegos powodu nikt nie idzie w to. Juz na surface krew mnie zalewa jak mam cos zrobic wydajnie bez klawiatury. A koncept pojscia z laptopem i wirt monitorem nie jest game changerem, ale faktycznie jest fajnym rozwiazaniem

Odnośnik do komentarza
Udostępnij na innych stronach

No wlasnie, czyli powiedzmy to taki TeamViewer, zadna rewolucja. Ale zapewne czegos nie rozumiem i cos mi umyka w tym wszystkim. Wybaczcie moja ignorancje, wiec jak ktos by mi to wylozyl dlaczego to taki gamechanger, skoro np wspomnianym przeze mnie teamViewerem mozna osiagnac to samo?

Odnośnik do komentarza
Udostępnij na innych stronach

Apki działają na serwerowniach Nimble. Masz platformę do zarządzania projektem. W softach są pluginy które pomagają ci z pipelinem, asset managementem, trackingiem itp. Masz też do dyspozycji renderfarmę.

Tak, wszystko już było. Rzecz w tym że nie jako jedna usługa. Nie musisz mieć ludzi od pipelineu, teamu IT, serwerowni, farmy i tak dalej, to wszystko właśnie ogarnia Nimble.

Odnośnik do komentarza
Udostępnij na innych stronach

On zgłosił buga (tudzież niezaimplementowany oczywisty ficzer) więc dali mi nacisnąć Enter. ;)

 

W temacie cyclesowych ficzerów. Blue noise dither to super sprawa. Daje dużo lepsze rezultaty przy takiej samej ilości sampli. Spokojnie będzie można ciachnąć ilość sampli o 1/3. Dodajmy do tego Denoiser który z takim inputem będzie pracował nieporównywalnie lepiej.

Krótko mówiąc- W przyszłym roki zetniemy czas renderu o połowę tylko za sprawą tych 2 ficzerów. :)

 

 

https://www.solidangle.com/research/dither_abstract.pdf

Edytowane przez Monio
Odnośnik do komentarza
Udostępnij na innych stronach

Wyglada smacznie. Z denoiserem to mam nadzieje, ze go dopracuja bo dotychczas zjadalo mi mase szczegolow - na przyklad odbicie swiatla na bevelnietych krawedziach. Blura sobie moge sam walnac bez szumnego nazywania go "denoiserem" ;)

Ale nie narzekam, duzo dobrego sie dzieje. Troche mnie smuci fakt ze rzezbienie w Blenderze zostalo jakby olane. Wiem, ze nie mozna wszystkiego na raz ogarniac ale jednak... Chyba ze wiesz cos wiecej na ten temat, @Monio?

Odnośnik do komentarza
Udostępnij na innych stronach

i bardzo dobrze że olali sculpt.. i zrozumieieli w końcu prawdziwe priorytety.

No, bo jakby cos do sculptu dodali to po prostu juz NIC innego by sie nie dalo zrobic :D

Z priorytetami to wszystko zalezy do czego Blendera uzywasz. Ile razy cos renderowales na przyklad pod VR? I czy wiecej osob skorzysta z rzezbienia w Blenderze czy z renderowania pod VR? Priorytety rozumiem, ale kazdy ma swoje i cieszy sie jak akurat priorytety devow sie pokrywaja z jego potrzebami. Ja tam nie mowie "a panie tego VR to powinni nie dodawac w ogole". Niech dodaja. Fajnie by bylo zeby nie olewali zadnego aspektu programu.

Odnośnik do komentarza
Udostępnij na innych stronach

Maciek- Zrozumieli da się wkleić blendera w mieszany pipeline. Tylko że nikt nigdy nie negował tego że blender ma być pakietem oferującym pełen pipeline. To jest jeden z fundamentów tego softu. To jakie są zasoby żeby to urzeczywistnić to już inna para kaloszy.

 

Z denoiserem to mam nadzieje, ze go dopracuja bo dotychczas zjadalo mi mase szczegolow
Głównie to kwestia bazowego inputu i ustawień z tego co się orientuje. Trochę sampli trzeba dać żeby to miało sens. Lukas odpoczywał od denoisera ostatnio (robiąc tuzin innych poprawek... ;) ) ale temat cały czas jest żywy. Jutro się dowiemy więcej jak idą postępy.

 

Troche mnie smuci fakt ze rzezbienie w Blenderze zostalo jakby olane.
Mnie też smuci. To samo co przy innych odpuszczonych rejonach blendka- Brak koderów którzy byliby w stanie i chcieli się tego podjąć. Nowy viewport trochę pomoże. Większa ilość geo, wydajniejsze czytanie inputu i shadery ekranowe (wydajne matcapy, cavity ala zbrush/mudbox).

 

Ten gość co dodał polypaint w ramach tegorocznego GSOC mógłby pociągnąć trochę temat. Tylko skąd wyczarować dla niego kasę? Te firmy które teraz wpompowały kasę na development wyznaczyły konkretne cele i żadna z nich o sculpt nie prosiła. Robimy crowdfunding? :D

 

 

Co do VR. Ogarnijcie tweety Tona z ostatnich tygodni. Wychodzi na to że blender uzyskał bardzo silną pozycje w tym segmencie i między innymi dzięki temu AMD jest tak skłonne teraz wspierać blendka. Opłaciło się. I nasz sculpt na tym skorzysta, rykoszetem w postaci wydajniejszego viewportu. ;)

Edytowane przez Monio
Odnośnik do komentarza
Udostępnij na innych stronach

W zasadzie dlaczegio by nie? :)

Zróbmy to. Serio. Tak powstało sporo rzeczy w blendku. Natomiast nie widziałem jeszcze żadnego dobrego proposala odnośnie updateu sculptingu. Wszyscy tylko narzekają na wydajność viewportu i ten głupi bug multiresa.

 

Tak imho powinien wyglądać plan:

1. Research. Co jest na oficjalnych blenderowych TODO. Co można ukraść z innych softów.

2. Robimy precyzyjnie spisany proposal co chcemy zmienić, dodać.

3. Wypytujemy devów jakie zmiany w core będą wymagane, ile co może zająć czasu i ilu trzeba będzie koderów (różne specjalizacje) itp, itd. To musi być technicznie wykonalne.

4. Modyfikujemy proposal, rozbijamy na logiczne sub-taski, milestony.

5. Powtarzamy punkty 3 i 4 aż do skrystalizowania proposalu.

6. Prezentujemy community, developerom i Tonowi. Prosimy żeby Ton uruchomił kontakty.

 

Tyle ze jak nie bedzie kto mial sie tym zajac to i kaska nie pomoze..
Duży wpływ może mieć dobrze skomponowany proposal. Nikt poważnie nie będzie traktował "Zróbcie zajebisty sculpting jak w zibraszu". Dobrze wykonany projekt nie będzie straconą robotą. Jak nie będzie możliwości zrobić go w przyszłym roku to może wypali za 2 albo 3 lata. Nigdy nie wiadomo kiedy pojawi się jakiś koder zajarany sculptem.

 

Dwie opcje:

A. Działamy zachowawczo i stwierdzamy że "To nie wyjdzie". Czekamy X lat aż ktoś, kiedyś, może, w ogóle podejmie tą inicjatywę za nas.

B. Przejmujemy inicjatywę. Inwestujemy kupę czasu i energii aż do momentu kiedy sculpt w blendku będzie na poziomie state-of-the-art. ;)

Co wybierasz?

Odnośnik do komentarza
Udostępnij na innych stronach

Co wybierasz?

Nigdy nie pisalem zadnego proposala, ale wybieram kupe ;)

Z tym, ze z czasem u mnie roznie wiec zadnych deadlinow prosze. Zwlaszcza jesli chodzi o "kupe czasu" to slabo to widze. ALE postaram sie tak szybko jak bedzie to mozliwe. Od czego zaczynamy? Risercz? Pomysly na ficzery? Jak to rozwiazac technicznie? Jakis doc googlowy ktory moze edytowac wiele osob? Zeby tu nie zasmiecac mozesz pchnac wiadomosc na priva.

Edytowane przez Nezumi
Odnośnik do komentarza
Udostępnij na innych stronach

Tak po prawdze to czego blenderowy sculpt potrzebuje. Wg mnie najwiekszym problemem jest wydajność viewportu. Dyntopo to max 1mil. To pozwala na blockout i jakis middetail. Czyli do mobile development jest spoko, ale jakakolwiek modyfikacja modelu po skonczeniu nie jest możliwa.

1. Potrzebujemy jakiegos sposobu do rotacji/skalowania/translacji. Czyli system masek+widget zbrushowy (oczywiście może być na to jakiś inny patent).

2. Coś więcej niż middetail z ostrymi krawędziami to z 10-20mil tris. Z tego co się orientuję na procesorze bez jakichś wymyślnych technik tj zbrushowego viewportu, nie da rady tego osiągnać. Pozostaję technologia nvidii. Nie pamiętam jak to się nazywa ale pozwala wyświetlać tyle ile ramu+vramu mamy w pc. W blenderze to jest, przy odpowiednim subdivie pozwala osiągać ale od jakichś 10mil do 200mil trisów wydajność jest koszmarna ;) No ale to wymaga nowego multiressa.

3. Brushe, micromesh, noisemaker.

 

Zacząłbym od proposala który pozwoli wykorzystać tech nvidii, czyli multiress od nowa.

 

@edit, właśnie tak pomyślalem że jakby zrobić sculpt w oparciu o cude to użytkownicy amd będą protestować ;/

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności