Zawartość dodana przez Skoti
-
NDo2 - tworzenie map normalnych w Photoshopie
"Normalna" to termin matematyczny z działu Geometrii Analitycznej i oznacza wektor prostopadły do płaszczyzny i stąd też jest nazwa tych wektorów w programach graficznych - w matmie ułatwia zapis równania płaszczyzny (bo zamiast 2x wektorów (tangent i binormal) należących do płaszczyzny i punktu wystarczy tylko normalna i punkt, żeby opisać płaszczyznę - a dodatkowo ułatwia wiele obliczeń), w grafice dodatkowo łatwiej obliczyć oświetlenie (które według praw fizyki (w której też termin normalna obowiązuje) promień odbija się względem normalnej pod takim samym kątem jak pada) - w grafice najczęściej używa się map w TBN (Tangent, Binormal i Normal) ze względu na to, że deformacja siatki w 3d nie modyfikuje normalnych (TBN jest zależna tylko od UV). "Tworzenie map normalnych" to jak najbardziej poprawna forma, bo chodzi o tworzenie mapek z zapisanymi na niej normalnymi wektorami do powierzchni w punkcie. @comander_barnik: "Normala" to nie dość, że nie poprawne to strasznie sztucznie brzmi.
-
MyPaint 1.0
Nie dostaniesz ich mimo, że nie brak ich zarówno na tym forum, jak i tym co podałeś, bo to żadna metodologia i żadnej tezy tak nie potwierdzisz, ani nie obalisz (co będziemy podawać setki przykładów skończywszy na oficjalnych galeriach jak http://www.corel.com/corel/product/index.jsp?pid=prod4030123#tab6 ?). Ciekawe byłyby ankiety prowadzone przez wielkie portale jak cgsociety lub jakiekolwiek inne badania na wielotysięcznej próbie - przynajmniej można by liczyć na minimalne odzwierciedlenie rzeczywistego stanu. Mylisz się mówiąc o mojej opinii - moja opinia brzmi "nie wiem jakie są udziały w rynku", mimo, że większość osób które znam korzysta z paintera. Twoje zdanie oznajmia za to, że wiesz jakie są udziały pisząc "wszyscy" i "każden jeden" - założyłem, że znasz jakieś ciekawe i rzetelne statystyki które mówią o przytłaczającej większości (bo jasne jest, że nie wszyscy korzystają z PS), dlatego o nie poprosiłem - jednak niestety nie masz takich i opierasz swoje zdanie jedynie w oparciu o swoje wrażenia w oparciu o przeglądanie galerii na jakimś portalu (gdzie większość prac nigdy nie ląduje na żadnym forum czy galerii internetowej, a jedynie w wersjach drukowanych, lub jako koncepty wewnątrz firmy które nie wychodzą poza jej mury). Marne to badania i absolutnie nic nie świadczą o rynku więc na przyszłość przestań używać tak mocnych słów jak "wszyscy" gdy nawet nie masz danych czy program ma większość rynku, a nawet czy nie ma innych popularniejszych.
-
MyPaint 1.0
@KarolGniazdowski: pytałem o jakieś statystyki, a podajesz kilka przykładów... tak to można nawet udowodnić, że graficy korzystają tylko z painta. Ale przynajmniej teraz jasne, że to co mówisz opierasz na subiektywnych obserwacjach i swoim wyrobionym zdaniu w oparciu o małą próbkę, a nie o fakty.
-
MyPaint 1.0
@KarolGniazdowski: Może podzielisz się statystykami, bo każdy masz zapewne na myśli pewnie przytłaczającą większość... co jednak przeczy się moim spostrzeżeniom, bo większość osób które ja znam korzysta z Corel Painter, a nieliczni z PS. @Do_niedziałającego_Mypaint: nie wiem jak pod Windowsem, ale pokazuje mi paczka, że wymaga zainstalowanych pygtk python2-numpy protobuf-python python2 - jeśli ktoś nie ma siły się z tym użerać (ja bym nie miał dla mypainta ;p) to niech poczeka na poprawione paczki, które będą działać out-of-box (możliwe, że osobą którym działa starsza wersja której używały doinstalowała moduły pythona, których ta przygotowana na szybko jeszcze nie ma).
-
Szybkie odpowiedzi na proste pytania. Blender Q&A
W blenderze instancje robisz zamiast shift+d (kopia), za pomocą alt+d (instancja), ale nie wiem czy Cycles nie robi i tak kopii (musiałbyś się dowiedzieć czy obsługuje instancje czy przed renderingiem robi kopie obiektów)
-
Blender - NEWS oraz dyskusje
Z którego bo podałem screeny 2ch, i działa (sam testowałem) - domyślnie robi trójkąty, ale jak odznaczysz Triangulate to będzie zapisywał polygony bezpośrednio w znacznikach lub (nie pamiętam którą opcję który eksporter używa (w sumie to nieważne bo to tylko sposób zapisu w pliku polygonów) - blender 2.6 korzysta z polylist, a 2.4x korzystał z polygons), zamiast przetwarzać je na trójkąty i zapisywać w znaczniku . Odznacz triangulację (trójkątyzację?) i będziesz miał poly.
-
Blender - NEWS oraz dyskusje
Zarówno Autodesk Collada (którego nie polecam), jak i OpenCollada eksportuje wielokąty (n-gony - w blenderze powyżej 4 robi triangulacje - przynajmniej do czasu bmesh), tylko odznacz Triangulate (przerabianie siatki na trójkąty), a w blenderze 2.6 masz mas Tris to Quads (alt + j) Opcję Triangulate masz zarówno we wbudowanym eksporterze (http://download.autodesk.com/us/fbx/20102/3dsmax_online/images/MED/FBX/Tower/3dsMax-PLG/English/figures/max_collada.png) jak i w OpenCollada http://img707.imageshack.us/img707/9507/46133530.png Blender 2.5+ zawsze traktuje siatkę jako wielokąty przy eksporcie (trójkąt to wielokąt o 3 wierzchołkach, a nie osobny prymityw trójkąt).
-
Blender - NEWS oraz dyskusje
Możesz powiedzieć w takim razie dlaczego używasz obj (który jest formatem w którym tracisz wiele informacji - nawet takie podstawowe jak kilka materiałów czy kilka UV)? Użyć bardziej uniwersalnego formatu jak Collada to z animacją kamery, siatki za pomocą kości, czy świateł nie będziesz miał żadnego problemu (miałbyś w obj bo ten nie obsługuje animacji). OFC z maxem jest tu trochę problem bo natywna obsługa Collada w nim ssie (doinstaluj sobie zewnętrzny plugin z http://opencollada.org/download.html).
-
Blender Cycles dla Mac
@deshu: Co to za wielowątkowość na 2x core? Tu to nawet najszybszy może się okazać XP, który praktycznie nie zna pojęci wielowątkowości i powyżej 2x wątków sobie nie radzi (dopiero w Vista i 7 poprawili wielowątkowość, mimo, że dalej kuleje). Znaczną różnicę za to na korzyść MacOS zauważysz przy renderingu na maszynach 4, 8 wątkowych i więcej (jeszcze większą na Linux).
-
Blender Cycles dla Mac
Bez przesady, nie jest może tu liderem, ale ma przyzwoite implementacje SMP i sprawny scheduler i jest tu od Windowsa obiektywnie lepszy (podobnie jak MacOS jest gorszy tu od BSD, który sobie radzi słabiej niż Linux...). Jednak Windows ma siłę marketingu i wielkości targetu, dzięki czemu wiele programów jest Windows-only i wiele osób jest zmuszonych do korzystania z niego (a instalując Windows na Macbooku robisz z niego po prostu zwykłego laptopa, za którego kilkukrotnie przepłaciłeś).
-
Blender Cycles dla Mac
@deha21: Ceny rozciągają się od 5k do 11k zł ( http://store.apple.com/pl/browse/home/shop_mac/family/macbook_pro ) i nie da się ukryć, że z taką konfiguracją można mieć laptopa za znacznie niższą kwotę, lub znacznie lepszy - to nie jest kwestia tego czy jesteś fanem marki czy wręcz przeciwnie - takie są fakty. Porównanie do 2ch różnych samochodów jest słabe - porównanie bardziej trafne, to to samo auto, z tymi samymi podzespołami pod maską (dokładnie ten sam silnik, ta sama skrzynia biegów, takie same hamulce...), tylko inna tapicerka, czy inne materiały wykończeniowe (nie tyle, że w którymś jest lepsza, a po prostu inna). Warto powiedzieć, że komputery Apple produkuje firma Foxconn, która robi też komputery np. Dell. Co do lepszego działania Apple to może być to zestawienie kilku przyczyn: - Różnica systemów operacyjnych - Windows słabo radzi sobie dalej z wielowątkowością, przydzielaniem zadań na wątki i zarządzeniem pamięcią, dlatego, MacOS może tu być po prostu lepszy (a od niego lepiej sprawują się jeszcze Linux czy BSD, ale to inna bajka). - Różnica świadomości użytkownika - działanie systemu operacyjnego jest w dużej mierze zależne od świadomości użytkownika i to w jakim stopniu go spowolni (dowiedziałem się jak MacOS może wolno działać, kiedy na miesiąc MacBooka go pożyczyłem osobie która nie ma o tym systemie pojęcia). - Placebo - nie bierz tego do siebie, ale możesz odczuwać różnicę, ze względu na podświadomą informację, że był droższy i jest lepszy... nawet gdy tak nie jest.
- Blender 2.60
- Blender 2.60
-
OpenGL 2.1 i 3ds max Praca inżynierska
Nie jest oznaczona jako DEPRECATED tylko wyleciała ze standardu w OpenGL 3.1 (jak i wszystkie funkcje typu glRotate itp.) i teraz są wspierane tylko jako niezobowiązujący Compatibility Profile (żeby mieć wsparcie dla OpenGL 3.1+ trzeba mieć tylko Core Profile), i mimo, że jak włączysz profil kompatybilności to dalej działa to w standardzie OpenGL (Core) już tego nie ma i wątpię, żeby była w urządzeniach mobilnych które zapowiadają wsparcie dla OpenGL 4+, pod koniec przyszłego roku (urządzenia które pracują teraz pod OpenGL ES 2.x raczej nie będą chciały implementować wszystkiego, a zrobią tylko to co konieczne). Dobrze, że napisałeś, ze niektórzy - pomimo, że mam doświadczenia takie, że programując dekady w C musiałem się uczyć na uczelni języka C od osoby która rozpoczynała naukę 2 lata przed zajęciami i niezbyt orientowała się w standardzie C99, a wykładowcy OpenGL utknęli w latach 90, to mimo takich przykładów jest cała masa osób, które są negatywem niechlubnych przypadków.
-
Optymalizacja Blendera
Ja używam Linuxa 64bit, ale ogólnie to ważne jest dla Ciebie, żeby system mógł alokować na proces większą ilość pamięci, a tu będzie dobry tak jak pisze Lucas każdy 64bit system (jeśli będzie Ci zależało na szybszym renderingu, lepszym zarządzaniu wątkami i schedulerem to można by się zastanawiać na konkretnym (i ze wspieranych przez Blendera Windows/MacOS/Linux/*BSD rodzinę Windowsów to tu najgorsza opcja (jednak wybór nie samą szybkością się rządzi i ze względu na inne programy możesz być wręcz zmuszony do wybrania go jako najlepszego kompromisu))).
-
Optymalizacja Blendera
Najlepiej przetestuj inne drzewa akceleracji (w zakładce render, w grupie Performance) - niektóre będą szybsze, inne będą wykorzystywać mniej pamięci (przez co zapewne wywala) - no chyba, że np. masz 32bit system operacyjny i kilka GB pamięci to najlepiej zmienić system (32bitowe ograniczają program tak, że nie może wykorzystać więcej niż niecałe 2gb z tego co pamiętam).
-
OpenGL 2.1 i 3ds max Praca inżynierska
Bez problemu kupisz laptop z GPU nie obsługującym instancingu - wystarczy procek starszy niż najnowsza generacja intela (starszy niż SandyBridge, bo nawet i7/i5 pierwszej generacji nie będzie obsługiwać) i integra Intela o co wcale nie jest trudno. Dodatkowo możliwe, że musicie odpalić na uczelnianych kompach, a tam mogą być starsze karty Nie znam eksportera 3ds max (nie używam tego programu), ale co do samego formatu 3ds to nie używaj kości (format ich nie obsługuje), nie przekraczaj 65536 trójkątów (więcej format nie obsługuje).
-
OpenGL 2.1 i 3ds max Praca inżynierska
1. Na GLUT ofc nie ogranicza jeśli chodzi o wygląd i jeśli jest użyty tylko do utworzenia okna to jeszcze ujdzie, tylko po co się z nim męczyć skoro są ciekawsze alternatywy ;p. WinAPI też może być jeśli chcesz tylko zrobić okienko, podpiąć OpenGL i zapomnieć (jednak jeśli chcesz dorobić GUI to lepiej odstawić WinAPI daleko i zainteresować się QT/Wx). 2. Nie ma takiej funkcji jak glLookAt - jest gluLookAt, a całe glu* zniknęło razem z OpenGL 3.0 więc lepiej się nie przyzwyczajać (tzn można użyć jednej z bardzo wielu bibliotek matematycznych z obsługą macierzy i tam też będziesz miał implementacje LookAt - np. w Configurable Math Library (http://cmldev.net/) masz funkcje cml::matrix_look_at_RH(), albo w GLM (http://www.g-truc.net/project-0016.html - trochę dziko napisana biblioteka, ale plusem jest składnia z shaderów GLSL) masz glm::lookAt()). Jednak to nie zmienia tego, że korzystając z jakiegokolwiek LookAt faktycznie transformujesz scenę, a nie kamerę - w shaderze wierzchołków przygotowujesz pozycje wierzchołka do operacji na fragmentach/pixelach - musisz dostarczyć macierze projekcji (nazwijmy Proj), później macierz widoku (View), dalej macierz Modelu (Model) i wektor 4-elementowy pozycji (POS = vec4(x, y, z, 1)) i przekazujesz iloczyn do gl_Position gl_Position = Proj * View * Model * POS bez shaderów w starym OpenGL ofc robisz to samo, Proj (GL_PROJECTION) ustawiasz za pomocą gluPerspective/gluOrtho, View i Model są połączone (GL_MODELVIEW) i ustawiasz za pomocą gluLookAt (View), a później to przemnażasz przez macierz Model (glRotate/glTranslate/glScale). Czyli ogólnie rzecz biorąc zasada jest ta sama i ruszasz nie kamerą, a światem (kamera jest zawsze w punkcie (0, 0, 0) i siatka jest przekształcana tak, zeby być widoczna przez kamerę, a nie odwrotnie);
-
OpenGL 2.1 i 3ds max Praca inżynierska
1. GLUT jest złym pomysłem - radziłbym zainteresować się SDL lub GLFW. 2. Zarówno dokumentacja do bibliotek fizycznych jak i przykłady są łatwo dostępne i dosyć jasne - ogólnie na początku tworzysz świat fizyczny (w Bullet masz np. zmienną typu btDiscreteDynamicsWorld której ustalasz jaki algorytm ma być wykorzystywany przy liczeniu kolizji czy ustalasz grawitację (wartość jak i oś w której działa (zazwyczaj Y lub Z))) - dalej w klasie w której masz załadowane *.3ds dajesz obiektowi poza siatką zmienną jak np. btRigidBody (czyli bryła sztywna) i ustalasz tarcie, masę (w bullet wartość 0 to obiekt statyczny) i inne fizyczne oraz kształt (kształt jest ważny ze względu na wydajność - jeśli całą scenę potraktujesz jako siatka to procesor się nie wyrobi - dlatego np. małym obiektom dajesz kształt box/sphere/capsule (wartości możesz podawać ręcznie lub odczytać takie jak wysokość/szerokość/długość czy promień będziesz miał jak przelecisz w pętli wierzchołki modelu i zbierzesz informacje o wartości maksymalnej i minimalnej dla każdej osi (różnica max-min to wielkość modelu w danej osi (oraz podwójna wartość promienia kuli opisanej na modelu)))) - jeśli chcesz mieć dokładniejszy kształt to masz też obrysy wypukłe czy dokładny kształt siatki (do utworzenia obu podajesz podobne dane jak do utworzenia VBO - czyli siatkę)... dodajesz to do świata (dynamicsWorld->addRigidBody(RigidBody);) i co klatkę świat aktualizujesz (w bullet dynamicsWorld->stepSimulation(...);), a przy rysowaniu obiektu ze zmiennej odczytujesz macierz (RigidBody->getWorldTransform().getOpenGLMatrix(macierz);) i już masz całą fizykę - ofc dla innych typów obiektów niż bryła sztywna robisz to trochę inaczej, ale zasada pozostaje ta sama (i wszystko masz w dokumentacji). 3. Jeśli chcesz obyć się bez shaderów to albo wypalisz lightmapy (tylko nie liczyłbym na to, że 3ds przechowa Ci więcej niż 1 UV więc słabo), albo będziesz miał listę świateł i sortując względem najbliższych włączysz te 8 które są najbliżej - jeśli chcesz użyć shadery to deferred shading (renderujesz Gbuffory do multi render targetów (polecam FBO (Framebuffer Object) w którym na raz w jednym shaderze możesz pisać na raz do 8 tekstur) w fazie geometrii i w fazie oświetlenia możesz mieć nawet tysiące świateł, a nie wpłynie to znacząco na wydajność). 4. Bez shaderów Multitexturing i bawienie się z rozszerzeniem GL_DOT3_RGB_EXT lub z shaderami multiteksturing i napisanie shadera. 5. Nie pamiętam jakie/czy jakiekolwiek rozszerzenie SpecMap nie użyjesz bez shaderów - z shaderami to po prostu sobie wrzucasz jako n-tą teksturę w multitexturingu (masz do dyspozycji od GL_TEXTURE0 do GL_TEXTURE31) na uniformy. 6. Jeśli chcesz dosyć naturalny wygląd sceny (czytaj cienie wewnątrz budynku rzadko (nigdy) nie są ostre więc odpadają Ci Shadow Volumes) jeśli chcesz naturalny efekt uzyskać i pozostaje Ci Shadow Mapping i PCF (Percentage Closer Filtering), żeby mieć miękkie cienie - dla lepszego efektu (lepszej precyzji) skorzystaj z VSM (Variance Shadow Maps). 7. Bez shaderów praktycznie bardzo ograniczasz efekty, a te które da się uzyskać, zdecydowanie łatwiej osiągniesz korzystając z shaderów. 8. Zależy czy ogranicza Cię ilość obiektów czy rozmiary w pamięci - większa ilość pojedynczych obiektów będzie spowalniać komunikację CPU -> GPU, wiele razy ta sama siatka w jednym VBO zwiększy jego rozmiary - możesz też użyć instancingu, ale zapewne wymagania Ci się nie spodobają (GeForce z serii 8000 lub nowszej, Radeon HD 2k lub nowszy), ze względu, że bronisz się przed shaderami. Tak - warto się pokusić ;]. Ofc, że prosta geometria z normalkami będzie działać szybciej (ale też nie będzie taka ładna... tylko dla niewprawnego oka będzie udawać ładną).
-
Szybkie odpowiedzi na proste pytania. Blender Q&A
W "to do" (http://wiki.blender.org/index.php/Dev:2.6/Source/Render/Cycles/ToDo) jest zapisane "CUDA multi device", więc jest w planach, ale kiedy to będzie gotowe pewnie sam autor Cycles nie ma pojęcia.
-
Szybkie odpowiedzi na proste pytania. Blender Q&A
@n-pigeon: Możesz podać link informujący o porzuceniu? Bo z tego co pamiętam to stanęło na tym, że będzie włączony do trunka w 2.6x i będzie przez jakiś czas koegzystował z Cycles
-
Skróty klawiszowe - Blender 2.59
Widocznie jest jakiś bug (właśnie testowałem na kilka sposobów i po new dostałem ustawienia mayi (później był znowu problem z odzyskaniem blenderowych, bo nawet ładowanie fabrycznych ustawień i zapisanie ich jako domyślne nic nie dawało (pomogło usunięcie pliku "startup.blend" używanego do przechowywania standardowych ustawień))). W październiku wychodzi 2.60 i może naprawią to.
-
Skróty klawiszowe - Blender 2.59
@Mray: daj File -> Save User Settings (po File -> New ładuje się plik który zapisałeś przy pomocy "Save User Settings" - jeśli tego nie zrobiłeś uruchomi się ze swoimi standardowymi ustawieniami (do których zawsze możesz powrócić za pomocą File -> Load Factory Settings)).
-
Pluginy do exportu z blendera?
Blender nie obsługuje pluginów do eksportowania więc musisz szukać skryptów lub zintegrowanych eksporterów - masz buster (wymaga dodatkowych pluginów), masz coś typu blender-webgl-exporter - wymaga przeglądarki zgodnej z WebGL i jeszcze jest w powijakach, bo brakuje np. obsługi kości (Opera, Firefox, Chrome, Safari lub IE z zainstalowanym pluginem (podmieniającym silnik renderujący na WebKit z Chrome ;p)), a dalej to np. Collada czyli branżowy standard (w Blenderze jest ten eksporter częścią programu), który możesz użyć w wielu silnikach opartych o flashu czy niektóre WebGL - inne to już zależnie od danego silnika renderowania na stronie modelu musisz szukać konkretnego skryptu.
-
Jak otrzymać charakterystyki odbicia i rozproszenia światław z blendera?
@pawelhuta: Jeśli chcesz w miarę równe porównanie to użyj do backward raytracingu yafaray (direct lighting) i do forward raytracingu pathtracing z ustawieniami pathtracera na None i ilość sample i głębokość pathtracera na 0 (będzie robił wtedy zwykły raytracing, bo będzie 0 rozgałęzień ścieżek, ze względu na 0 sampli).