Skocz do zawartości

DX11 Demo i Radeon 5870


jefim

Rekomendowane odpowiedzi

  • Odpowiedzi 17
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

Top Posters In This Topic

Moim zdaniem nie ma tu nic, czego nie dałoby się osiągnąć na DX9 (a może nawet i 8?). Warto zapoznać się z demem "High Dynamic Range Image Based Lighting", ma już dobre kilka lat, a prezentuje właściwie te same rozwiązania graficzne, tym razem na OpenGL. (google: HDRIBL).

Odnośnik do komentarza
Udostępnij na innych stronach

hehe no fest porownanie trzech prostych obiektów do kilkudziesięciu jak nie kilku set z dofem i posprodukcja w czasie rzeczywistym. Mysle, ze gdyby wziasc na odwrot pokazac kilka lat temu to demo ludziom od dema proponowanego wyzej prze uzytkownika Maru. Tamci stwierdzili by ze lepiej pewnie bedzie jak sie zajma np sprataniem ulic bo w tym co robia sa beznadziejni :)

Odnośnik do komentarza
Udostępnij na innych stronach

W demie zaproponowanym przez użytkownika Maru też jest postprodukcja w czasie rzeczywistym i DOF (i to o wiele ładniejszy niż ten z linka na górze - jak się przyjrzysz to zauważysz że krawędzie obiektów poza focusem pozostają ostre). Ilość obiektów to akurat kwestia załadowania odpowiedniego mesha. Wizualnie poziom jest ten sam. Fizyka i ilość obiektów to już raczej nie jest kwestia graficzna, i nie ma CHYBA wiele wspólnego z DX11. Chodziło mi głownie o to że przyklejanie napisu DX11 do takiego dema nie ma większego sensu, bo to samo można było osiągnąć kilka lat temu na DX9 czy OpenGL. Poza tym Mirkowatemu szczerze gratuluję doboru avatara to składni i interpunkcji.

Odnośnik do komentarza
Udostępnij na innych stronach

moze słabo patrze, bo jest późno ale blada dupa z shadowless nie jest tak skomplikowana. pewnie phong z dodatkiem informacji zapisanych w wektorze ścianki dałaby taki sam efekt. szczegolnie ze obiekty na demo się nie ruszaja więc mogą mieć część informacji wypalonych (i zmiana nasycenia tła wcale w tym nie przeszkadza). ale moze mi sie zly filmik wyświetla, bo widziałem ten:

Odnośnik do komentarza
Udostępnij na innych stronach

@maru: To demo, które podałeś nie ma DoF (to, że cubemapa jest rozmyta, to wynik niskiej rozdzielczości, a nie postprodukcji) - jedyna postprodukcja tam to HDR (na pokazanym tu filmiku jest cała masa postprocess)). Problemem jest to, że w jest to statyczna wygenerowana wcześniej cubemapa ta sama dla wszystkich (trzech) obiektów, dlatego przez przezroczysty obiekt, nie widzisz innego obiektu, ani jego odbicia w obiekcie odbijającym światło - na demie z newsa każdy obiekt ma dynamiczną cubemapę (każda jedna to 6x renderingów offscreen * ilość obiektów), dodatkowo masz całą masę postprocess (które zabijają wydajność), gdzie w pokazanym przez Ciebie demie nie ma prawie nic.

Dla lepszego efektu zapewne użyli tekstur zmiennoprzecinkowych wyższej precyzji niedostępne dla sprzętu DX9, dodatkowo mogli skorzystać z deffered shading (MRT w DX9 pozwala na max 4 rendertargety, przez co mogli przejść wyżej do sprzętu DX10 gdzie jest 8 tekstur na raz renderowanych), a i instancing mógł być użyty, niektóre efekty mogły być wykonane na geometry shaderach. OFC nie widzę tu nic co nie dałoby się zrobić w starszych API, ale wynik byłby mniej dokładny i działałoby wolniej, jednak ofc się dało (inna sprawa, że wtedy nie było sprzętu, a teraz mamy lepsze API w postaci OpenGL 4.x i DX11.x które dają większe możliwości, przyspieszenia renderingu, względem starszych).

 

i to o wiele ładniejszy niż ten z linka na górze - jak się przyjrzysz to zauważysz że krawędzie obiektów poza focusem pozostają ostre

Akurat musieli specjalnie dodatkowo pisać smart blura, żeby tak to wyglądało (w przeciwnym wypadku to co powinno mieć ostre krawędzie będzie miało miękkie).

Odnośnik do komentarza
Udostępnij na innych stronach

Czyli to co widzimy np na tym screenie na kulkach to nie jest dof?

http://i11.photobucket.com/albums/a185/c152pilot/realtimeHDRIBL-1.jpg

 

Poberzcie HDRIBL i dopiero piszcie - tam jest MASA ustawień, można włączyć różne rodzaje postprocessingu, motion blur itp. A zresztą nie o to mi chodziło - chodzi mi tylko i wyłącznie o to co napisałem już tutaj kilka razy: to demo na DX11 nie pokazuje niczego nowego.

Odnośnik do komentarza
Udostępnij na innych stronach

@maru: ten screen co pokazałeś ma DoF i rozmywa krawędzie wszystkich obiektów (rozmycie ostrych krawędzi, które mają wpływ na nieostre fragmenty - taka nieostra poświata po najprostszym DoF czyli rozmyciu gausa wyrenderowanej klatki niezależnie od głębokości - brak inteligentnego rozmycia czy bokeh, tylko ordynarny gauss), ale co ten screen ma do tamtego starego dema od nvidii, którego kod mam na dysku? BTW tu też masz jedną mapkę środowiskową dla wszystkich obiektów i obiekty nie odbijają siebie wzajemnie, tak jak na tym demie. Tu jest jedna mapka jak w grze Driver z 99 roku, gdzie na samochody była nałożona mapka chmur, a tu jednak każdy obiekt ma indywidualne mapki co wymaga wyższej mocy obliczeniowej.

Odnośnik do komentarza
Udostępnij na innych stronach

A widzisz na tym screenie, w lewym dolnym rogu ekranu taki napis "depth of field: 3/4 6-blade iris"? Domyślasz się co to może znaczyć? Tak, brawo, bokeh! Akurat na tym screenie ma takie parametry że prawie go nie widać, ale jakby którykolwiek z was zadał sobie to minimum trudu i ściągnął HDRIBL to nie byłoby całej tej dyskusji. Nie rozumiem czemu za wszelką cenę próbujecie mi udowodnić, że się mylę. :D

Zgadzam się, do obliczenia wszystkiego co mamy na tym demie DX11 jest potrzebna duża moc obliczeniowa. I bardzo dobrze, bo teraz mamy mocniejsze komputery. Jednak oprócz większej mocy obliczeniowej, to demo nie pokazuje niczego nowego, a więc nie ma to dużego związku z DX11.

 

Skoti, przed chwilą pisałeś że w HDRIBL nie ma dofa - okazało się, że jest. Później napisałeś że nie ma bokeh - okazało się, że jest. Przed napisaniem kolejnego posta radzę wyciągnąć wnioski.

 

 

Odnośnik do komentarza
Udostępnij na innych stronach

W sumie idac tokiem rozumowania kolegi mozna by bylo zjechac w ten sposob kazda prace z fronta. Ktos pisze max 2012 vray 2.0 a my na to fest...!! nie ma tu niczego czego by nie mozna bylo zrobic 4 lata temu w maxie 2008 i vray 1.5. Nie zauwazylem w tekscie wzmianki, w ktorej bylo by napisane ze efekt nie jest do osiagniecia w zaden inny sposob. Zyjemy obecnie w czasach DX11 wiec moze dlatego nie dziwi ze demo jest w tym wlasie API. Ocenie mial byc poddany efekt z tego co tam pisze nie to w czym to zrobiono. Rozmowa zaczyna przypominac starcie fanow kolejnych wersji DX, tak ze proponuje koledze wymienic sie na zgode trzymanym na dysku pakietem DX 9 z kolegami bedacymi na biezaco haha

Pozdrawiam

Odnośnik do komentarza
Udostępnij na innych stronach

A widzisz na tym screenie, w lewym dolnym rogu ekranu taki napis "depth of field: 3/4 6-blade iris"? Domyślasz się co to może znaczyć? Tak, brawo, bokeh! Akurat na tym screenie ma takie parametry że prawie go nie widać...

Nie czytałem napisów i oceniałem to co widać, a jak sam zauważyłeś bokeh nie widać, a tym bardziej nie widać, żeby rozmycie miało kształt sześciokąta, jak sugeruje napis, a wygląda typowo dla gausa. Dlatego sam napis mnie nie przekonuje, bo robi i tak gausa (dodatkowo słaba wydajność, jak na kilka kulek, z tą samą teksturą i renderingiem do 16bitów na kolor (w tym demie wykorzystują 32bity na kolor)).

 

...ale jakby którykolwiek z was zadał sobie to minimum trudu i ściągnął HDRIBL to nie byłoby całej tej dyskusji

Musiałaby strona twórcy działać, musiałby napisać to w OpenGL i musiałby udostępnić build na linuksa, żebym to zrobił.

 

Zgadzam się, do obliczenia wszystkiego co mamy na tym demie DX11 jest potrzebna duża moc obliczeniowa. I bardzo dobrze, bo teraz mamy mocniejsze komputery. Jednak oprócz większej mocy obliczeniowej, to demo nie pokazuje niczego nowego, a więc nie ma to dużego związku z DX11.

Nie wystarczą mocne komputery, jeszcze trzeba skorzystać z jego możliwości, a DX9 na to nie pozwala:

- Nie możesz skorzystać z Instancingu, więc podobne obiekty, muszą być przesyłane osobno, zabijając wydajność,

- Nie możesz renderować do 8miu tekstur na raz (tylko do 4, więc aby zrobić deffered shading musisz renderować na raty i zejdzie 2x dłużej),

- Flary jak błyski na krawędziach, zapewne tu są generowane dynamicznie na GPU w geometry shaderach (w Dx9 musiałbyś to robić na CPU),

Tu wysiada DX9 i wymagałby dużo szybszego sprzętu do wygenerowania tego samego efektu, lub nawet gorszego. Jednak nie ma tu nic do czego przydałby się DX11 i DX10 by wystarczył... no chyba, że dalej brakowało wydajności i wąskim gardłem był procesor przesyłający dane do GPU przez jeden wątek, to użyli DX11 (pierwsze API, które pozwala na wielowątkowe renderowanie).

Ja wiem o co Ci chodzi. Widzisz, że nie ma teselacji to Dx9 da radę, ale zapominasz o tym, że nowinki, jak 3 nowe typy shaderów (obliczenia na GPU (co też mogli użyć do przyspieszenia postprocess), i 2 typy do teselacji) to tylko mała część zmian, a większość to rzeczy niewidoczne, ale najważniejsze, bo zwiększające wydajność.

 

OFC można mówić, że taki efekt można było uzyskać 50 lat temu licząc wszystko na CPU (tak jak w DX9), ale o to właśnie chodzi, że powstaje nowy specjalistyczny sprzęt i muszą być modyfikacje w API, aby go obsłużyć, olewając nowe API olewamy nowe możliwości sprzętu.

 

Skoti, przed chwilą pisałeś że w HDRIBL nie ma dofa - okazało się, że jest. Później napisałeś że nie ma bokeh - okazało się, że jest. Przed napisaniem kolejnego posta radzę wyciągnąć wnioski.

Nie mieszaj. Nigdzie nie pisałem, że w jakimś HDRIBL nie ma dofa - pisałem, że go nie ma w podanym przez ciebie pierwszym linku (to nie link z nagraniem HDRIBL, a demo Nvidii, w którym DoFa nie ma). Później faktycznie pokazałeś screen z jakiegoś HDRIBL, ale na to już Ci odpisałem.

Odnośnik do komentarza
Udostępnij na innych stronach

(to nie link z nagraniem HDRIBL, a demo Nvidii, w którym DoFa nie ma)

Fakt, mój błąd. Problem w tym, że rozwinięcie skrótu HDRIBL to High Dynamic Range Image Based Lighting, a taki tytuł właśnie miał podany przeze mnie filmik i to mnie zmyliło.

 

Nie wystarczą mocne komputery, jeszcze trzeba skorzystać z jego możliwości, a DX9 na to nie pozwala:

- Nie możesz skorzystać z Instancingu, więc podobne obiekty, muszą być przesyłane osobno, zabijając wydajność,

- Nie możesz renderować do 8miu tekstur na raz (tylko do 4, więc aby zrobić deffered shading musisz renderować na raty i zejdzie 2x dłużej),

- Flary jak błyski na krawędziach, zapewne tu są generowane dynamicznie na GPU w geometry shaderach (w Dx9 musiałbyś to robić na CPU),

Tu wysiada DX9 i wymagałby dużo szybszego sprzętu do wygenerowania tego samego efektu, lub nawet gorszego. Jednak nie ma tu nic do czego przydałby się DX11 i DX10 by wystarczył... no chyba, że dalej brakowało wydajności i wąskim gardłem był procesor przesyłający dane do GPU przez jeden wątek, to użyli DX11 (pierwsze API, które pozwala na wielowątkowe renderowanie).

Ja wiem o co Ci chodzi. Widzisz, że nie ma teselacji to Dx9 da radę, ale zapominasz o tym, że nowinki, jak 3 nowe typy shaderów (obliczenia na GPU (co też mogli użyć do przyspieszenia postprocess), i 2 typy do teselacji) to tylko mała część zmian, a większość to rzeczy niewidoczne, ale najważniejsze, bo zwiększające wydajność.

Fakt. Tak. Prawda. Zgadzam się. Nigdy nie napisałem że tak nie jest, ale ciągle podtrzymuję to, co napisałem na początku, czyli że taki efekt dałoby się osiągnąć na DX9 lub OpenGL (tak, innymi efektami i na innym sprzęcie), więc promowanie DX11 tym demem nie ma sensu.

 

W sumie idac tokiem rozumowania kolegi mozna by bylo zjechac w ten sposob kazda prace z fronta. Ktos pisze max 2012 vray 2.0 a my na to fest...!! nie ma tu niczego czego by nie mozna bylo zrobic 4 lata temu w maxie 2008 i vray 1.5. Nie zauwazylem w tekscie wzmianki, w ktorej bylo by napisane ze efekt nie jest do osiagniecia w zaden inny sposob. Zyjemy obecnie w czasach DX11 wiec moze dlatego nie dziwi ze demo jest w tym wlasie API. Ocenie mial byc poddany efekt z tego co tam pisze nie to w czym to zrobiono. Rozmowa zaczyna przypominac starcie fanow kolejnych wersji DX, tak ze proponuje koledze wymienic sie na zgode trzymanym na dysku pakietem DX 9 z kolegami bedacymi na biezaco haha

Pozdrawiam

 

Gdybym zacytował Twoją wypowiedź z poprzedniej strony, byłbym zmuszony zrobić błąd ortograficzny, więc napiszę sam: no comment.

 

Również pozdrawiam

Odnośnik do komentarza
Udostępnij na innych stronach

Fakt. Tak. Prawda. Zgadzam się. Nigdy nie napisałem że tak nie jest, ale ciągle podtrzymuję to, co napisałem na początku, czyli że taki efekt dałoby się osiągnąć na DX9 lub OpenGL (tak, innymi efektami i na innym sprzęcie), więc promowanie DX11 tym demem nie ma sensu.

Rozgraniczmy 2 rzeczy - w DX9 dałoby się to wykonać, ale działałoby to znacznie wolniej (a ma to być czas rzeczywisty, więc jest problem). Co do OpenGL to jak najbardziej dałoby się wykonać nawet więcej niż tu jest, bo poza tym, że sam OpenGL 4.2 to więcej niż DX 11.1, za tydzień zostanie wydana nowa wersja (8mego na Siggraph będzie nowy OpenGL ES, zapewne nowy OpenGL i inne API (przy okazji OpenGL obchodzi 20 lat)), a producenci sprzętu dają takie rozszerzenia jak Nvidia Bindless Graphics czy Bindless Texture (od Keplera), które można wykorzystać tylko z poziomu OpenGL i dają spore przyspieszenie.

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności