Skocz do zawartości

Rekomendowane odpowiedzi

  • Odpowiedzi 31
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

Top Posters In This Topic

Napisano

ta karta to jest porażka news o niej stary jak świat... jest szybsza 0 20% od titana... śmiech i płacz po prostu... Chłodzenie nie wyrabia.

 

co do pamięci...

 

Co to jest?

– Dwa tysiące kolumbijskich pesos.

– To nie jest dwa tysiące pesos, tylko dwa razy po gówno warte tysiąc pesos!

– No tak! A jaka to różnica jest?

Napisano
no Azbesty a chleb kroi 70% wolniej od noża.

 

ojezu jest koleś na BA który wcześniej miał GTX titana i teraz kupił tą Z'etkę.. zrobił ten sam render no i cyferki same mówią za siebie porażka.

Napisano
ojezu jest koleś na BA który wcześniej miał GTX titana i teraz kupił tą Z'etkę.. zrobił ten sam render no i cyferki same mówią za siebie porażka.
Na Octanie mógłby przetestować, najbardziej rzetelny wynik, bo jednak Cycles jest wolny, jeszcze fest rzeczy do zoptymalizowania tam jest. (zdanie wielokrotnie złożone)
Napisano
Na Octanie mógłby przetestować, najbardziej rzetelny wynik, bo jednak Cycles jest wolny, jeszcze fest rzeczy do zoptymalizowania tam jest. (zdanie wielokrotnie złożone)

 

karta jest mocna tylko na seryjnym chłodzeniu gdy to wszystko startuje to zaraz stopuje bo chłodzenie nie wyrabia po prostu ;/ co do octane to pełna zgoda dużo lepiej wykorzystują najnowsze możliwości kart.

Napisano
co do pamięci...

 

Co to jest?

– Dwa tysiące kolumbijskich pesos.

– To nie jest dwa tysiące pesos, tylko dwa razy po gówno warte tysiąc pesos!

– No tak! A jaka to różnica jest?

Utrafiles zarcikiem jak kula w plot. Proponuje dowiedziec sie jak karty wieloprocesorowe lub SLI wykorzystuja pamiec zanim rzucisz kolejny :P

Napisano

OH czekaj czyli twierdzisz że SLI podczas renderingu np w Octane albo Cycles. powinno być włączone? I może mi jeszcze powiesz że Jak mam np 2x GTX 780 3 gigowe to mogę na nich renderować sceny 6 gigowe? bo przecież 3+3=6?

 

A ja przez całe życie się myliłem.

Napisano

Mam wrażenie że rozwój kart graficznych wchodzi na tą samą drogę co procesory 10 lat temu. Dochodza już do ściany miniaturyzacji tych samych starych architektur. Tesla, Kepler, same shit, to kosmetyka. Na razie wychodzi że mamy przyrost mocy rzędu 30-40% z roku na rok ale pewnie lada moment będzie to 10-20%, strzelam że już w przyszłym roku 980 będzie miało takie osiągi. Oczywiście przy co raz to większych rozmiarach, temperaturach i zapotrzebowaniu na prąd.

 

Gdzie do cholery AMD z ich głośno zapowiadanym APU? Albo w druga stronę- kiedy układy ASIC do liczenia raytraceingu wyjdą z laboratoriów i trafią na półki sklepowe? To by była dopiero rewolucja w grafice.

Napisano

nieszczęśliwie AMD od kilku lat najwiecej inwestuje w dział prezentacji powerpoint ratując kursy akcji.

obecne GPU to naprawdę ciekawa sprawa, ale coraz mniej nadają się do przetwarzania grafiki w sposób jaki chcemy ją przetwarzać.

 

ASIC's byłyby super ale widać, że grafika interesuje wszystkich tylko jak trzeba pokazać coś na prezentacji. Ale kto wie moze Cameron przy Avatarze wlasnie takie posiada ;)

Napisano

A mógłby ktoś podać kartę graficzną z wcześniejszych lat, która w porównaniu do kart wydanych rok wcześniej totalnie połamała im kości?

No miała wydajność powiedzmy 80% lepszą.

Nie mogę sobie przypomnieć takiej sytuacji.

Ja to widzę tak, że zawsze ta wydajność wzrastała mniej więcej o tyle ile w przypadku tej karty i kazali za nią płacić krocie, wszak to nowość!

 

Ale nigdy tak dokładnie nie śledziłem rynku więc chętnie bym się dowiedział kiedy to został odnotowany taki skok w wydajności GPU.

Napisano

Były takie skoki. GTX7800 vs GTX8800. Nawet 230% większa wydajność tego drugiego. Karty dzieli rok z hakiem. Ale to było 8 lat temu. ;)

Napisano

Ano właśnie, to było bardzo dawno, obecnie chyba skończyły się rozwiązania.

Jedyne wyjście to pakować więcej kart w jedna kartę, ze tak to nieprofesjonalnie ujmę :D

Tylko kto zapłaci za prąd!

Napisano

co nie zmienia faktu, że hardware jest 10x szybszy niż X lat temu, a algorytmy nie. Oczywiscie upraszaczam, ale przesiadam się na realtime 3D powoli i widzę przepaść miedzy wykorzystaniem kart, a ich możliwościami przy lepszym algorytmie.

Napisano

To fakt. Wystarczy popatrzeć na takie technologie jak OpenSubdiv który potrafi przyśpieszyć animacje nawet 30 razy na dokładnie tym samym CPU (nie wypominając o 400 razy szybszej animacji z wykorzystaniem GPU bo mówimy o nowych algorytmach na tym samym sprzęcie). Albo Realtimowe Global Illumination od Enlighten i ARM na mobilkach które oferuje to przy czym 2 lata temu krztusiły się dwa GTX 580. Odpowiednia architektura zarówno softu jak i hardwareu jest kluczem, pakowanie większej ilości tranzystorów to ślepa uliczka.

 

To by było dopiero "CUDA" gdyby karty grafiki miały dedykowane układy do obliczania raytaceu. Miner bitcoinów wielkości pendrivea i zasilany przez usb może osiągnąć wyniki lepsze od topowej grafiki za 3 tysiące dolców pobierającej n-razy więcej mocy. Jestem przekonany że dałoby się już dzisiaj zrobić akcelerator grafiki generujący w czasie rzeczywistym grafikę o jakości filmów. Ile mocy jest wytracane na samo wygenerowanie liczb losowych metodą monte carlo... Przecież na hardwarze wygenerowanie randomu dałoby się to mieć niemal za darmo na sto sposobów.

http://en.wikipedia.org/wiki/Hardware_random_number_generator

Napisano

zastanawia mnie czy przypadkiem avatar2 albo podobny rozmachem film nie mają w uzyciu takiej technologii (dedykowanych chipow). Ale NDA chroni taką wiedzę.

Napisano

Nie zdziwiłbym się. Przy pierwszym Avatarze opłacało im się napisać od podstaw własny algorytm GI. Dla form robiących renderery takie coś to lata reaserchu. W przypadku tak ogromnej produkcji stworzenie dedykowanych czipów do renderu mogłoby zaoszczędzić grube miliony dolców. W końcu nie mówimy tylko o puszczeniu gotowego render joba na farmie ale też usprawnieniu samej produkcji.

 

Do poczytania:

http://en.wikipedia.org/wiki/Ray_tracing_hardware

 

Tutaj całkiem świeży news:

http://www.extremetech.com/computing/178743-powervr-series6-wizard-gpu-is-the-first-to-combine-3d-and-ray-tracing-hardware-in-a-single-chip

Równo 3 razy więcej promieni na sekunde na mobile niż ich wcześniejszym akcelerator na desktopie. Algorytmy są wszystkim. :) Jak dla mnie właśnie rozwiały się wątpliwości dlaczego Unity Tech czeka tak długo z wypuszczeniem Unity5. To może być rewolucja w grafice realtime. Teraz ten sam czip x10 na desktopie i śmigamy po dżungli z Avatara. :)

Napisano

Czemu wszyscy zawsze czekają na jakieś rewolucje w sprzęcie i sofcie? Czemu jak jest oglaszane jakieś "coś" przez "kogoś" to ludzie nagle wielce zawiedzieni. Czy Wy wciąż na coś czekacie, zamiast pracować na tym co macie i nie martwić się o przyszłość? Pamiętam jak jeszcze niedawno wszyscy ględzieli jakie to GPU renderowanie to rewolucja, że Vray to przeżytek i nikt tego nie będzie używał. Jednak ktoś kto ma określone cele, używa odpowiednich mu narzędzie mając w dupie te całe dyskusje. Jeśli mogę coś wyrenderowac na CPU w przystępnych czasie i jakości, czyli spelniełnie danych oczewikań to cieszę się tym co mam, osiągając cel. Po co mam zamartwaić się że mógłbym coś wyrenderować superealistycznie i super szybko w unbiasowym renderze (o jakie to poprawne fizyczne) na GPU gdbyby karta miała więcej pamięci, gdyby usprawnić jakiś tam algorytm itd. Ludzie się jarali tymi rewolucjami, a ci co potrzebuja dzizałać a nie pitolić to używają przedwojenych rozwiązań mając na uwagę zrealizowanie danego zlecienie a nie to czy są hipsterscy, modni i coś tam jeszcze.

 

Zaraz dostanę masię minusów, ale mam to gdzieś. Chodzi mi tylko o to, że pod każdym newsem powstają wielkie dyskusje, wymądrzanie się jednych nad drugimi, zamiast skupić się na teraźjeszosci. Przyjdzie może i taki czas gdzie faktycznie CPU to będzie przeżytek, gdzie modelowanie na polygonach to bezsensowne działanie. Narazie jednak jest jak jest i póki to działa, to czemu by z tego nie korzystać? Ktoś kto zarabia na tym co robi, tym bardziej się nie przejmuje takimi dyskusjami. Jeśli coś bedzię takie super jak ma być to samo się rozpowszechni.

Napisano (edytowane)

A nie wiem co Ci ta dyskusja przeszkadza :) Po to są fora, aby dyskutować. Ja tam lubię te sprzętowe dyskusje, za i przeciw bo człowiek się czegoś zawsze dowie (bo nie śledzę nowości jeśli chodzi o karty itp...). Tym bardziej, że nikt nikomu do gardła nie skacze.

Edytowane przez Adek
Napisano

Ale tutaj zwróćmy uwagę nie narzekamy na to że karty mają mały progres tylko że to jest 2 razy po GTX titan w jednym tytanie. Więc to nie jest druga karta więc nie powinno byc spadku w postaci tylko 60% mocy drugiej karty tylko względem GTX titana, Titan Z powinien być 180-190% Tymczasem sprawa ma się gorzej a niżeli byś kupił 2 GTX titany zwykłe... wydajność jest na poziomie poniżej 150%

Napisano

Temporal- Takim gadaniem można zanegować każde nowe rozwiązania. Wracasz do Maxa 1.0? Gdyby nie co raz większe wymagania klientów oraz konkurencja firmy nie rozwijałyby swoich narzędzi bo przecież już da się szybko wpisywać pozycje verteksów z palca.

Również dla mnie zrobienie ładnego obrazka też jest celem nadrzędnym. Tylko ja mam takie podejście że wolałbym to zrobić szybciej, wygodniej i taniej, potem zabrać się za kolejny obrazek a nie musieć w tym czasie czekać na podgląd renderu.

 

Nie rozumiem o co ci chodzi o renderowaniem na GPU. To była rewolucja i nawet sami goście od VRaya o tym teraz trąbią non-stop. Ja naciskam jeden guzik i wiem dokładnie jak będzie wyglądał render (pomijając szum oczywiście). Jeszcze parę lat temu takie rzeczy nie były możliwe bez sprzętu z ceną o jedno zero większą niż moja obecna maszyna. Łatwość obsługi, oszczędność czasu i pieniędzy- Chyba warto wspierać takie rzeczy żeby móc się skupić na tym co jest sednem grafiki. Odbiorca nigdy nie zauważy ile prądu poświęciłeś na robienie testowych renderów jeśli efekt jest taki sam. Ja ciesze się nowościami bo osiągam swój cel w mniejszym czasie.

Napisano
Były takie skoki. GTX7800 vs GTX8800. Nawet 230% większa wydajność tego drugiego. Karty dzieli rok z hakiem. Ale to było 8 lat temu. ;)
bo seria GeForce 8 jako pierwsza miała CUDA (16 cuda core'ów :D)

 

kiedy układy ASIC do liczenia raytraceingu wyjdą z laboratoriów i trafią na półki sklepowe? To by była dopiero rewolucja w grafice.
To prawda, ale problem polega na tym, że ASIC jest z góry zaprojektowany pod dany algorytm. Jak algorytm się zmieni to ten układ jest bezużyteczny. Teraz pytanie czy wszyscy np w renderingu biasowym używają tego samego algorytmu. Chyba że ten ASIC byłby wykorzystany do jakiś standardowych/uniwersalnych obliczeń, tylko pytanie czy wydajność się wystarczająco zwiększy żeby w to inwestować. To już trzeba by zapyać kogoś kto w tym siedzi.
Napisano

Monio, ale po co mi max1.0 jak jest dostępny nowszy, a także inne programy. Gdyby nie było nic innego dostępnego, to bym nie czekał tylko pracował na nim, a że mam inne opcje to z nich korzystam. Właśnie o tym cały czas mówie, by korzystać z tego co jest a nie czekać wiecznie na nową technologię, ona z czasem przyjdzie, z czasem też będzie przestarzała, bo znów wyjdzie coś nowego. Fajne są dyskusje z których coś wynika, a tutaj jest tak jak zawsze, wszyscy jakieś pretensje, kłótnie kto wie lepiej, a tak naprawdę zerowy wpływ na to mamy. W tym czasie można pracować na tym co mamy dostępne na dzień dzisiejszy, a jak będą powszechnie dostępne karty/sprzęt które będa brać mniej prądu itd. to wtedy się tym zainteresuje. Po co mam płakać że renderowanie biereze mi w cholere prądu, skoro na dzień dzisiejszy zooptymilizować tego na własną rękę nie mogę? Jeśli mi się to nie opłaca, to zmieniam branże, proste.

 

Pozdro

Napisano

Spoko, tu wkradło się niedopowiedzenie. My tak na prawdę pracujemy na tym co jest, a tu tylko sobie dyskutujemy. Sorry jeżeli ktoś myslal, ze jest inaczej.

Napisano

Creator - Raytrace to na tyle szerokie pojęcie że nie sposób tego uprościć do jednego algorytmu. Oczywiście ja mówię o wykonywaniu tych uniwersalnych obliczeń, cała matma związana z wektorami.

 

Temporal- Z nikim się nie kłócę i nie mam pretensji. Zupełnie nie jest tak że czekam z działaniem aż zrobią te rzeczy o których dyskutowaliśmy. Po prostu chciałem sobie pogadać że będzie wtedy fajniej. ;D

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności