adek Napisano 2 Czerwiec 2014 Share Napisano 2 Czerwiec 2014 NVidia wprowadza na rynek kartę graficzną GeForce GTX Titan Z. Jak pisze firma w swojej informacji - najszybsza i najbardziej zaawansowana karta graficzna, jaką kiedykolwiek stworzyła. Pełna treść: NVidia wprowadza na rynek GeForce GTX Titan Z Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
le_chu Napisano 2 Czerwiec 2014 Share Napisano 2 Czerwiec 2014 Wie ktos czy to jest 2 x 6gb czy pelne 12gb? Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
olaf Napisano 2 Czerwiec 2014 Share Napisano 2 Czerwiec 2014 2x 6 gb z tego co widzialem spec referencyjnncyh urządzen - zobacz a benchmarku, bo maja od kilku dni liste ref. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Azbesty Napisano 2 Czerwiec 2014 Share Napisano 2 Czerwiec 2014 ta karta to jest porażka news o niej stary jak świat... jest szybsza 0 20% od titana... śmiech i płacz po prostu... Chłodzenie nie wyrabia. co do pamięci... Co to jest? – Dwa tysiące kolumbijskich pesos. – To nie jest dwa tysiące pesos, tylko dwa razy po gówno warte tysiąc pesos! – No tak! A jaka to różnica jest? Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
olaf Napisano 2 Czerwiec 2014 Share Napisano 2 Czerwiec 2014 no Azbesty a chleb kroi 70% wolniej od noża. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Creator Napisano 2 Czerwiec 2014 Share Napisano 2 Czerwiec 2014 Karta wypas, ale do renderu dalej lepiej 2x 780Ti Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Azbesty Napisano 2 Czerwiec 2014 Share Napisano 2 Czerwiec 2014 no Azbesty a chleb kroi 70% wolniej od noża. ojezu jest koleś na BA który wcześniej miał GTX titana i teraz kupił tą Z'etkę.. zrobił ten sam render no i cyferki same mówią za siebie porażka. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Creator Napisano 2 Czerwiec 2014 Share Napisano 2 Czerwiec 2014 ojezu jest koleś na BA który wcześniej miał GTX titana i teraz kupił tą Z'etkę.. zrobił ten sam render no i cyferki same mówią za siebie porażka.Na Octanie mógłby przetestować, najbardziej rzetelny wynik, bo jednak Cycles jest wolny, jeszcze fest rzeczy do zoptymalizowania tam jest. (zdanie wielokrotnie złożone) Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Azbesty Napisano 2 Czerwiec 2014 Share Napisano 2 Czerwiec 2014 Na Octanie mógłby przetestować, najbardziej rzetelny wynik, bo jednak Cycles jest wolny, jeszcze fest rzeczy do zoptymalizowania tam jest. (zdanie wielokrotnie złożone) karta jest mocna tylko na seryjnym chłodzeniu gdy to wszystko startuje to zaraz stopuje bo chłodzenie nie wyrabia po prostu ;/ co do octane to pełna zgoda dużo lepiej wykorzystują najnowsze możliwości kart. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
olaf Napisano 2 Czerwiec 2014 Share Napisano 2 Czerwiec 2014 uff juz myslalem, ze opcja ignore jest niedostępna. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Alibaba Napisano 3 Czerwiec 2014 Share Napisano 3 Czerwiec 2014 co do pamięci... Co to jest? – Dwa tysiące kolumbijskich pesos. – To nie jest dwa tysiące pesos, tylko dwa razy po gówno warte tysiąc pesos! – No tak! A jaka to różnica jest? Utrafiles zarcikiem jak kula w plot. Proponuje dowiedziec sie jak karty wieloprocesorowe lub SLI wykorzystuja pamiec zanim rzucisz kolejny :P Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Azbesty Napisano 3 Czerwiec 2014 Share Napisano 3 Czerwiec 2014 OH czekaj czyli twierdzisz że SLI podczas renderingu np w Octane albo Cycles. powinno być włączone? I może mi jeszcze powiesz że Jak mam np 2x GTX 780 3 gigowe to mogę na nich renderować sceny 6 gigowe? bo przecież 3+3=6? A ja przez całe życie się myliłem. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Alibaba Napisano 3 Czerwiec 2014 Share Napisano 3 Czerwiec 2014 Alez twierdze cos przeciwnego:) Ten zart ktory przytoczyles tak twierdzi:P Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Monio Napisano 3 Czerwiec 2014 Share Napisano 3 Czerwiec 2014 Mam wrażenie że rozwój kart graficznych wchodzi na tą samą drogę co procesory 10 lat temu. Dochodza już do ściany miniaturyzacji tych samych starych architektur. Tesla, Kepler, same shit, to kosmetyka. Na razie wychodzi że mamy przyrost mocy rzędu 30-40% z roku na rok ale pewnie lada moment będzie to 10-20%, strzelam że już w przyszłym roku 980 będzie miało takie osiągi. Oczywiście przy co raz to większych rozmiarach, temperaturach i zapotrzebowaniu na prąd. Gdzie do cholery AMD z ich głośno zapowiadanym APU? Albo w druga stronę- kiedy układy ASIC do liczenia raytraceingu wyjdą z laboratoriów i trafią na półki sklepowe? To by była dopiero rewolucja w grafice. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
olaf Napisano 3 Czerwiec 2014 Share Napisano 3 Czerwiec 2014 nieszczęśliwie AMD od kilku lat najwiecej inwestuje w dział prezentacji powerpoint ratując kursy akcji. obecne GPU to naprawdę ciekawa sprawa, ale coraz mniej nadają się do przetwarzania grafiki w sposób jaki chcemy ją przetwarzać. ASIC's byłyby super ale widać, że grafika interesuje wszystkich tylko jak trzeba pokazać coś na prezentacji. Ale kto wie moze Cameron przy Avatarze wlasnie takie posiada ;) Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
2013 Napisano 3 Czerwiec 2014 Share Napisano 3 Czerwiec 2014 A mógłby ktoś podać kartę graficzną z wcześniejszych lat, która w porównaniu do kart wydanych rok wcześniej totalnie połamała im kości? No miała wydajność powiedzmy 80% lepszą. Nie mogę sobie przypomnieć takiej sytuacji. Ja to widzę tak, że zawsze ta wydajność wzrastała mniej więcej o tyle ile w przypadku tej karty i kazali za nią płacić krocie, wszak to nowość! Ale nigdy tak dokładnie nie śledziłem rynku więc chętnie bym się dowiedział kiedy to został odnotowany taki skok w wydajności GPU. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
olaf Napisano 3 Czerwiec 2014 Share Napisano 3 Czerwiec 2014 na wikipedii masz osiągi. Z tego co pamiętam niektore generacje potrzefiły być znacznie wolniejsze od poprzedniej, ale czasem był skok spory: http://en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Monio Napisano 3 Czerwiec 2014 Share Napisano 3 Czerwiec 2014 Były takie skoki. GTX7800 vs GTX8800. Nawet 230% większa wydajność tego drugiego. Karty dzieli rok z hakiem. Ale to było 8 lat temu. ;) Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
2013 Napisano 3 Czerwiec 2014 Share Napisano 3 Czerwiec 2014 Ano właśnie, to było bardzo dawno, obecnie chyba skończyły się rozwiązania. Jedyne wyjście to pakować więcej kart w jedna kartę, ze tak to nieprofesjonalnie ujmę :D Tylko kto zapłaci za prąd! Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
olaf Napisano 3 Czerwiec 2014 Share Napisano 3 Czerwiec 2014 co nie zmienia faktu, że hardware jest 10x szybszy niż X lat temu, a algorytmy nie. Oczywiscie upraszaczam, ale przesiadam się na realtime 3D powoli i widzę przepaść miedzy wykorzystaniem kart, a ich możliwościami przy lepszym algorytmie. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Monio Napisano 3 Czerwiec 2014 Share Napisano 3 Czerwiec 2014 To fakt. Wystarczy popatrzeć na takie technologie jak OpenSubdiv który potrafi przyśpieszyć animacje nawet 30 razy na dokładnie tym samym CPU (nie wypominając o 400 razy szybszej animacji z wykorzystaniem GPU bo mówimy o nowych algorytmach na tym samym sprzęcie). Albo Realtimowe Global Illumination od Enlighten i ARM na mobilkach które oferuje to przy czym 2 lata temu krztusiły się dwa GTX 580. Odpowiednia architektura zarówno softu jak i hardwareu jest kluczem, pakowanie większej ilości tranzystorów to ślepa uliczka. To by było dopiero "CUDA" gdyby karty grafiki miały dedykowane układy do obliczania raytaceu. Miner bitcoinów wielkości pendrivea i zasilany przez usb może osiągnąć wyniki lepsze od topowej grafiki za 3 tysiące dolców pobierającej n-razy więcej mocy. Jestem przekonany że dałoby się już dzisiaj zrobić akcelerator grafiki generujący w czasie rzeczywistym grafikę o jakości filmów. Ile mocy jest wytracane na samo wygenerowanie liczb losowych metodą monte carlo... Przecież na hardwarze wygenerowanie randomu dałoby się to mieć niemal za darmo na sto sposobów. http://en.wikipedia.org/wiki/Hardware_random_number_generator Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
olaf Napisano 3 Czerwiec 2014 Share Napisano 3 Czerwiec 2014 zastanawia mnie czy przypadkiem avatar2 albo podobny rozmachem film nie mają w uzyciu takiej technologii (dedykowanych chipow). Ale NDA chroni taką wiedzę. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Monio Napisano 3 Czerwiec 2014 Share Napisano 3 Czerwiec 2014 Nie zdziwiłbym się. Przy pierwszym Avatarze opłacało im się napisać od podstaw własny algorytm GI. Dla form robiących renderery takie coś to lata reaserchu. W przypadku tak ogromnej produkcji stworzenie dedykowanych czipów do renderu mogłoby zaoszczędzić grube miliony dolców. W końcu nie mówimy tylko o puszczeniu gotowego render joba na farmie ale też usprawnieniu samej produkcji. Do poczytania: http://en.wikipedia.org/wiki/Ray_tracing_hardware Tutaj całkiem świeży news: http://www.extremetech.com/computing/178743-powervr-series6-wizard-gpu-is-the-first-to-combine-3d-and-ray-tracing-hardware-in-a-single-chip Równo 3 razy więcej promieni na sekunde na mobile niż ich wcześniejszym akcelerator na desktopie. Algorytmy są wszystkim. :) Jak dla mnie właśnie rozwiały się wątpliwości dlaczego Unity Tech czeka tak długo z wypuszczeniem Unity5. To może być rewolucja w grafice realtime. Teraz ten sam czip x10 na desktopie i śmigamy po dżungli z Avatara. :) Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
olaf Napisano 3 Czerwiec 2014 Share Napisano 3 Czerwiec 2014 nie wiedziałem o tym, ale tu jest artykuł tej firmy z obliczeniami i opisem: http://www.extremetech.com/extreme/161074-the-future-of-ray-tracing-reviewed-caustics-r2500-accelerator-finally-moves-us-towards-real-time-ray-tracing Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Temporal Napisano 3 Czerwiec 2014 Share Napisano 3 Czerwiec 2014 Czemu wszyscy zawsze czekają na jakieś rewolucje w sprzęcie i sofcie? Czemu jak jest oglaszane jakieś "coś" przez "kogoś" to ludzie nagle wielce zawiedzieni. Czy Wy wciąż na coś czekacie, zamiast pracować na tym co macie i nie martwić się o przyszłość? Pamiętam jak jeszcze niedawno wszyscy ględzieli jakie to GPU renderowanie to rewolucja, że Vray to przeżytek i nikt tego nie będzie używał. Jednak ktoś kto ma określone cele, używa odpowiednich mu narzędzie mając w dupie te całe dyskusje. Jeśli mogę coś wyrenderowac na CPU w przystępnych czasie i jakości, czyli spelniełnie danych oczewikań to cieszę się tym co mam, osiągając cel. Po co mam zamartwaić się że mógłbym coś wyrenderować superealistycznie i super szybko w unbiasowym renderze (o jakie to poprawne fizyczne) na GPU gdbyby karta miała więcej pamięci, gdyby usprawnić jakiś tam algorytm itd. Ludzie się jarali tymi rewolucjami, a ci co potrzebuja dzizałać a nie pitolić to używają przedwojenych rozwiązań mając na uwagę zrealizowanie danego zlecienie a nie to czy są hipsterscy, modni i coś tam jeszcze. Zaraz dostanę masię minusów, ale mam to gdzieś. Chodzi mi tylko o to, że pod każdym newsem powstają wielkie dyskusje, wymądrzanie się jednych nad drugimi, zamiast skupić się na teraźjeszosci. Przyjdzie może i taki czas gdzie faktycznie CPU to będzie przeżytek, gdzie modelowanie na polygonach to bezsensowne działanie. Narazie jednak jest jak jest i póki to działa, to czemu by z tego nie korzystać? Ktoś kto zarabia na tym co robi, tym bardziej się nie przejmuje takimi dyskusjami. Jeśli coś bedzię takie super jak ma być to samo się rozpowszechni. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
adek Napisano 3 Czerwiec 2014 Autor Share Napisano 3 Czerwiec 2014 (edytowane) A nie wiem co Ci ta dyskusja przeszkadza :) Po to są fora, aby dyskutować. Ja tam lubię te sprzętowe dyskusje, za i przeciw bo człowiek się czegoś zawsze dowie (bo nie śledzę nowości jeśli chodzi o karty itp...). Tym bardziej, że nikt nikomu do gardła nie skacze. Edytowane 3 Czerwiec 2014 przez Adek Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Azbesty Napisano 3 Czerwiec 2014 Share Napisano 3 Czerwiec 2014 Ale tutaj zwróćmy uwagę nie narzekamy na to że karty mają mały progres tylko że to jest 2 razy po GTX titan w jednym tytanie. Więc to nie jest druga karta więc nie powinno byc spadku w postaci tylko 60% mocy drugiej karty tylko względem GTX titana, Titan Z powinien być 180-190% Tymczasem sprawa ma się gorzej a niżeli byś kupił 2 GTX titany zwykłe... wydajność jest na poziomie poniżej 150% Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Monio Napisano 3 Czerwiec 2014 Share Napisano 3 Czerwiec 2014 Temporal- Takim gadaniem można zanegować każde nowe rozwiązania. Wracasz do Maxa 1.0? Gdyby nie co raz większe wymagania klientów oraz konkurencja firmy nie rozwijałyby swoich narzędzi bo przecież już da się szybko wpisywać pozycje verteksów z palca. Również dla mnie zrobienie ładnego obrazka też jest celem nadrzędnym. Tylko ja mam takie podejście że wolałbym to zrobić szybciej, wygodniej i taniej, potem zabrać się za kolejny obrazek a nie musieć w tym czasie czekać na podgląd renderu. Nie rozumiem o co ci chodzi o renderowaniem na GPU. To była rewolucja i nawet sami goście od VRaya o tym teraz trąbią non-stop. Ja naciskam jeden guzik i wiem dokładnie jak będzie wyglądał render (pomijając szum oczywiście). Jeszcze parę lat temu takie rzeczy nie były możliwe bez sprzętu z ceną o jedno zero większą niż moja obecna maszyna. Łatwość obsługi, oszczędność czasu i pieniędzy- Chyba warto wspierać takie rzeczy żeby móc się skupić na tym co jest sednem grafiki. Odbiorca nigdy nie zauważy ile prądu poświęciłeś na robienie testowych renderów jeśli efekt jest taki sam. Ja ciesze się nowościami bo osiągam swój cel w mniejszym czasie. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Creator Napisano 3 Czerwiec 2014 Share Napisano 3 Czerwiec 2014 Były takie skoki. GTX7800 vs GTX8800. Nawet 230% większa wydajność tego drugiego. Karty dzieli rok z hakiem. Ale to było 8 lat temu. ;)bo seria GeForce 8 jako pierwsza miała CUDA (16 cuda core'ów :D) kiedy układy ASIC do liczenia raytraceingu wyjdą z laboratoriów i trafią na półki sklepowe? To by była dopiero rewolucja w grafice.To prawda, ale problem polega na tym, że ASIC jest z góry zaprojektowany pod dany algorytm. Jak algorytm się zmieni to ten układ jest bezużyteczny. Teraz pytanie czy wszyscy np w renderingu biasowym używają tego samego algorytmu. Chyba że ten ASIC byłby wykorzystany do jakiś standardowych/uniwersalnych obliczeń, tylko pytanie czy wydajność się wystarczająco zwiększy żeby w to inwestować. To już trzeba by zapyać kogoś kto w tym siedzi. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Temporal Napisano 3 Czerwiec 2014 Share Napisano 3 Czerwiec 2014 Monio, ale po co mi max1.0 jak jest dostępny nowszy, a także inne programy. Gdyby nie było nic innego dostępnego, to bym nie czekał tylko pracował na nim, a że mam inne opcje to z nich korzystam. Właśnie o tym cały czas mówie, by korzystać z tego co jest a nie czekać wiecznie na nową technologię, ona z czasem przyjdzie, z czasem też będzie przestarzała, bo znów wyjdzie coś nowego. Fajne są dyskusje z których coś wynika, a tutaj jest tak jak zawsze, wszyscy jakieś pretensje, kłótnie kto wie lepiej, a tak naprawdę zerowy wpływ na to mamy. W tym czasie można pracować na tym co mamy dostępne na dzień dzisiejszy, a jak będą powszechnie dostępne karty/sprzęt które będa brać mniej prądu itd. to wtedy się tym zainteresuje. Po co mam płakać że renderowanie biereze mi w cholere prądu, skoro na dzień dzisiejszy zooptymilizować tego na własną rękę nie mogę? Jeśli mi się to nie opłaca, to zmieniam branże, proste. Pozdro Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
olaf Napisano 3 Czerwiec 2014 Share Napisano 3 Czerwiec 2014 Spoko, tu wkradło się niedopowiedzenie. My tak na prawdę pracujemy na tym co jest, a tu tylko sobie dyskutujemy. Sorry jeżeli ktoś myslal, ze jest inaczej. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Monio Napisano 3 Czerwiec 2014 Share Napisano 3 Czerwiec 2014 Creator - Raytrace to na tyle szerokie pojęcie że nie sposób tego uprościć do jednego algorytmu. Oczywiście ja mówię o wykonywaniu tych uniwersalnych obliczeń, cała matma związana z wektorami. Temporal- Z nikim się nie kłócę i nie mam pretensji. Zupełnie nie jest tak że czekam z działaniem aż zrobią te rzeczy o których dyskutowaliśmy. Po prostu chciałem sobie pogadać że będzie wtedy fajniej. ;D Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Rekomendowane odpowiedzi
Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto
Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.
Zarejestruj nowe konto
Załóż nowe konto. To bardzo proste!
Zarejestruj sięZaloguj się
Posiadasz już konto? Zaloguj się poniżej.
Zaloguj się