Skocz do zawartości

Rekomendowane odpowiedzi

Napisano (edytowane)

Siema powoli zbieram na karte. Glownie pod soft do textur i Maya viewport 2.0./mudbox np.: Substance painter. W przyszlosci mysle zmienic reszte podzespolow.

Nie zamierzam jej krecić.

W najniższym półapie cenowym wpadł mi w oko Gigabyte i Aus z jednym wentylem wersje micro ATX.

Gigabyte GV-N970IXOC-4GD

Asus GTX970-DCMOC-4GD5

 

Czy warto patrzec na innych producentów EVGA MSI Zotac Pality etc??

 

Chcialbym sie zmiescic w okolo 1400zł.

 

Wczesniej myslalem o 960, ale odstrzasza mnie 128bit szyna.

 

Mysle jednak nad któras z tych:

 

http://audiocomp24.pl/produkt/asus-geforce-gtx-970-turbo-oc-4gb-gddr5-256-bit-hdmi-2xdvi-dp/2956

 

http://audiocomp24.pl/produkt/gigabyte-geforce-gtx-970-oc-4gb-gddr5-256-bit-hdmi-dvi-3xdp/1406

 

http://audiocomp24.pl/produkt/asus-geforce-gtx-970-oc-4gb-gddr5-256-bit-hdmi-2xdvi-dp/2953

 

Obecnie mam gigabyte i jestem z niej raczej zadwolony 660 OC.

Edytowane przez Sebazx6r
  • Odpowiedzi 128
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

Napisano

Nvidia chce się wycofać z 960 z tego co pamiętam. Za bardzo przycięty sprzęt, średnio opłacalny.

Czemu micro ATX? Rezygnujesz głównie z chłodzenia, sama karta może mieć przez to fabrycznie niższe taktowanie (sprawdź to). Jak możesz w kompie zmieścić pełnego ATXa to ja bym się ku temu skłaniał, różnica w cenie nie jest jakaś bardzo duża.

Napisano

Moze kto sie orientuje jak wyglada kwestia redenow obecnie we wspolpracy z programami graicznymi:

Radeon R9 390 8192MB 512bit

 

??? wciaz strach brac by cos nie dzialalo?

Napisano

Wygląda słabo. Większość rendererów GPGPU jest zrobiona pod CUDA a te które wpierają również OpenCLa i tak w większości przypadków działają lepiej na kartach nvidii (zarówno na OpenCL jak i CUDA).

Napisano

hmm qrde raczej pewnie renderowac nie bed. Bardziej chodzilo mi o viewport etc kompatybilnosc. Jak kiedys miaelm radeona to markin menu mi nie dzialaly i zmienilem na 660.

Napisano

No to tutaj się poprawiło przez ostatnie lata (pewnie dzięki apple). Jednak to nadal nie taka stabilność sterowników jak u NV. AMD raczej się opłaca przy grach.

Napisano

wujek_kane to poparte jakimiś informacjami od amd czy microsoftu lub autodeska ? Zasadniczo Radka bym nie brał nie dlatego ze się zacina czynie zacina bo to dosyć osobnicza sprawa miałem wiele lat Radki i nie było z nimi żadnych problemów, ważniejsze jest ze jak na razie softy mają wsparcie dla nvidi a nie dla amd

Napisano

Tylko jeszcze jeden powód aby się na win 10 nie przesiadać :) Zresztą max pod win 10 w ogóle się dziwnie zachowuje nawet na kartach nvidi potrafi mieć problemy z zawieszaniem się viewportów na kilkadziesiąt sekund

Napisano

GTX 970 to kastrat GTX 980 o czym świadczą problemy z obsługą więcej niż 3.5GB, chociaż karta ma 4GB, to używalne jest tylko 3.5GB - architektura NVIDA ma takie ograniczenia..., pozostałe 0.5GB to taki szybszy bufor, dlatego zastanowiłbym się raczej nad 980Ti 6GB ew. 980. Nie wiem po co NVIDIA wypuściła GTX970, mogli dać od razu 980. W tym temacie AMD R9 390 8GB zwyczajnie miażdży GTX970 o dwie klasy. Kiedy GTX970 będzie przesuwał dane po szynie PCIx to R9 390 będzie dopiero w niecałej połowie drogi rześki niczym młody Bóg:) - obsługuje całe 8GB w pełnej prędkości. Co do wydajności obliczeniowej to surowe dane wyglądają tak dla fabrycznych ustawień:

 

GTX970 - 3494 gflops single prec., 109 gflops double prec. - 4GB (3.5) 256bit

R9 390 - 5120 gflops single prec., 640 gflops double prec. - 8GB 384bit (wydajność na poziomie 980/980Ti w single, w double 3x wyższa)

R9 380 - 3476 gflops single prec., 217 gflops double prec. - 4GB 256bit, ale ma mniej taktowaną pamięć i rdzeń od GTX970, za to kosztuje blisko 2x mniej ok. 800 zł :).

 

Faktycznie ile się z tego uzyska zależy od optymalizacji. Optymalizuje się często pod konkretne modele vide Octane.

 

Dodatkowo R9 390 obsługuje async compute, a NVIDIA słabo i programowo. W przypadku wykorzystania viewportu OGL4.5/DX12 i OpenCL 2.0 przewaga AMD będzie odczuwalna.

 

Ja tam problemów nie mam w viewport; Cinema4D, LW, Modo, Blender, z tego co testowałem..., co do 3dsmax i Maya to nie mam pojęcia :), ale skoro ktoś ma problemy to nie stawiałbym na sterowniki AMD tylko raczej twórców tego softu!. Sterowniki NVIDIA też się wywalają i wcale nie mniej od sterowników AMD, więc włożyłbym między bajki ich wyższą stabilność.

 

Odnośnie renderowania na GPU to niestety AMD prawie nie istnieje. Silniki renderujące które liczą się na rynku są optymalizowane najczęściej pod NVIDIA CUDA, a w przypadku AMD potrzeba specjalnych optymalizacji wersji OpenCL, gdzie będą olewać NVIDIA, bo NVIDIA jest w tyle jeżeli chodzi o OpenCL z racji rozwijania swojego frameworku CUDA. AMD wraz z OpenCL 2.0 wprowadza HSA, a to niweluje ograniczenia typowe dla samego GPGPU, co jest poza zasięgiem CUDA..., tylko kiedy jakikolwiek silnik zacznie tego używać, nie mam pojęcia, może Octane 3.x, albo Luxrender, chociaż w Luxrender to AMD daje już ładnie radę.

 

Wystarczy spojrzeć jak późno pojawiło się wsparcie dla AMD w Blender Cycles, gdzie karty ponad dwuletnie AMD które mogły obsłużyć ten silnik renderujący dopiero teraz zaczynają w ograniczonym zakresie coś tam normalnie renderować, a de facto mogą to samo, jeżeli nie więcej przy wykorzystaniu potencjału arch. GCN i OCL2.x, a jeszcze żaden soft tego nie robi.

http://blenderartists.org/forum/showthread.php?376184-How-is-it-that-the-R9-390x-beats-GTX-TitanX

 

Mówiąc krótko, chcesz renderować na GPU, na razie nie ma wielkiego wyboru i zostaje tylko NVIDIA, chyba, że to jakiś konkretny przypadek... W przypadku viewportu to nie gra roli, moim zdaniem, przynajmniej ja nie odnotowałem żadnych problemów.

Napisano

Ja mam zawsze brałem od Gigabyte'a GTXy, teraz siedzę na Gigabyte 970 G1 Gaming i sobie ją bardzo chwalę. Zarówno Maya, Max, Substance Designer/Painter - wszystko śmiga bardzo dobrze. Kwestia ew. 0,5 GB wolniejszej pamięci raczej tutaj za dużo nie popsuje, najwyżej w grach czy przy pakowaniu 4k tekstur do podglądu w Majce przy dużej scenie. ;)

 

Nie ma sensu moim zdaniem kupowanie 980, która kosztuje w X-KOM 2250 zł, kiedy 970 G1 kosztuje 1559 zł. Jak rzuciłem sobie okiem na testy to zawsze karta x80 jest słabsza od kartyx70 następnej generacji. Lepiej więc kupić teraz 970 zamiast 980 i przy następnej generacji sprzedać karciochę i kupić nową generację x70.

Napisano (edytowane)

materalia...

Chcialbym sie zmiescic w okolo 1400zł.

Wiadomo że GTX980Ti to super sprzęt a karty z mniejszymi numerami to wykastrowane wersje tych z większymi. Tylko weź pod uwagę 2.5 razy większą cenę! Jeśli Seba nie renderuje na GPGPU kompletnych scen albo nie gra na monitorze 4k to te 6 giga pamięci będzie mu zupełnie po nic jeszcze przez bardzo długo.

Edytowane przez Monio
Napisano
GTX980Ti to super sprzęt a karty z mniejszymi numerami to wykastrowane wersje tych z większymi.

 

to kastrowanie jest przyczyną wolniejszego działania 0.5GB z 4GB na GTX970 - tak twierdzi NVIDIA, więc nie jest to takie coś do czego przywykliśmy w słabszych wersjach, ale to wynika też z ograniczeń architektury Maxwell, której dużo brakuje do AMD GCN, ale pewnie Pascal lub Volta to nadrobią. NVIDIA Pascal zapewne będzie jakąś bardziej lub mniej udaną kopią AMD GCN, jak sądzę, bo nic lepszego raczej nie wymyślą, dodadzą HBM (też od AMD) i będziemy mielu Fury X Nano od NVIDIA tylko z kilku letnim poślizgiem o nazwie GTX i wsparciem NV CUDA-i to będzie największy plus. Tak to wygląda od strony hardware. Od strony software wygląda to tak, że bazuje się na poprzednich API OGL/DX/OCL, a więc poprzednich założeń dt. użycia GPU.

 

weź pod uwagę 2.5 razy większą cenę!

 

nie 2.5x tylko 2.1x, wiesz 0.4 to tutaj kilkaset zł, cena takiego GTX750Ti lub R9 370 :)

 

Jeśli Seba nie renderuje na GPGPU kompletnych scen albo nie gra na monitorze 4k to te 6 giga pamięci będzie mu zupełnie po nic jeszcze przez bardzo długo.

 

4k tekstury to są do ultra detal w grach FHD, a 8k i 16k tekstury są do gier UHD i UHD+, także nawet do FHD to 8GB w R9 390 może zostać szybko zjedzone przez tekstury.

 

Pytanie jak grafik może zużyć 6GB GTX 980Ti lub 8GB R9 390/390x to sobie musi każdy sam odpowiedzieć w zależności od swoich potrzeb. Do renderowania kosztujący tyle samo R9 390 z 8GB byłby lepszy od GTX970 4GB (3.5), ale brak tak szerokiego wsparcia ze strony softu niestety praktycznie go dyskwalifikuje z małymi wyjątkami. Do reszty to zależy kto co jak duże wielkie itp. wykonuje, bo może całkowicie karta 2GB starczyć i szkoda kasy na GTX970, bo to samo dostanie na karcie kosztującej 2x lub 3x mniej. Owczy pęd to nie jest dobra strategia na pozbywanie się biletów NBP :)

Napisano (edytowane)

Pomijając trend i zachowanie typu " inni maja a ja nie ", to często kupujący tak naprawdę nie wie po co kupuje komputer i na jakim podzespole bazuje soft w którym na co dzień pracuje.Warto zerknąć do wymogów sprzętowych konkretnego produktu jak także zerknąć co twórcy poprawiają w kolejnych łatkach softów. Kolejna sprawa zerknąć czy aby na pewno CUDA są nam w ogóle potrzebne i jakie softy tak naprawdę mają wsparcie dla nich, bo jak co do czego patrząc na prace na forum to się to głownie kończy na prockach a karty graficzne mają sobie dawać radę w viewportach. Jakoś nie widać owczego pędu na przesiadanie się na silniki gpu i hybrydy. Dwa wsadzanie grafiki za 1,6k + i nie wykorzystywanie jej to są wyrzucone pieniądze to można dołozyc do lepszego procka lub mocniejszej płyty , czy do innych podzespołów, nie raz widziałem komputer super karta grafiki plus dziadostwo reszta :) A dywagacje które cyferka ma jakie rdzenie i ile wykastrowanych dla użytkownika ma takie wielkie znaczenie, litości na pewno pracujący na co dzień np w maxie myślę jakiego mam kastrata jako grafikę :P

 

Sebastian zobacz najpierw jakie mają wymogi softy z którymi masz pracować i rozważ czy ma sens pakowanie się w droga kartę graficzna czy nie lepiej dołozyc do procka więcej w przyszłości

Wujek_kane ogólnie autodesk jak na razie lekceważy pojawianie się win 10, praktycznie w tym samym dniu wróciłem do win 7 jak zobaczyłem że programy strickte inżynierskie z jakich korzystam mają kłopoty pod 10

Edytowane przez skalpel3d
Napisano

Wymiana procka w moim przypadku to trochę grubsza sprawa. Przechodząc nanowa platformę musiałbym zmienić płytę ram kupić nowe chłodzenie i potem grafe. Zależy mi na viewporcid. Wiem ze procek mi skastruje grafe bo mam phenoma 1090T na 3.7GHz ale musi narazie starczyć bo zmina procka to byłby rzaf 3-4 tysia minimum dla mnie bo chciałbym się przesiąść na Intela najprawdopodobniej skylike lub 5820¿ 6 rdzeni. Do tego wówczas 32G ram i nowy system win pro.

Napisano
słabsze karty to po prostu chipy które nie wyszły tak dobrze i się bardziej grzeją... proste jak budowa cepa. dlatego obcinają im rdzenie i taktowania.

 

Nie z powodów technologicznych, tylko raczej marketingowych i finansowych produkują słabsze układy, chociaż nie tylko, bo jest ogromne zapotrzebowanie na mniejsze powierzchniowo układy o niskiej energetyce, więc gadanie jakoby były z gorszego kawałka krzemu też nie jest prawdą... Nie odcinają rdzeni piłką do krzemu, bo to są kompletne układy, zarówno mniejsze i większe :), chociaż zdarzały się dziwaczne modele z wyłączonym jednym blokiem np: GTX670 (względem GTX680), którego następcą jest w pewien sposób 970 -też w sumie taki dziwaczny kastrat.

Napisano (edytowane)

Brałbym Asusa - mają z reguły cichsze wiatraki, choć są z reguły delikatnie fabrycznie podkręcone.

Sparzyłem się już kilkakrotnie na serwisie Gigabyte, już trzy razy miałem z nim duże problemy, choć dotyczyły płyt głównych.

Z kolei Asus z teoretycznych 14 dni roboczych na naprawę, robi dwukrotność, ale praktycznie w każdym przypadku daje nowy sprzęt,

z nową 3 letnią gwarancją.

 

O wydajności kart w viewporcie Maya, bardzo dużo powie Ci ta tabelka, a konkretnie kolumna Fillrate:

https://en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units

 

Karta będzie wyświetlała czyste poligony, więc liczy się przede wszystkim ile pixeli i texeli jest w stanie narysować.

GTX 980 jest tylko o 20% szybsza w viewportach, mimo dużo wyższej ceny.

 

Wg mnie wybór jest oczywisty: Asus 970 z przyzwoitym chłodzeniem.

Edytowane przez ca mel
Napisano

hmm powiadasz ja ze swoim Gigabytem Karta problemu nie mam. Odnosnie plyty to nie kupilbym bo czesto zmieniaja rewizje i rev.1 czesto nie ma obslugi pewnej czesci procesorow. Mam plyte Gigabyte i za duzo sie nie wczytalem i kupilem slabo dlatego nie mam jeszcze 8370 lub 8350 FX tak by jeszce pociagna z rok lub dwa.

Brat mi proponuje MSI karte. Ogolnie jak narazie wybieram z wielkiej trojcy Gigabyte ASUS MSI. Widze ze wskazaniem na ASUSA.

Napisano (edytowane)

Seba- Ca Mel dobrze mówi. Jeśli nie celujesz konkretnie w obliczenia GPGPU to GTX970 będzie dla ciebie super. Nawet w renderingu GPGPU ta karta nadal jest w czołówce konsumenckich sprzętów.

 

Kolejna sprawa zerknąć czy aby na pewno CUDA są nam w ogóle potrzebne i jakie softy tak naprawdę mają wsparcie dla nich
Dokładnie... Jak się sprawdzi to jasno wychodzi że powinno się inwestować w kartę z CUDA bo jego wykorzystanie jest super powszechne w softach graficznych, nie tylko w renderingu GPGPU ale nawet w zwykłych viewportach (Maya, OpenSubdiv). Dodam że wszystko wskazuje na to że podstawowe funkcjonalności wykorzystujące CUDA/OpenCL staną się standardem. Poczytaj jak Khronos rozwiązało shadery w Vulkanie.

 

Co dzisiaj robi CUDA w programach graficznych. Wyciąg z gpurendering.com uzupełniony prze zemnie z głowy, tego jest dużo więcej. OpenCLa nie uwzględniam.

 

Autodesk Maya

-Increased model complexity

-Larger scenes

 

OTOY Octane / Nvidia IRay / Randomcontrol Arion / FurryBall

- Cuda Based Rendering

 

The Foundry HIERO

-Better interactivity

 

The Foundry NUKE & NUKEX

- Faster effects

 

The Foundry Mari

- Increased model complexity at interactive rates

 

Adobe After Effects CC:

-3D ray tracing

-Multi GPU support

 

Adobe Photoshop CC

-30 effects in Mercury Graphics Engine

 

Adobe Premiere Pro CC

-Mercury Playback Engine for real time video editing & accelerated rendering

 

Adobe SpeedGrade CC

-Real time grading and finishing

 

Avid Media Composer

-Faster video effects

- Unique stereo 3D capabilities

 

Avid Motion Graphics

-Real time rendering

 

Blackmagic DaVinci Resolve

-Real time colour correction

-Real time de-noising

 

RED Giant Effects Suite / Magic Bullet Looks

-Faster effects

 

SONY Vegas Pro

-Faster video effects and encoding

Edytowane przez Monio
Napisano
Karta będzie wyświetlała czyste poligony, więc liczy się przede wszystkim ile pixeli i texeli jest w stanie narysować.

GTX 980 jest tylko o 20% szybsza w viewportach, mimo dużo wyższej ceny.

 

To można powiedzieć raczej o różnicy między AMD R9 380 2/4GB kosztującej 850-900 zł i GTX 970 4GB (3.5) kosztującej 1500-1600 zł :) - w porywach 20% wydajniejsza i to głównie w produkcjach giercowych mocno używających NVIDIA Gameworks np: Wiedzmin3. Na dniach będzie R9 380x droższa o ok. 100-150 zł, która praktycznie zrówna się z GTX970.

 

Najtańsza GTX 980 kosztuje 2000-2100 zł, bez przesady z tym dużo wyższa cena, bo to +500-600zł, chociaż moim zdaniem cena GTX970 jest mimo wszystko za wysoka jak za takie kastracje.

 

Pytanie mam inne, czy dajecie gwarancję, że viewport w GTX970 będzie blisko 2x wydajniejszy od R9 380, bo to jest dylemat ?:)

 

ps. fillrate to nie jedyny ważny wskaźnik. w tych tabelkach są zawsze teoretyczne.

Napisano (edytowane)

Sebastian ewidentnie bym się kierował w stronę Asusa za cisze w pudle i wydajne chłodzenie karty graficznej warto lekko dopłacić, co do serwisu ASUS załatwia w ciągu 10 dni plus maja listę urządzeń które są objęte gwarancja door to door, przypadki długiego załatwiania tycza się sklepów internetowych z którymi Asusu nie posiada odpowiednich umów np morele zresztą jak się coś posypie warto zadzwonić na ichnia infolini

 

Materalia nie sadze aby ktoś dał tak gwarancje bonie raz się spotkałem z tym ze się gtx zacinały na scenach na których amd sobie dobrze radziło. Tak jak pisałem wcześniej miałem radki i nigdy mi się nie cięły w viewportach mimo ze na forum się można było naczytać ze są z nimi problemy :) To jak z z maxem jednemu się on wywal co piętnaście minut pracy a u innych strzela focha raz w miesiącu :) mimo ze jest tak samo katowany :)

Edytowane przez skalpel3d
Napisano

Materlia nie wiem ile zarabiasz xD ale dla mnie 500-600 to duzo szczegolnie jak utrzymuje rodzine. Jakbym tak dokladal do wykonczenia mieszkania to bym polowy nie wykonczyl.W tym lub w nastepnym miesiacu zobacze co kupie. Na choryzoncie zaczyna rysowac sie pozadne krzeslo DXRACER zamiast GTX i wizyta z rekami u neurologa , bo zaczynaja dretwiec. Mam nadzieje ze to nie ciesnia. Na NFZa za 1,5 roku xD lub prywatnie za 1,5 stowki....

Napisano

Problem jest niestety też w tym, że autorzy softu jakby bardziej celują w CUDA niż openCL. W Illustratorze obsługę OpenCL dodano jako experimental feature dopiero w wersji 2016 (CUDA była wcześniej), za to jak już dodali, to różnica w szybkości działania na moim r9 290 w 4k jest po prostu ogromna.

Napisano
Co dzisiaj robi CUDA w programach graficznych. Wyciąg z gpurendering.com uzupełniony prze zemnie z głowy, tego jest dużo więcej. OpenCLa nie uwzględniam.

 

Artykuł dość stary kiedy CUDA było dobre w czasach gdy GPGPU dopiero zaczynało swoją karierę, programista decydował co przepisze na GPU, bo się da, a wtedy GPU działa synchronicznie (in-order) z takimi "małym" zadaniami które się dało. Dzisiaj patrzy się na OpenCL 2.x, Microsoft C++ Amp (wymaga OCL2.x, hardware async compute-jednostek ACE w GPU), OpenACC/HMPP itp. Dzięki temu podejściu pisze się jeden ten sam kod do wszystkiego, gdzie w zależności od rodzaju/wielkości danych, dostępnego sprzętu w systemie, kod działa na CPU i GPU w asynchronicznym modelu HSA/HUMA wspieranym sprzętowo lub programowo. CUDA tego nie oferuje, dlatego NVIDIA coś jakby kombinuje z dodaniem rdzeni CPU do GPU na karcie graficznej np: w projekcie Volta - na pewno nie będą to rdzenie x86.

 

Od DX12 to DirectX też ulega przebudowie w tym kierunku i podobnie jest z OpenGL Vulkan. Skoro mowa jest o wykorzystaniu ogólnym GPU wraz z CPU to raczej CUDA nie będą tutaj wiodącym frameworkiem.

 

Na razie NVIDIA udało się skutecznie wcisnąć swoje CUDA GPU do kilku silników renderujących, które praktycznie całkowicie się uzależniły od NVIDIA np: Octane, stanowiący pewien wzór profesjonalnego silnika renderującego GPU, także Cycles z powodu swojej bezpłatności i zazwyczaj zadowalających rezultatów na GPU, chociaż wersja CPU ma większe możliwości i jest stabilniejsza:).

Napisano

Sebastian w takim przypadku nic tylko zdrowia życzyć

 

wujek_kane miejmy nadziej ze wejście amd w playstation zaowocuje wreszcie zaprzestaniem traktowania ich produktów po macoszemu przez twórców softu

Napisano
Materlia nie wiem ile zarabiasz xD ale dla mnie 500-600 to duzo szczegolnie jak utrzymuje rodzine.

 

Zarabiam ile zarabiam:), ale na pierwszym miejscu skneruje hehe. W związku z tym dla siebie zamiast i7 mam AMD FX-8320E do OC 4.x Ghz, a zamiast GTX980 mam najtańsza wersje układu Tonga/GCN1.2 (GCN w drugiej odsłonie zadziałał na moją wyobraźnię) tj. R9 380 4GB i nawet tego żałuję, bo do viewportu to taki sam komfort miałbym na Saphhire R7 370 OC 2GB - sprawdzałem pod siebie. Pocieszam się tylko tutaj bardziej miodnymi grami, które na marginesie zazwyczaj śmigają niewiele gorzej niż na GTX970 i zazwyczaj wyraźnie lepiej niż na GTX960.

 

Nie wiem jakie duże sceny robisz (poly + tex), na jak dużych pracujesz, bo głównie tym powinieneś kierować się przy wyborze sprzętu. To najbardziej oczywista oczywistość jak rzekł klasyk.

 

ps. wydajność w 3D tej nowej karty jaką wybierzesz i tak będziesz miał ograniczoną przez wydajność CPU i reszty. Możliwe, że nic się nie zmieni względem GTX 660, tylko w kieszeni będzie jakby lżej :)

Napisano (edytowane)

Myślę ze raczej się zmieni ;). Nie przesadzajmy z tym nie zmieni. Moze dupki nie urwie ale bedzie dobrze a przynajmniej lepiej. Kupilbym 960 ale czytajac o nim mi sie odechciewa. W przyszlym roku mysle kupic juz procek i plyte zobacze jeszcze moze i ram ztanieje. Problem polega na tym ze robiac textury robisz je na warstwach i jak sie zbierze tych warstwa do tego jest PBR w Substance Painterze albo Iray ,ktory ma by zaintegrowany z nowym Mari.

 

Takie cos znalazlem:

https://create.pro/blog/open-cl-vs-cuda-amd-vs-nvidia-better-application-support-gpgpugpu-acceleration-real-world-face/

Edytowane przez Sebazx6r
Napisano (edytowane)
To można powiedzieć raczej o różnicy między AMD R9 380 2/4GB kosztującej 850-900 zł i GTX 970 4GB (3.5) kosztującej 1500-1600 zł :) - w porywach 20% wydajniejsza i to głównie w produkcjach giercowych mocno używających NVIDIA Gameworks np: Wiedzmin3.

 

Nie wiem jak jest w grach, nigdy szczególnie mnie to nie interesowało. Wiem jednak, że pod Mayę Amd kompletnie się nie nadaje. Sterowniki Radeonów od zawsze miały problemy z openGL, a właśnie w tym trybie działa domyślnie Mayowy viewport. Pewnie na upartego da się znaleźć jakiś model Radeona i szczególny sterownik z którym być może nie byłoby problemu, jednak nie spotkałem się jeszcze z takim, z którym nie było - a to znikające manipulatory, to rozjeżdzająca się geometria opensubdiv. Nvidia i Maya to rzecz sprawdzona, wszystko działa jak należy, choć zgodzę się, że większym kosztem.

 

Piszesz, że najtańszy gtx980 to 2100. Jak pewnie zauważyłeś, autor wątku nie szuka najtańszego, bo dla niektórych ważna jest też jakaś kultura pracy.

Asus gtx980 to 2350 zł, koszt o 900zł wiekszy, czyli ponad 60% dopłaty za 20% wydajności.

 

Być może na wydajność składają się inne rzeczy niż fillrate, na pewno gry wykorzystują więcej możliwości karty. Wydaje mi się jednak, że to dobry przelicznik w przypadku najprostszych operacji, jakimi są wyświetlanie trójkątów i tekstur bez efektów na wewnętrznych shaderach karty. Praktyka od lat to potwierdza.

Edytowane przez ca mel
Napisano
Sterowniki Radeonów od zawsze miały problemy z openGL, a właśnie w tym trybie działa domyślnie Mayowy viewport.

 

to raczej nie jest wina sterowników Radeon, gdyby tak było jak piszesz to podobnie byłoby w innych programach, a tak w innych programach nie jest, więc leży to tylko w geście twórców Maya i to tam kierowałbym ew. zapytania. OpenGL w Radeonach jest bardziej strict ze standardami Khronos, czyli mniej wrażliwy na błędy wynikające z mieszania specyfikacji poszczególnych wersji i rozszerzeń, być może w tym leży problem, pomijając różnice w obsłudze specyficznych rozszerzeń dla AMD i NVIDIA. Reszta to mity.

 

Co do samego OpenGL to AMD wspiera już Vulcan, a nie ma innej drogi rozwoju, bo klasyczny OpenGL w pewnym sensie skończył się już jako API do 3D i nie może rozwijać się w dotychczasowej formie, a co robi NVIDIA, na razie niewiele, bo mają zbyt kiepską i niedopasowaną architekturę GPU do Vulcana - wspomniałem o tym wcześniej, że muszą porzucić Maxwella na rzecz czegoś na wzór AMD GCN, tak czy owak.

 

fillrate

 

fillrate jest powiązany bezpośrednio z przepustowością pamięci (liczba bitów i zegar pamięci) i to będzie ostatecznie wąskim gardłem. Podawane tam teoretyczne wartości są obliczane tylko wg. wzoru; liczba jednostek x zegar rdzenia.

Napisano
W związku z tym dla siebie zamiast i7 mam AMD FX-8320E do OC 4.x Ghz, a zamiast GTX980 mam najtańsza wersje układu Tonga/GCN1.2 (GCN w drugiej odsłonie zadziałał na moją wyobraźnię) tj. R9 380 4GB

 

Przyznaj się, że po prostu jesteś w opozycji i masz słabość do czerwonych ;)

Napisano (edytowane)
Myślę ze raczej się zmieni

 

co się zmieni, jakościowo to nic, a ilościowo to być może, czyli może dupki nie urwać, może być przeciwnie. Patrząc na osiągi OGL w Cinebench http://cbscores.com/index.php?sort=ogl&order=desc , to sam widzisz jakie to zmiennie, ten sam GPU może mieć osiągi diametralnie różne, wystarczy spojrzeć na rozstrzał wyników dla GTX Titan; od 95fps do 193fps. Ktoś to wyjaśni, dlatego lepiej nawet pożyczyć i sprawdzić niż być rozczarowanym :).

 

 

Problem z OpenCL jest taki, że skoro coś działa w OpenCL na NVIDIA to nie jest optymalne na OpenCL, bo NVIDIA praktycznie olała OpenCL od wersji 1.1, a wsparcie dla 1.2 dała dlatego, bo niewiele to kosztowało..., a obecnie AMD ma już OpenCL 2.1 (także Intel i mobilni), który nawet nie da się zaimplementować na układach NVIDIA Maxwell (GTX9xx/Titan), może dopiero na arch. Pascal która ma być w 2016, bo układy NVIDIA nie mają takich funkcjonalności i sporo trzeba byłoby emulować programowo w sterowniku co byłoby mało efektywne i postawiło układy NVIDIA w złym świetle. NVIDIA robi to celowo zmuszając twórców do używania swojego zamkniętego frameworka CUDA lub starego OpenCL 1.1 ew. 1.2, jeżeli sama karta ma być w pełni wykorzystana lub jakkolwiek wykorzystana. CUDA ma taką wadę, że działa tylko na GPU od NVIDA, działa tylko na GPU, nie wspiera asynchronicznego HSA/hUMA. To jest ogromna wada dla twórców oprogramowania konsumenckiego, także coraz więcej z nich będzie przechodzić na OpenCL, oby 2.x od razu vide zapowiedź Octane 3.0 na OpenCL.

 

To będzie tutaj nowy wyścig. OpenCL 2.x daje możliwość implementacji bardziej złożonych procedur/algorytmów niż CUDA. Na OpenCL opiera się także C++ Amp, OpenACC itp.

 

OpenCL 2.x (jeszcze w połączeniu z Vulcan) praktycznie eliminuje wąskie gardła GPGPU, czyli można stworzyć kompletny silnik renderujący bez podziału na GPU i CPU np: w Vray zniknąłby podział na VrayRT i Vray. Kto sobie pozwoli na niewspieranie kart NVIDIA w 3D, jakoś łatwiej przyjęło się niewspieranie kart AMD/Intel itd., ale NVIDIA, dlatego wszyscy będą czekać x lat z tym jak NVIDIA się ogarnie..., bo takie karty są najpopularniejsze wśród "weteranów" 3D ?:)

Edytowane przez materalia
Napisano
Przyznaj się, że po prostu jesteś w opozycji i masz słabość do czerwonych

 

W takiej opozycji której nie ma tak jak tej rzekomej lewicy w parlamencie hehe:). Istnieje od lat jakaś zmowa na czerwonych, nie wiem czemu, może to wina koloru i dlatego zieloni są bardziej trendy ;).

 

ps. w domu są jeszcze dwa inne kompy użytkowane przez domowników i nie są to czerwoni ;).

Napisano (edytowane)
to raczej nie jest wina sterowników Radeon, gdyby tak było jak piszesz to podobnie byłoby w innych programach
Dude... To że AMD ma problemy ze sterownikami OpenGLa i OpenCLa to fakt znany od dawna. Nie tylko w Maya są problemy, te problemy występują w większości softów graficznych. Śledzisz rozwój blendera? Poczytaj na trackerze jakie alpejskie kombinacje muszą robić developerzy omijając bugi sterowników. Blender działa relatywnie dobrze na kartach AMD tylko dlatego że developerzy poświęcają na fiksowanie kilka razy więcej czasu niż w przypadku kart od Nvidii.

Myślisz że dlaczego tak długo czekaliśmy na Cyclesa na kartach Czerwonych? Odpowiedz jest prosta- AMD nie potrafiło zrobić implementacji zgodnej ze standardem i poprawnego kompilatora. Olewali to przez kilka lat, sytuacja poprawiła się dopiero po ingerencji Apple jak ci zorientowali się że karty które montują do ich super-duper stacji roboczych nie nadają się zupełnie do obliczeń GPGPU.

 

http://streamcomputing.eu/blog/2013-08-01/amd-fix-bugs-in-opencl-compilerdrivers/

http://blender.stackexchange.com/questions/452/what-is-the-technical-reason-that-blender-cannot-use-opencl-on-amd-graphics-card

https://www.change.org/p/advanced-micro-devices-fix-bugs-in-opencl-compiler-drivers-and-eventually-opensource-them

 

Kompilator który nie potrafi stworzyć funkcji tylko duplikuje kod? Bitch please...

Edytowane przez Monio
Napisano
W takiej opozycji której nie ma tak jak tej rzekomej lewicy w parlamencie hehe:). Istnieje od lat jakaś zmowa na czerwonych, nie wiem czemu, może to wina koloru i dlatego zieloni są bardziej trendy ;).

 

Coś mi się wydaje Panie materalia, że nasza rozmowa zaczęła się już jakiś czas temu sprowadzać do czysto teoretycznej.

Czy Ty używasz profesjonalnie oprogramowania 3D, czy raczej gdybasz sobie co by było, gdyby viewporty były lepiej dopracowane? :)

Są jakie są, szukamy tu kart do poprawnej obsługi tego, co jest na rynku, a nie czysto teoretycznych rozważań jak powinno to wyglądać.

 

Oczywiście, bardzo miło jest poczytać o teoriach rozwoju sterowników i planach AMD, nikt też na pewno nie ośmieli się krytykować ich wydajności. Patrząc na stosunek cena/wydajność, osobiście też na pewno kupiłbym AMD, gdyby tylko dało się dzięki niej pracować.

Ale nie da się, w co najmniej jednym, bardzo popularnym programie, którego używam i tak się przypadkiem składa, że autor wątku też ;)

Skupmy się na praktyce, nie teorii, być może za kilka lat viewporty będą opracowane pod wizję AMD. Póki co niestety nie są.

Do dziś wspominam porażkę w pracy, w postaci kupna karty dwuprocesorowej (bodaj GeForce GTX 295) i wielkie rozczarowanie gdy okazało się, że jest wolniejsza niż GTX 280, także na bank jakoś słabo jest to napisane.

 

Odnośnie fillrate:

Oczywiście, masz rację i na pewno fillrate zależy między innymi od prędkości pamięci.

Ja jednak poruszam ten temat od innej strony - nie wnikam w sposób, jakim mierzy się te wartości, a co z nich wynika.

A wynika prosta zależność: Im wyższy fillrate, tym wyższa wydajność viewportu wyświetlającego prostą geometrię.

 

Tabelka zaś bardzo ładnie pokazuje, jakie są wartości dla poszczególnych kart i rzeczywiście się to bardzo zgadza (+/- 5% rzecz jasna).

Po zmianie z GT 8800 (Fillrate 10.4) na GTX 570 (Fillrate 30) ilość klatek podskoczyła trzykrotnie,

po kolejnej zmianie na GTX 970 (Fillrate 58.8) ilość klatek wzrosła niecałe 2x.

(Nie wiem jak się ma to do 8800, bo 8800 i 570 pracowała pod starszym cpu, a zmiana 570 na 970 odbyła się pod nowszym, lecz względne różnice się zgadzają).

Więc myślę, że jest to doskonały przelicznik, a w jaki sposób liczony, to już inna sprawa.

 

Test Cinebech - te wyniki myślę, że można sobie odpuścić.

W ustawieniach karty możesz ustawić różną jakość, choćby filtrowanie tekstur czy antyaliasing, w zależności od ustawień na danym komputerze ilość klatek diametralnie się zmienia.

Napisano

Z tymi petycjami z 2012/2013 roku to pojechałeś, także rzeczy uznaje za hejt, tylko jak to się ma do obecnego czasu, trochę nijak. Osobliwa technologia CUDA z GPU NVIDIA zawsze będzie lepiej zintegrowane niż otwarty standard w NVIDIA, szczególnie kiedy tygodnie pracy idą na optymalizacje konkretnie pod architekturę vide Octane dla Maxwella gdzie szarpnięto się w poprawki na poziomie assemblera.., wystarczy porównać CUDA do OCL na samej NVIDIA, widać to także było w przypadku AMD na przykładzie Mantle vs DX11, tylko AMD zresztą słusznie postanowiło ten projekt nie faworyzować publicznie i przenieść rozwiązania do standardu DX12 i Vulcan - które są implementowane nie tylko na AMD. CUDA nie jest do zaakceptowania w szerszym kontekście, było super w czasach pionierskich GPGPU, ale na dłuższą metę NVIDIA przegra z tym uzależniającym podejściem, bo co z tego, że można sobie całkiem mocno akcelerować GPU jakieś niewielkie operacje skoro np: cały końcowy rendering trzeba już puścić na CPU po to żeby ogarnąć całą złożoność projektu vide VrayRT vs Vray czy Blender Cycles itp. - który jak wiesz nie wspiera wszystkiego pomimo tytanicznej pracy jaką wykonano..., wtedy już bez jakiegokolwiek wsparcia GPU, to na co taki GPGPU ?. Na tym osadza się niewielka przydatność GPGPU w renderingu 3D.

 

Obecnie OpenCL2.x i OpenGL Vulcan w AMD są nieporównywalne do swoich poprzedników. AMD dawno temu w pierwszej kolejności rozwijało swoje CUDA które nazywało się wtedy Brook++, potem zarzucili na rzecz standardu OpenCL, ale byli w tyle za NVIDIA, teraz to się zmieniło i jest na odwrót. OpenCL to nie jedyne rozwiązanie i nawet nie najlepsze od strony dev jakie ma do zaoferowania teraz AMD, że wspomnę choćby Microsoft C++ Amp, itp.

 

Mógłbym uwierzyć w to co piszesz nt. OGL gdyby nie Cinema4D która jest jednym ze stabilniejszych kolubryn3D i notorycznie wywalała mi się w OpenGL na GTX550Ti, ale rozumiem, NVIDIA zmieniła kolejny raz architekturę i poprzednią zaczęła nieco olewać w sterownikach. AMD robi to jeszcze bardziej okrutnie i przestaje całkowicie wspierać stare architektury. CUDA nie wywalają się przy różnych okazjach, tak to jeszcze uwierzę w nieomylność NVIDI, mi się wywalało dość często na GTX550Ti, następował freez i restart sterów, to chyba tutaj normalka ?:)

 

Na AMD z OGL to akurat nie miałem jakiś problemów na używanych softach, ale nie wątpię w ich istnienie :).

 

Ty nastawiasz się na full only GPU, okej, czyli taki stary czysty GPGPU ścisle powiązany z jednym układem ze wszystkimi tego konsekwencjami tj. wyższa wydajność lecz ograniczone możliwości i zakres użycia, a dzisiaj się od tego odchodzi na rzecz HSA tj. asynchronicznej integracji CPU, GPU, współdzielonej pamięci itd. NVIDIA też podąża w tym kierunku, przekonasz się o tym za rok jak zerzną od AMD architekturę GCN i wypuszczą pod swoją nazwą jako Pascal GTX 1000, wtedy zacznie się euforia i chwalenie tego co robi obecnie AMD jako wielkie odkrycie na przyszłość NVIDIA :)

Napisano
Są jakie są, szukamy tu kart do poprawnej obsługi tego, co jest na rynku, a nie czysto teoretycznych rozważań jak powinno to wyglądać.

 

To proszę dowieść, że AMD obecne na rynku ze swoim OGL nie działają prawidłowo na jakimś sofcie. Proste jak drut, bo inaczej uznam to za takie samo gdybanie. Tak się składa, że mam kartę AMD i mogę gdybania zweryfikować :). Jak ktoś mi pisze o znikających elementach to traktuje to niezbyt serio, bo jeszcze nic takiego na dwóch posiadanych przez siebie kartach AMD nie zaobserwowałem w żadnym z używanych softów. Do stabilności też nie mogę się specjalnie przyczepić. Skoro działa tak samo to po cholerę 2x przepłacać za taką samą wydajność i możliwości, dla świętego spokoju ?.

 

Tabelka zaś bardzo ładnie pokazuje, jakie są wartości dla poszczególnych kart i rzeczywiście się to bardzo zgadza

 

bo producent skaluje jednostki ROP i TMU do przepustowości pamięci, ale wystarczy jak obniżysz zegar RAM to przekonasz się o tym co waży najmocniej, nietrudno chyba to dowieść.

Napisano

Pewnie. Większość developerów się uwzieła na biedne AMD które bezbłędnie zaimplementowało OpenCLa a ich architektury są idealne. Programy z rzadka wspierają OpenCLa bo developerzy wolą robić na złość Czerwonym zamiast mieć większą bazę konsumentów. Hejt i spisek zielonych.

 

OpenGL Vulcan w AMD są nieporównywalne do swoich poprzedników.
To doskonale pokazuje że teoretyzujesz/fantazujesz zamiast opisywać stan rzeczywisty.

Face facts- Vulkan jeszcze praktycznie nie istnieje i nic go nie wspiera, nie ma nawet gotowej specyfikacji! To się niedługo zmieni, oczywiście. Tylko że my mówimy o dniu dzisiejszym a nie teoretycznych-potencjalnych-fantastycznych korzyściach z technologii które być może programiści zaimplementują w przyszłych wersjach swoich programów (z kilkuletnim lagiem oczywiście). Nvidia + Cuda działa dziś, teraz, w wielu programach. Nie za rok jak AMD wypuści swoją nowatorską architekturę która wyznaczy nowe standardy (ile razy już to słyszałem o kartach z obu obozów).

Napisano

Panowie postanowile kupuje AMD karte 390xxx xD i jutro pise list otwarty do Autodeska by naprawil bugi w Mayce bo tak sie sklada ze na tym sofcie pracuje xD. Potem poczekam z freelancem az naprawia bugi.

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności