Jump to content

AMD i nowa strategia dla profesjonalnych kart graficznych


Recommended Posts

  • Replies 146
  • Created
  • Last Reply

Top Posters In This Topic

Nie no, w Polsce nie mozna kupic tych kart bo wykupiles, zeby poskladac kilka renderfarm. Tyle ich wykupiles ze wzrosl popyt i ceny podniesli. I co tam renderujesz na tych renderfarmach, bo niedoslyszalem?

Link to post
Share on other sites
Ja kupiłem RX480 8GB za 1219 zł od sztuki, ale kupiłem od razu 15 sztuk do renderfarm.

Pictures or it didn't happen.

 

A co do gtx970 - śmiga, ale też uważam, że przepłaciłem.

Link to post
Share on other sites
Nie no, w Polsce nie mozna kupic tych kart bo wykupiles, zeby poskladac kilka renderfarm. Tyle ich wykupiles ze wzrosl popyt i ceny podniesli. I co tam renderujesz na tych renderfarmach, bo niedoslyszalem?

 

Gdzie nie można kupić ?. Kto chce kupi to kupi RX 460/470/480 więc nie piernicz farmazonów Gringo. Odnośnie 2. Animacje, symulacje...

Link to post
Share on other sites

Ej serio te wszystkie komenty na temat.. tego czy kupił czy nie kupił albo robienie sobie żartów co on z tym robi.. i czy wogóle ma prace etc..

Krwa serio? co wy macie 5 lat? znacie go prywatnie? raczej nie.. kocham krna to w polsce.. każdy wie co robisz w życiu lepiej od ciebie etc etc.

 

koleś ma swoje zdanie na temat AMD, co prawda mocno się z nim nie zgadzam ale kurde to nie powód.. aby robić se jakieś jaja na prywatne jakby jego sprawy.. żenada..

Link to post
Share on other sites

O, no proszę, karty znowu da się kupić. Dzięki materalia za update linków.

 

Opłacalność tych kart jednak nadal stoi pod znakiem zapytania:

RX470 8gb - 1175zł

GTX970 4gb - 1099zł

 

GTX970 kupiłem 10 miesięcy temu, na początku listopada 2015. Teraz AMD wydaje kartę, która daje takie same rezultaty w swoim głównym przeznaczeniu (mowa o grach - pare klatek więcej, pare klatek mniej).

 

Jedyny rendering GPU jaki robie to VrayRT(CUDA), podgląd światła, żadnych finalnych renderów. No raczej nie będę żałował ze rok temu wydałem 200zł więcej, i nie czekałem na RX470.

 

Gdybym sprzęt kupował teraz, wybór padłby raczej na GTX1060. Cena jak GTX970 sprzed roku (1400-1500zł) a 6gb może zachęciłoby mnie do pobawienia się FStormem. No i wydajność większa od RX480, który jest w tej samej cenie. A pół-pasywne chłodzenie chwale sobie codziennie.

 

Nie rozumiem AMD. Walkę mogą wygrać tylko ceną, ale nawet nie próbują. Nie bez powodu Tiger jest tańszy od Redbulla.

 

Ciekaw jestem czy faktycznie z czasem, powiedzmy za pół roku, te Radeony zyskają jakąś przewagę nad poprzednia generacją nVidii.

Link to post
Share on other sites
@deshu porównujesz cenę wersji 4gb (nv) z 8gb (radeon). Co nie zmienia faktu, że u nas w Polsce te ceny są zupełnie nie takie jakie mają być...

 

Zdaje sobie z tego sprawę, dlatego wyraźnie to zaznaczyłem, żeby nie było, że manipuluje. Jak widać, 8gb nie daje przewagi wydajnościowej w grach. Nie mogę się doszukać info czy rx470 z tego benchmarka to wersja 8gb czy 4gb.

 

A gdzie ceny są takie jak być powinny? Wszyscy mówią o lepszych cenach w GB, Niemczech czy USA, a ja nigdzie nie widzę żeby rx470 kosztował tyle, ile zapowiadano, że będzie.

Edited by deshu
Link to post
Share on other sites

Słowo mocno w tym przypadku brzmi cokolwiek śmiesznie :) . Jakby nie patrzeć to RX 480 kopie im tyłki dość mocno.

 

 

Pomijam sens zakupu zakupu karty RX 480 8GB do gierek, bo najlepszy wybór to jest ta za 999zł, osiągi RX 470 4GB w gierkach prawie takie same jak RX 480 8GB, RX 470 ma lepsze OC (co przekłada się na wydajność TMU/ROP), a cena poniżej 1000 zł dok. 999zł, choć fabrycznie wydajniejszy jest Sapphire RX 470 NITRO+ 4GB:).

http://www.agito.pl/karta-graficzna-asus-radeon-rx-470-strix-4gb-gddr5-256-bit-strix-rx470-o4g-gaming/pd/DG0MP2BBM/

https://www.morele.net/karta-graficzna-sapphire-amd-rx-470-nitro-4gb-gddr5-256-bit-dvi-2xhdmi-2xdp-box-11256-01-20g-774722/

 

Kupowanie RX 480 8GB do gier mija się z celem, a GTX 1060 3GB (3GB ???) to czy nie jest czasami kastrat na wzór GTX 970 ?.

 

Generalnie karty serii Polaris zoptymalizowane są pod DX12 (Mantle) i Vulkana, a to API staje się już standardem, natomiast gierki DX11 będą działać wystarczająco dobrze. Różnice są nie tylko w fps, także konstrukcji gpu. Za rok każda gra będzie optymalizowana na DX12/Vulkan :)

 

Crossfire 2x RX 480 vs GTX1080, to samo dałoby 2x RX 470 4GB za 999 zł :), co dobrze wróży karcie z dual Polaris (dual jest lepsze od cross)

 

@deshu

 

Kupiłeś tego kotleta nvidi do gierek czy gpgpu, bo jeżeli do gierek to przepłaciłeś, gdyż najlepiej kupić PS4, znów AMD itp. :). W przypadku GPGPU ilość pamięci jest kluczowa, lepiej mieć więcej pamięci niż mocy, bo moc nadrobisz łatwo (dokładasz kolejną), a pamięć, jak brakuje pamięci to zostaje zazwyczaj znacznie wolniejsze CPU..., a pierwsza karta NV z 8GB kosztuje obecnie ok. 2200zł, a za to są prawie 2 sztuki RX 480 8GB, które są wyraźnie wydajniejsze w GPGPU. Dla mnie idealna byłaby karta z możliwością rozbudowy VRAM, może być nawet na poziomie tego RX 470, ale niech dadzą rozbudowę VRAM do 32GB :).

 

=====

 

Jeszcze kilka gierek

 

Hitman, na RX 470 4GB uzyska podobnie jak na RX 480 8GB, znów wydajniej ?

 

 

The Witcher 3, jak wiadomo korzysta dość mocno z NVIDIA Gameworks, które na AMD działają znacznie wolniej lub wcale.

 

 

Ja tam na PC w gry nie gram :)

 

Na koniec dodam tylko, że różnice są w granicach błędów statystycznych, więc można uznać karty RX 470 vs RX480 vs GTX1060 i ew. jakieś GTX970 z mocnym OC za porównywalne. Oczywiście w DX12/Vulkan bezsprzecznie wygrywa AMD.

Link to post
Share on other sites
Na koniec dodam tylko, że różnice są w granicach błędów statystycznych, więc można uznać karty RX 470 vs RX480 vs GTX1060 i ew. jakieś GTX970 z mocnym OC za porównywalne.
Więc po wuj ta cała debata na 12 stron?
Link to post
Share on other sites
Na koniec dodam tylko, że różnice są w granicach błędów statystycznych, więc można uznać karty RX 470 vs RX480 vs GTX1060 i ew. jakieś GTX970 z mocnym OC za porównywalne. Oczywiście w DX12/Vulkan bezsprzecznie wygrywa AMD.

 

GTX970 bez żadnego OC ma średnio więcej klatek od RX470. Zmanipulować możesz tylko sam siebie:)

 

A co będzie to czas pokaże. Żadne cudne nazwy typu Vulkan, Mantle itd nie robią mi różnicy. Nie kupuje karty żeby za rok coś mogła. Kupuje, i korzystam od razu. Jak za rok, mój wtedy dwuletni gtx970 zacznie mnie uwierać to zmienię. Ale nie sądzę żeby tak się stało.

 

Jakim silnikiem renderujesz na radeonach, pytam serio?

Link to post
Share on other sites

Dałeś za tego wykastrowanego kotleta z 3.5GB+0.5GB ponad 1500 zł i porównujesz do kart poniżej 1000 zł od AMD, bo możesz porównywać tylko do R9 380X 4GB lub RX 470 4GB lub RX 480 4GB (wszystkie pełne 4GB) - karty 8GB w testach gier przygotowanych na 2/4GB/FHD to bez sensu???, to są karty na poziomie GTX960/GTX970 wydajnościowo i zasobami, ale w cenie tej najtańszej, poniżej 1000 zł, strata nawet powiedzmy kilku klatek w FHD da się przeżyć bardziej niż przepłacanie o nawet 50%. Wkleiłem przykłady w których ten mocno przeceniony kotlet bez panierki GTX 970 OC przegrywa ze znacznie tańszymi kartami za ok. 1000 zł, a Ty mi piszesz o manipulacji. Manipulacji to dokonała NV skoro ktoś dał za kartę o takich parametrach >1500 zł w 2015/16 roku, ale już wtedy to byli frajerzy czesani przez NV :D. Odpowiednikiem cenowym tej karty był i chyba jest R9 390 8GB (NV została zmuszona obniżać ceny z powodu RX) i kto kupił tą kartę raczej nie myśli o wymianie na GTX970 (szczególnie) i raczej RX470 4GB (bo może wersja 8GB i znacznie mniejszy pobór energii może tylko kusić), bo nawet jak wrzuci sobie 4K tekstury i DX12/Vulkan, to się nie zatka, bo ma 8GB i nadal właściwą do tej pamięci wydajność oraz wsparcie sprzętowe nowych API. Większość użytkowników GTX ledwo co kupiła GTX970 to już myśli wymianie na kotleta GTX1060, bo karta praktycznie bardzo szybko się zestarzała..., kolejny bez sensu wybór GTX1060, który równie szybko będzie zdychał, bo to kolejna nieprzyszłościowa karta, gdyż słabo sobie radzi w DX12/Vulkan, a już obecnie jest wiele tytułów używających tego API, a za rok to norma. I co, po raz trzeci kurs do sklepu płacić za to samo od NV, to jest frajerstwo, bo RX przynajmniej względem R9 daje wyższy postęp w DX12/Vulkan i energetyce, a GTX1060 jedynie w końcu obsługuje więcej niż 3.5GB, wow!:)

 

I to sugerowanie, że gry nie działają na Polarsie z miejsca. Działają i to elegancko. Kupujesz Polarisa i korzystasz, czym wyższe parametry ustawisz, tym lepiej, bo to najbardziej wiarygodne testy na przyszłość, jak ktoś kupuje kartę na >2lata, bo FHD to dziś na PC tylko absolutnie minimum, ja najcześciej jak już coś uruchomię to w 1440p lub 2160p - to się nie skaluje prosto!, robię tak już od czasów R9 380X.

 

Porównuje karty NV do AMD, a nie AMD do NV, czyli szukam odpowiednika dla R9 380X lub RX 470 lub R9 390 itd. w stosunku, wydajność, cena, zasoby, najmniej ważna jest dla mnie energetyka, ale też ważne. Natomiast dla Ciebie karty AMD kręcą się w koło shitu GTX 970, w tym sęk, dlatego nie dostrzegasz jak dałeś się naciąć :)

 

Jakim silnikiem renderujesz na radeonach, pytam serio?

 

jeżeli chodzi o pathtracery to luxrender, a testuje indigo.

Edited by materalia
Link to post
Share on other sites
Dałeś za tego wykastrowanego kotleta z 3.5GB+0.5GB ponad 1500 zł i porównujesz do kart poniżej 1000 zł od AMD.

A ty porównujesz ceny NV sprzed roku do aktualnych AMD :) Hehe. GTX970 4GB jest teraz o 2-3 stówki tańszy niż RX470 8GB.

 

jeżeli chodzi o pathtracery to luxrender, a testuje indigo.

No spoko, czyli dokładnie jak podejrzewałem, jesteś wojującym teoretykiem.

Link to post
Share on other sites
A ty porównujesz ceny NV sprzed roku do aktualnych AMD :) Hehe. GTX970 4GB jest teraz o 2-3 stówki tańszy niż RX470 8GB.

 

 

No spoko, czyli dokładnie jak podejrzewałem, jesteś wojującym teoretykiem.

 

 

xD no dokładnie luxrender nadaje sie jedynie do renderowania, śmiechowych testów. czy jakiś prostych interiorów..

jak wrzuciłem trochę bardziej skomplikowany interior. (cycles zużycie ramu na poziomie 2 giga). to już się wykrzaczył :D

Link to post
Share on other sites
Vulkan, Mantle itd nie robią mi różnicy. Nie kupuje karty żeby za rok coś mogła.
Prędzej za 3 lata albo i więcej. Nowe API są jeszcze w powijakach (szczególnie Vulkan) i tylko mała garstka tytułów z nich korzysta (dokładnie 11 gier). Tylko 2 gry wymagają DX12 jako minimum, co jest oczywiście ściemą bo to gry od Microsoftu i nie mają nic czego nie dałoby się osiągnąć na DX11. Żaden pakiet 3D nie wykorzystuje jeszcze z nowych API. Nikłe szanse że staną się one standardem w tej dekadzie, zerowe że będą wymaganiami minimalnymi. Tak tylko przypomnę że Maya, Modo i Blender w minimalnych mają dziesięcioletniego OGL2.1 natomiast Cinema sześcioletniego OGL4.1.
Link to post
Share on other sites
A ty porównujesz ceny NV sprzed roku do aktualnych AMD :) Hehe. GTX970 4GB jest teraz o 2-3 stówki tańszy niż RX470 8GB.

 

Nie kłam! w żywe oczy fanboju NV, RX 470 4GB na dzień dobry tuż po premierze kosztuje teraz 940 zł, pewnie dobije do 900 zł niebawem, tyle co niedawno R9 380X 4GB, a GTX970 nie kupisz z 8GB, bo takie nie istnieją i nie mogą istnieć w tak przestarzałym układzie, nawet GTX980Ti tyle nie ma (6GB maks.) choć niedawno kosztował ponad 2 tyś, a teraz 2-3 stówki mniej. Gdzie 4GB, a gdzie 8GB, to jest przepaść, nawet jak widać dla kart NVIDIA - znacznie większa niż dla kart AMD (gdzie wystarczy dopłacić tylko 200zł do 8GB). I tak RX 470 ma więcej pamięci niż kotlet GTX970 który obsługuje normalnie 3.5GB + 0.5GB. Nawet tu widać przewagę GPU od AMD, bo może działać na 4, równie dobrze na 8, ten sam rdzeń. Ceny w NV na kotlety obniżyli, bo AMD ma lepsze propozycje.

 

Tyle kosztuje wersja 8GB!, rozumiesz 8, napisz sobie dużymi, bo dopiero GTX1070 ma tyle, czyli dopiero od 2016 roku domowe GPU od NV obsługuje więcej niż 6GB hehe, to co było w domowych AMD R9 290X/R9 390 sprzed 3 lat od 1500 w górę :)

https://www.morele.net/karta-graficzna-msi-radeon-rx-470-gaming-x-8gb-gddr5-256-bit-2xdp-2xhdmi-dvi-box-v341-001r-993494/

 

RX470 4GB, taką porównuj ze swoim kotletem GTX970 za ponad 220 zł droższym obecnie.

https://www.morele.net/karta-graficzna-xfx-radeon-rx-470-4gb-gddr5-256-bit-dvi-hdmi-3xdp-box-rx-470p4sfd5-985478/

 

GTX970, tyle co 8GB wersja RX 470, bez wątpienia do GPGPU RX470 z 8GB jest o całą długość lepszy, niż karta z 3.5GB + 0.5GB. GTX970 niedawno były po 1500, bo znajdowali się frajerzy co je brali za tyle hehe:)

https://www.morele.net/karta-graficzna-inno3d-geforce-gtx-970-herculez-x2-4gb-gddr5-256-bit-hdmi-2x-dvi-dp-n97v-1sdn-m5dsx-665540/

 

GTX1060 nie obsługują łączenia kart haha, jak to NV, krok wprzód, dwa kroki w tył.

 

No spoko, czyli dokładnie jak podejrzewałem, jesteś wojującym teoretykiem.

 

Praktyk GPGPU się znalazł hehe:) z przepłaconą kartą o 50% nie mająca nawet normalnych 4GB.

 

@maciek Jutrzenka

 

to już się wykrzaczył

 

Tobie się wykrzacza na OCL od NV, zacznij używać AMD R9. Myślę, że kreujesz, jak inni oponenci, żeby tylko pohejtować na AMD :). Lux jest od lat wystarczająco użyteczny do nawet profesjonalnych zastosowań, tylko co to znaczy profesjonalnych he. Piszesz bzdury zwyczajnie.

 

@Monio

 

Prędzej za 3 lata albo i więcej. Nowe API są jeszcze w powijakach (szczególnie Vulkan) i tylko mała garstka tytułów z nich korzysta (dokładnie 11 gier). Tylko 2 gry wymagają DX12 jako minimum, co jest oczywiście ściemą bo to gry od Microsoftu i nie mają nic czego nie dałoby się osiągnąć na DX11.

 

Liczba gier rośnie, za rok będzie 2x tyle, będą to tytuły topowe. DX12/Vulkan jest świeży, ale nie w powijakach. Mantle to jest eksperymentalne API, tak Metal od Apple. Co do wykorzystania w programach to tak jest jak napisałeś, także do programów wystarczy dziś każde GPU od AMD/Intel/NVIDIA. Oczywiście DX12/Vulkan powstał głównie z myślą o grach, bo w programach 3D raczej niewiele da takie niskopoziomowe API.

 

CUDA to może kiedyś podzielić los Glide :)

Edited by materalia
Link to post
Share on other sites

Ja sie na tym zupelnie nie znam, octan, vray rt, redshift czy wsparcie gpu w nuke, substance painter - to wszystko dziala na kartach radeon?:)

Ktos z obecnych tutaj tego uzywa we wspomnianych rendererach?

Edited by Pionier
Link to post
Share on other sites

A ile jest prawdy w tym, że podobno AMD daje tyle ramu, bo przez źle napisane sterowniki pamięć się zapycha i działa w podobny sposób do konkurencji z mniejszą ilością vramu? Gdzieś o tym czytałem (chyba na benchmark.pl), ale to było jakieś rok, dwa temu.

Link to post
Share on other sites
Tobie się wykrzacza na OCL od NV, zacznij używać AMD R9. Myślę, że kreujesz, jak inni oponenci, żeby tylko pohejtować na AMD :). Lux jest od lat wystarczająco użyteczny do nawet profesjonalnych zastosowań, tylko co to znaczy profesjonalnych he. Piszesz bzdury zwyczajnie.

 

yyy. ale ja renderowałęm na CPU only. bo na OCL. to wykrzaczało się na dzieńdobry. na CPU.. nawet szło ale chwile później albo artefakty i crash albo odrazu crash. Developerzy wiedzą o tym i sami mi napisali że luxowi daleko do stabilnośći komercyjnej. Dostali scenę i będą ją używali przy przyszłościowych testach :D

 

A ile jest prawdy w tym, że podobno AMD daje tyle ramu, bo przez źle napisane sterowniki pamięć się zapycha i działa w podobny sposób do konkurencji z mniejszą ilością vramu? Gdzieś o tym czytałem (chyba na benchmark.pl), ale to było jakieś rok, dwa temu.

 

To prawda ale jest też to karta przetargowa, i marketingowa.. no i więcej ramu to wieksze tekstury w grach można władować :)

 

 

Materiala. Co z tego że AMD ma więcej ramu na GPU. skoro niema aplikacji która by w sumie wykorzystała ten ram. Ani Octane ani Cycles ani Redshift który został napisany raptem kilka lat temu.. nie śmiga na AMD...

Link to post
Share on other sites
A ty porównujesz ceny NV sprzed roku do aktualnych AMD :) Hehe. GTX970 4GB jest teraz o 2-3 stówki tańszy niż RX470 8GB.
Nie kłam! w żywe oczy fanboju NV, RX 470 4GB na dzień dobry tuż po premierze kosztuje teraz 940 zł

 

Koniec tej farsy. Tak cie zaślepia czerwona płachta, że już nawet nie czytasz co inni piszą. Wyraźnie napisałem że 4gb vs 8gb.

 

Nie masz argumentów, skończ już. Gdy AMD będzie się nadawać do pracy, bo produkcyjne softy będą wspierać ich produkty, wrócimy do tematu.

 

Wracam do mojego odgrzewanego kotleta, a ty czekaj na swój obiad dwa lata czy ile tam chcesz.

Link to post
Share on other sites

@Monio

 

Ty nie masz zielonego pojęcia. Przewaga(niewielka! zresztą) w DX11 wynika głównie z użycia NVIDIA Gameworksów, które albo wcale nie działają na kartach konkurencji, albo znacznie wolniej.. ot taka to polityka NV, dlatego jest tak nielubiana to firma. DX12 może być podobnie z tymi NVIDIA Gameworksami.

 

Oto kilka porównań dla gier:

 

RX470 4GB, 1440p, karta za 940 zł, najlepszy stosunek wydajności do ceny i przyszłościowa do DX12/Vulkan, OC oraz łączenia 2 kart w Cross.

 

R9 Fury 4GB HBM, 2160p, karta za 1500 zł, znów AMD najlepszy stosunek ceny do wydajności itd., bo to już przedział kart do 4K.

 

Dla niedowiarków 1498zł: http://www.x-kom.pl/p/294781-karta-graficzna-pci-e-sapphire-radeon-r9-fury-4096mb-4096bit.html

 

Do FHD w zupełności wystarczą karty poniżej 800 zł lub mocne APU AMD, a do HD to nawet IntelHD (APU Intela) się już nada lub słabsze APU AMD :) np:

R7 360 2GB jest tańszy od GTX750Ti 2GB o prawie jedną stówkę, choć ponoć lepiej brać R7 260X 2GB (wydajniejsza i tańsza od R7 360), a w cenie GTX 750Ti można dostać R7 370 2GB/4GB lub RX 460 2GB/4GB :), a GTX950 nie kupi się tak tanio...

 

Uprawiacie fikcje NVidia. Ta firma może brylować tylko zamkniętymi closed source technologiami wciskanymi w różne programy żeby pokazać swoją nierzeczywistą przewagę, inaczej jej nie mają, tak właśnie z frajerów wyciskają kasę vide szajsowaty kotlet pt. GTX970 za 1500 z 3.5GB + 0.5GB (jeszcze z pół roku temu za tyle niektórzy brali, inni mówili, że dobrze robią hehe), nawet nie ma szans na 8GB, bo ten GPU to zwykły drogi bubel technologiczny i zwolniłby chyba do prędkości ZX Spectrum stronicując pamięć w paczkach kilkudziesiąt bajtowych hehe :D, taka jest prawda.

 

@deshu

 

Gdy AMD będzie się nadawać do pracy

 

Zależy czego używasz, jak opierasz się na przereklanmowanym CUDA dostępnym tylko na NV, to możesz używać tylko kart NV, bo NV nie ma w zwyczaju dzielić się z kimkolwiek czymkolwiek, nie licz na wsparcie CUDA gdziekolwiek, nawet jak jest to możliwe, bo NV za to pozwie każdą firmę do sądu..., gdyż na tym polega ich polityka wciskania bubli za dużą kasę. Używam od zawsze tylko pathtracerów OpenCL na GPU (już od HD48xx z 2009), więc takiego problemu nie mam, nawet laptop (tablet) na GPU IntelHD akceleruje mi rendering pathtracingiem, niewiele stoi na przeszkodzie żeby nawet różne Qualcomy itp. również wykonywały taki kod OCL. Blender natomiast bardzo traci w oczach jako soft open source z powodu wspierania tak silnie zamkniętych technologii jak CUDA, bo tym nie powinno zaśmiecać się kodu Blendera, bo NVIDIA nic nie wnosi tylko wynosi.

 

Ani Octane ani Cycles ani Redshift który został napisany raptem kilka lat temu.. nie śmiga na AMD...

 

żądasz niemożliwego, nigdy nie będzie CUDA na AMD, bo by się okazało, że działa lepiej niż na NV hehe:) i jeszcze taniej, dlatego NV wyśle armię prawników żeby do tego nie dopuścić, bo to byłby ich koniec, natomiast inicjatywa Boltzman jest tylko kierowana do developerów, a nie użytkowników, w tym problem. Głównym powodem używania CUDA na NV jest kiepskiej jakości OCL od NV.

 

Nie sądzę żeby Cycles był szybszy od Luxa na tej samej cenowo czy nawet wydajnościowo karcie AMD i NV.

Bredzicie towarzysze kumotry co zajętości pamięci w liczeniu GPGPU na AMD, kolejne fikszyn fanbojowskie.

 

@Pionier

 

octan, vray rt, redshift czy wsparcie gpu w nuke, substance painter

 

Pathtracer Octane jest only CUDA czyli only karty NVIDIA, jeszcze spec. zoptymalizowany na GTX980. Vray RT potrafi wykorzystać OCL, ale użytkownicy Vray tym raczej nie renderują, Redshita nie znam, only CUDA, OCL w planach... Nuke nie znam wcale, Substance Painter działa na każdym obecnym GPU w sklepie (włącznie z IntelHD, na AMD tak samo jak na NVIDIA, tylko lepiej mieć AMD, bo taniej kupić 8GB, za ok. 1100zł np: RX470:) - program potrzebuje min. 2GB do w miarę wygodnej pracy z bardziej skomplikowanymi modelami, na dzień dobry zabiera 1GB (jak nic nie ma, pusty viewport), nie używam go, kiedyś testowałem, bo ktoś mi tu wciskał kit, że nie ruszy na AMD.

Edited by materalia
Link to post
Share on other sites

Ten znowu zaczyna bełkot o Nviidii. Nie wiem czy nie potrafisz czytać ale zacytowałem fragment w którym stwierdziłeś że Vulkan i DX12 niewiele pomogą w pakietach 3D. To jest po prostu bzdura nie z tej ziemi. Pokazujesz że nie wiesz jaka jest różnica pomiędzy starymi a nowymi API i jakie korzyści to może przynieść w renderowaniu grafiki w ogóle. Może podpowiem: Kontrola nad strukturami danych i pipelinem renderingu których nie da się uzyskać za pomocą starych API. Trudno mi znaleźć jakiekolwiek elementy pakietów 3D w których nowe API potencjalnie nie przyniosły by korzyści. Skoro jesteś takim specem i pewnie piszesz viewporty z zamkniętymi oczami to oświeć mnie i wymień gdzie niskopoziomowe API się nie sprawdzi.

Edited by Monio
Link to post
Share on other sites

cały dzień zbierałem się z nóg xD po poście materiali.

 

żądasz niemożliwego, nigdy nie będzie CUDA na AMD, bo by się okazało, że działa lepiej niż na NV hehe:) i jeszcze taniej, dlatego NV wyśle armię prawników żeby do tego nie dopuścić, bo to byłby ich koniec, natomiast inicjatywa Boltzman jest tylko kierowana do developerów, a nie użytkowników, w tym problem. Głównym powodem używania CUDA na NV jest kiepskiej jakości OCL od NV.

 

Nie sądzę żeby Cycles był szybszy od Luxa na tej samej cenowo czy nawet wydajnościowo karcie AMD i NV.

Bredzicie towarzysze kumotry co zajętości pamięci w liczeniu GPGPU na AMD, kolejne fikszyn fanbojowskie.

 

ja stary nie wiem co ci mam odpisać. Stary zrozum że wszyscy tutaj mają w dupie co jak działa na jakim języku i dlaczego po co. Po prostu ma działać, i tyle... skoro AMD jest takie chiper awesome a NVIDIA i ich biblioteka cuda. jest taka tragiczna. to dlaczego wszystkie firmy które piszą silniki renderujące wybierają NVIDIE i cude. ;/ a nie zajebiste AMD, które działało by i na AMD i na NVIDI...

Link to post
Share on other sites

@Maciek Jutrzenka

 

koro AMD jest takie chiper awesome a NVIDIA i ich biblioteka cuda. jest taka tragiczna. to dlaczego wszystkie firmy

 

jakie firmy, Ty podajesz tylko tego bidnego Cyclesa GPU i tyle, a to nie jest ani super dobry, ani nadzwyczaj wydajny silnik renderujący, toż to pospolity Pathtracer z Sobolem, który nie nadaje się do wszystkiego jak każdy taki pathtracer, wystarczy trochę szkiełek, kaustyki i leży jak długi na prostej, kiedy na luxcore mam inne opcje, czasami GPU np: Pathtracer (bias i unbias) + Metropolis, ostatecznie zostaje CPU, bo bardziej zaawansowane metody są kapryśne na GPU, choć na Indigo mniej kapryśne, w końcu za coś się płaci... itd. :). Nie ma idealnego silnika do wszystkiego, także Cyclesem czy ogólnie Pathtracerem wszystkiego nie zrobisz.

Słyszałeś o integracji AMD ProRender w Blenderze 2.8 https://lists.blender.org/pipermail/bf-committers/2016-July/047519.html, tak to będzie kolejny silnik dla Blendera, pytanie czy nie wywalą teraz CUDAków ?, najwyższa pora, bo przystosowanie Cyclesa do OCL napotka za dużo przeszkód, bo to stara generacja kodu przygotowywana na GPU NV Fermi i CUDA..., oczywiście sceny (shadery) należy budować inaczej niż na Cyclesa. Zobaczymy co da ProRender w Blender, bo to może być mega hit, bardziej by mnie przekonało do tego softu, jeżeli integracja pójdzie w dobrą stronę :). Ktoś jednak spodziewający się przeniesienia scen z Cyclesa jednym klikiem powinien sobie to wybić z głowy, bo to nigdy nie działało dobrze na żadnym sofcie!.

 

--

NVIDIA chciałaby mieć wiele z technologii jakie posiada AMD, a AMD może tylko CUDA zrobione przez NV, czyli nic takiego czego już nie ma :) np: braku HBM w NV wynika tylko z bardzo kiepskiej konstrukcji GPU NV, co sami przyznali..., a już taki Radeon SSG Pro jest zupełnie poza zasięgiem NVIDIA, a to pierwsza karta GPU która eliminuje problem pamięci, 1TB na GPU, czemu nie ? :). Pamiętaj, że normalny R9/RX mógłby mieć nawet kilkadziesiąt GB z pełną wydajnością w całej przestrzeni. Do tego pamięć działa w hUMA z pełnym zarządzaniem tj. znane MMU z CPU. Kiedy AMD skończy Zen to pokażą takie APU na DDR5X (choć już pokazali pierwsze APU na DDR5 w PS4), że NVIDIA i Intel mogą tylko oblizać się smakiem za taką wydajnością hybrydową, nawet NVlink wersji 5 nic nie da, ale buble będą dalej cisnęli :). Mała firma AMD robi więcej niż obie zebrane do kupy będące dziesiątki razy większe. Tutaj jest takie zaślepione samonakręcające fanbojstwo NVIDIA wciskające ludziom kotlety GTX970. Minusujcie dalej fanboje NV z kółka wzajemniej adoracji :D

 

@Monio

 

Pokazujesz że nie wiesz jaka jest różnica pomiędzy starymi a nowymi API i jakie korzyści to może przynieść w renderowaniu grafiki w ogóle.

 

Niskopoziomowe API w viewport może coś przyspieszyć lub poprawić w typowych używanych widokach cieniowania, nawet nie sądzę żeby w widoku PBR cokolwiek to dało, kiedy głównym hamulcowym jest sama w sobie aplikacja. Oczywiście można to wszystko przepisać na niskopoziomowe API, tylko czy to da korzyści, bo ja mam wątpliwości, dlatego sądzę, że wysokopoziomowe API pozostanie i będzie nadal wiodące w programach CAD i 3D :). Masz prawo do własnego zdania.

Link to post
Share on other sites

Nazywaj to własnym zdaniem, ja tutaj widze zwyczajny brak twojej wiedzy. W nowych API wszystko rozbija sie o "głównym hamulcowym jest sama w sobie aplikacja". To był problem już za czasow Longs Peak. Vulkan powstał po to żeby tworcy aplikacji mogli sami zarzadzać danymi w sposob dostosowany dokładnie pod ich soft, nie na odwrot.

Link to post
Share on other sites

Coś mi się zdaje, że trochę się zapomniałeś jak ten Archimedes.

 

„Dajcie mi punkt podparcia, a poruszę Ziemię”

 

Tyle, że nie znalazł się nikt, kt0 by mu powiedział:

 

-To pokarz tę dźwignię, którą masz zamiar poruszyć ziemię.

 

I w tedy by mu zmiękła rura :)

 

Jesteś w lepszej sytuacji bo masz dźwignie i możesz tylko narzekać, że to podparcie które Ci dają jest dla ciebie za słabe. W obu przypadkach ziemia zostaje na swoim miejscu.

Link to post
Share on other sites

Braki to sam masz skoro nie wiesz po co powstał Vulkan. To jest świetna sprawa do gier, szczególnie na konsolach, gdzie można wszystko idealnie zoptymalizować pod konkretny hardware - po to powstał!, a dane są już ładnie ułożone, trochę mniej ciekawe dla PC i innych urządzeń ala Android, ale biorąc pod uwagę ograniczoną liczbę sprzętu GPU jest to nadal wykonalne, a znacznie większy wysiłek (nie tylko w ilości kodu, też optymalizacji pod konkretny hard) rekompensują zyski wydajności wynikające z użycia niskopoziomowego API oraz pewna łatwość dokładania nowych fx'ów. Dla aplikacji jedyne korzyści może dać wielowątkowść np: mega wielkich instancji, ale na poziomie używanych obecnie viewportów innych nie dostrzegam, tyle, że to samo można zrobić przez rozszerzenia ARB w OGL4.5 dla tego konkretnego przypadku lub innych przypadków, czy SPIR daje obecnie korzyści względem GLSL w aplikacjach CAD/3D to też wątpię. Natomiast to co piszesz o możliwości zarządzania danymi, fajna sprawa, tylko znów w grach, gdzie dane są wstępnie pięknie ułożone, także może pięknie poukładać w GPU, a nie w aplikacjach gdzie dane ulegają bardzo losowym nieprzewidywalnym w żaden sposób modyfikacją, co na pewno zbije wydajność.

 

Cóż, zobaczymy jak ktoś wykona taki wysiłek w CAD/3D, bo pisania kodu jest wielokrotnie więcej, wtedy ocenimy w praktyce korzyści. Nie wiem tylko czy ktoś się na to porwie :), chociaż może jakieś Unity itp.

 

@HubertP

 

Do mnie piszesz, w jakim celu, bo nic nie napisałeś. Kolejny fanboj który przepłacił za kotleta GTX970 z 3.5GB + 0.5GB, bo posłuchał kolegów, a nie rozumu własnego :)

Edited by materalia
Link to post
Share on other sites

dobra jedziemy z koksem. mówisz że jedynym silnikiem który używa CUDY/NVIDI jest blenderowy cycles..

 

rzućmy na temat okiem :)

 

Cycles - nvidia

Octane - nvidia

redshift - nvidia

furyball - nvidia

Arion - nvidia

RenderMan akceleracja denoisera - nvidia

vray RT - CUDA oraz Open CL (ale na kartach AMD z tego roku.. w sensie najnowszych..) (zalecają nvidie)

Arnold akceleracja ma być na Open CL, tak więc AMD&NVIDIA.

Lux render - Open CL. AMD&NVIDIA z tego co pamiętam to mają dofinansowanie od AMD więc w sumie nie dziwne.

AMD Pro Render - AMD, silnik AMD... w trakcie pisania...

Iray - Nvidia - silnik nvidi... od 2009 roku.

indigo - CUDA oraz Open CL..

mental ray - Nvidia akceleracja..

 

tak więc mamy 13 silników które chodzą na kartach Nvidi :) i 5 silników na kartach AMD z czego... kilka to akceleracje tylko więc silniki same w sobie wyglądają tak.. 9 Nvidi 3 AMD... A teraz popatrzmy co to za silniki.. w przypadku AMD.. lux render.. bardziej ciekawostka do zabawy niż silnik, praktycznie nikt go nie używa jest do blendera.. indigo.. bardzo ciekawy silnik, chyba nawet production ready. :) i to w sumie tyle bo silnik AMD Pro Render.. dopiero się pisze :) analizując dalej.. jako iż luxrender jest finansowany z AMD i pro render to silnik AMD.. to jedyną firmą która coś w pełni napisała dla AMD. w sensie silnik renderujący jest :D Indigo :D

 

Tak więc na dzień dzisiejszy nie bardzo widzę powód dla którego miałbym kupować karty AMD :) skoro.. wszystko działa na Nvidi... może za 2-3 lata spojrzę na ofertę AMD. ale na dzień dzisiejszy.. nie ma zbytnio z czym używać tych kart..

Edited by Maciek Jutrzenka
Link to post
Share on other sites

Owszem kupiłem takową :) z powodu takiego, że chciałem wyrenderować animację/dyplom w cyclesie. Taki był jedyny cel. Teraz w zasadzie jej nie używam bo mało renderuję. Co do pamięci dla mnie mogło by być nawet 4x 0.5 gb byle by mi się na tym scena mieściła i szybko się renderowała. Chciałem kupić jakiegoś radena, ale w tedy jeszcze cycles na nim ni działał. Jak będzie działał to bez zastanowienia wybiorę AMD.

Edited by HubertP
Link to post
Share on other sites
po co powstał Vulkan
Wyjaśnię ci. Vulkan powstał z myślą o wszystkich aplikacjach 3D w których ważna jest wydajność. Gry oczywiście się do tego zaliczają, na równi z wszelakimi aplikacjami graficznymi, CAD, multimediami, VR etc. Z definicji, nisko-poziomowe programowanie zapewnia ci potencjalnie lepszą wydajność, na tyle na ile sam ogarniasz temat. Bez znaczenia czy robisz Uncharted, AutoCADa czy viewport Hydry.

 

Vulkan w odróżnieni od OGLa nie jest maszyną stanów i głównym elementem jego designu jest asynchroniczne, wielowątkowe generowanie buforów przez co perfekcyjnie sprawdzi się...

 

... w aplikacjach gdzie dane ulegają bardzo losowym nieprzewidywalnym w żaden sposób modyfikacjom
Edited by Monio
Link to post
Share on other sites
Z ciekawosci - ktos jeszcze ma nadzieje przekonac materalia?

dracula-laughing-o.gif

 

podsumowanie całej wojenki materalisty :)

 

Swoją drogą bardzo ciekawe, że osoby rzucające hasła hejterstwo czy fanbojstwo są tak doskonałym uosobieniem tych określeń :)

Podziwiam Panowie , że chce wam się babrać w tym bagienku jakie tu powstało, macie zdrowie :P No ale przynajmniej coś się dzieje na tym forum i można się trochę rozgrzać przed tym jak Baggins z paltiżem wrzucą nową legendę :P

Link to post
Share on other sites

Posty materalii są uroczą mieszanką erudycji i młodzieńczej głupoty.

 

1. Całe stronice o renderowaniu, a potem się okazuje, że wie na ten temat tyle, co amator bawiący się Luxem, a PBR kojarzy mu się wyłącznie z ustawieniami high-quality w enginach gier.

 

2. Tyle wie o kartach, ale o ich jakości przesądza dla niego fps w grach i ilość ramu.

 

3. Gdzie i do czego używana jest Cuda sądzi po własnym researchu (sprawdziłem kiedyś, i nie ma ich tak wiele, a dla każdej jest alternatywa), co już sama w sobie jest kuriozum, za które można by mu przyznać tytuł matołka miesiąca (że niby jak to sprawdził sam i skąd jest pewien, że dla każdej jest alternatywa?).

 

4. W końcu Vulkan "nie przynosi korzyści aplikacjom poza grami", na co podaje sensowne argumenty (!), które mógłby rozwinąć, aby wyjaśnić kolegom, co ma na myśli, ale pisze zamiast tego, jak szkolniak: "ale na poziomie używanych obecnych viewportów..." - z czego wynika, że zna wszystkie obecne viewporty, widział kody kilku i je porównał, wie z jakimi borykają się problemami etc. A przecież widać, że poza Blenderem, Unity i przeglądarką objów, którą napisał w akademiku, żeby zaimponować dziewczynie, żadnego viewportu nie widział i po prostu nie ma pojęcia, z jakimi problemami radzi sobie na przykład Hydra, dla czego powstała etc. Ot, dziedzina skłonność do widzenia świata w poziomu własnej piaskownicy.

 

A wystarczyło by trochę pokory, zamiast robić z siebie ministra Ziobro tego forum.

Link to post
Share on other sites

@SYmek

 

Zamiast bawić w nędznej jakości erystykę to:

 

Ad.1 gdzie napisałem coś co nie jest prawdą odnośnie Lux'a, szczególnie w kontekście Cyclesa ?. Jeżeli wg. Ciebie ktoś używający Luxa jest amatorem, to używający Cyclesa tym bardziej, bo to mniej zaawansowany silnik.

 

Ad.2 to nie ja zacząłem temat gier tylko fanboje zielonych, a że trochę się zdziwili, to inna sprawa, więc teraz odwracanie kota ogonem, bo nie jest tak jak im ktoś wmawiał :)

 

Ad.3 nie widzę potrzeby używania CUDA do pathtracingu, bo od dawna działa to na OCL (od AMD HD4xxx) - pomijając CPU, zarówno bezpłatnie i komercyjnie, choć komercyjnie jest może bardziej dopracowany, ale to nie wpływa akurat na jakość samego renderingu path.

 

Ad.4 po to powstał Vulkan, żeby ułatwić koderom gier dostęp do niskopoziomowych funkcji GPU, ale niektórzy twierdzą, że jak ktoś wykona taką tytaniczną pracę tzn. napiszę od początku viewport programu CAD/3D na Vulkana (bo to zupełnie co innego niż OGL), a będzie to wielokrotnie więcej pracy niż w przypadku OGL, to zyska bóg wie co, a ja w to wątpię, natomiast marketingowy bełkot to jest tylko kit na uszy :)

 

Nie interesuje mnie Pixar, ani Renderman nie leży na mojej liście potrzeb, natomiast projekt Hydra, nie wiem co to ma do rzeczy, po pierwsze wykorzystuje OCL, po drugie, to coś pośredniego (OpenUSD), nie jest związane bezpośrednio z Vulkanem, bo może wspierać dowolny front i back.

Link to post
Share on other sites

Po co mi tłumaczysz, o to jest hydra, skoro wiedzę na ten temat czerpiesz, jak widać, z szybkiego skanu po internecie. Mówię o Hydrze, ponieważ używam jej i wiem, do czego służy. A wspominam o niej, ponieważ jest dobrym przykładem tego, jakie problemy stoją przed projektantami vieportów i gdzie Vulkan mógłby im pomóc.

 

Twoje wyobrażenie o vieportach związane zdaje się z amatorskim używaniem Blendera albo edytora gier, nie obejmuje takich wyzwań jak wyświetlanie tysięcy deformujący się (na cpu) obiektów w różnorodnej topologii, od krzywych po nurbsy. Kolejny przykład o tym, jak bardzo nie wiesz, o czym mówisz, bo po prostu nie zajmujesz sie ta działka, ale idiotyczne ekstrapolujesz swoje marne doświadczenia na inne pola. A do tego, jak przystało na latorośl, zakładasz, ze wszyscy poza Tobą na tym forum są idiotami.

 

A na koniec: mówisz, ze pixar czy filmowe narzędzia Cie nie interesują, ale z drugiej strony w kółko wypowiadasz tezy ogólne, bez zastrzeżenia, ze dotyczą Twojej działki. Byc moze w Twojej działce platform GPGPU AMD jest porównywalna z NV, ale w świecie CG/VFX nie jest. Niekoniecznie zreszta z powodu słabszych procesorow (mnie akurat Twoje argumenty techniczne wydaja sie całkiem przekonujące, tylko nie wynika z nich, ze AMD jest propozycja dla mojej branży lub HPC - które ma wiele wspólnego z moja praca wbrew temu , co Ci sie wydaje) . Inne powody są równie ważne dla profesjonalistów. Fanboja interesują tylko liczby.

 

Ps. decyzje AMD wyraźnie wskazują, ze ta branża ich nie interesuje. Nie produkują akceleratorów, nie pozwalają nawet odpalić OCL bez Xsów, mnie sie to wydaje rozsądne. To jest mały rynek, trudny i zupełnie logiczne jest, ze ktoś woli robic procesory do grania i do konsol. Nie wiem, po co udowadniać coś, do czego oni sami nie sa, jak sadze, przekonani.

Edited by SYmek
Link to post
Share on other sites
Mówię o Hydrze, ponieważ używam jej i wiem, do czego służy.

 

Wiesz, fakt jazdy samochodem nie czyni konstruktorem aut, a tym bardziej wizjonerem motoryzacji, ale skoro tego używasz to jak niby Vulkan mógłby tutaj pomóc w viewport, że jest Spir, sorry, ale nie wiem czy wiesz, że to działa na llvm (notabene słabym do gpu), więc zmiany w strukturze sceny nie raz wymagać będą rekompilacji (nawet nie do kodu maszyny, tylko bajtkodu sterownika), więc cała ta "wydajność" pójdzie w piz...du ?.

 

Skoro jesteś tak zachwycony Vulkanem, to musisz wiedzieć zapewne, że gdyby nie AMD Mantle to jeszcze długo nie byłoby Vulkana, znów AMD górą, a NVIDIA tylko pracuje nad tym jak się odizolować i zakonserwować w Vulkanie :)

 

ps.skończ gościu z tymi wypadami ad personam, bo właśnie piszesz jak dziecko z piaskownicy.

 

decyzje AMD wyraźnie wskazują, ze ta branża ich nie interesuje.

 

https://www.amd.com/en-gb/innovations/software-technologies/radeon-pro-technologies/radeon-prorender

https://github.com/GPUOpen-LibrariesAndSDKs/RadeonRays_SDK

z eksperymentalnym supportem do Vulkana

https://lists.blender.org/pipermail/bf-committers/2016-July/047519.html

sponsoring dwóch dodatków, bo społecznicy sami wolą dotować NV, a wcześniej były tam jakieś wstawki do Cyclesa od AMD, chociaż szkoda moim zdaniem na Cyclesa prądu.

 

więc chyba trochę ich interesuje, tylko to mała firma w porównaniu do Intel + NVIDIA, a oprócz GPU konkuruje w dziedzinie CPU, APU, chipsetów itd. Zupełną ciekawostką jest to, że OpenCL for CPU działa dużo wydajniej od AMD na procesorach Intela niż OpenCL for CPU od Intela na procesorach Intela, to jest dopiero zaskoczenie.

 

NVIDIA ma fajny projekt, nazywa się OptiX, szkoda tylko, że jest zamknięty na cztery spusty, działa tylko na kartach NVIDIA, nawet nie rusza na CPU = szok!.

 

Mnóstwo filmowych narzędzi korzysta jednak z OCL. HPC nie włączaj w temat, zresztą AMD nie ma takich mocy produkcyjnych jak Intel żeby zaspokić samotnie HPC..., poza tym nie dotyczy branży filmowej. https://www.top500.org/list/2016/06/

Dwie pierwsze pozycje, a potem już przepaść (przy czym 2 wygaszają Chińczycy), ale gdzie tam są renderfarmy?. 251 poz. WETA i nie ma NVIDIA, nie może być :). Po poz. 1 i 5 można wywnioskować, że Chińczycy mają lepszy procek od Japończyków, od Intela zresztą też...

Edited by materalia
Link to post
Share on other sites

odnosnie Substance Paintera, cytat z ich forum:

 

"I'm using an RX 480 8 Gb at work. Been a couple weeks now, and SP2 and iRay run great."

 

oraz:

 

"Well I decided to push my wallet a bit and got myself GTX1070. It performs wonderful"

 

więc chyba jest ok na dwóch systemach,

just saying,

 

P.

Link to post
Share on other sites
odnosnie Substance Paintera, cytat z ich forum:

 

"I'm using an RX 480 8 Gb at work. Been a couple weeks now, and SP2 and iRay run great."

 

oraz:

 

"Well I decided to push my wallet a bit and got myself GTX1070. It performs wonderful"

 

więc chyba jest ok na dwóch systemach,

just saying,

 

P.

Akurat mówiłem o FirePro:

https://www.allegorithmic.com/products/tech-specs

Uważam amd za fajne karty i przystępne cenowo w porównaniu z nvidia, ale jedyne pozytywne relacje jakie mogę zdać to praca w archicad z firepro. Modo,UE4,Substance,Fusion, a nawet GTAV - problemy ze stabilnością, artefakty, brak/niepełne wsparcie sterowników do tego stopnia, że pełna emocji przygoda z amd dobiegła końca mimo ramu,ropów i reszty papierowej specyfikacji.

Link to post
Share on other sites

iRay nie działa na kartach AMD, bo to CUDA, nie OCL, więc pewnie chodzi o tryb CPU. NVIDIA jeszcze nic nie zrobiła co by działało na czymś innym niż NVIDIA, inaczej kart by nie sprzedawali, taka polityka tej dziadowskiej firmy.

 

Modo,UE4,Substance,Fusion

 

Modo, pierwsze słyszę i nie zauważyłem, a testuje w ramach LW, ta na PC i Mac z AMD ?. Oprogramowanie The Foundry działa dobrze. Cinema4D kiedyś miała problemy na kartach NV linii Fermi, ale to nie znaczy, że NV nie nadaje się do Cinema4D. Bzdury pisałbym gdyby jeden przypadek i kilka błędów w sterownikach (whql i beta) rozciągał na wszystko, nawet jak Fermi nadal bywają problemy ze stabilnością C4D. Cinema4D, Lightwave, Maya działają bez problemu. Substance Painter działa na starych kartach AMD (gdzie wyrzuca komunikat program o niekompatybilności, o dziwo), nawet na IntelHD z serii Haswell/Skylake (nie SandyBridge) - karta musi mieć z 1.5GB VRAM!.

 

W przypadku gier, proszę bardzo, nagrany Bug na GTX970 w GTA V. Czy to znaczy, że GTX970 nie nadaje się do GTA V, w życiu bym takich bzdur nie pisał jak tutejsi fanboje NVIDIA :)

 

---

Bajer, stary z 2013 roku test SolidWorks 2013, także to tylko kwestia optymalizacji :)

karta za 900$ vs karta za 2250$

Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now



×
×
  • Create New...

Important Information

We are using cookies. Read about our Privacy Policy