Skocz do zawartości

Gainward GeForce GTX 580 3GB VS Quadro 2000


Mac26

Rekomendowane odpowiedzi

Witam,

 

Niedawno pytalem Was o stacje robocza w opozycji do skladanego kompa.

Wybralem HP Z820 z Intel® Xeon® Processor E5-2620, 2 GHz (6C/12HT) i 16 GB RAMu.

 

Teraz zastanawiam sie nad grafika do tego zestawu...

 

Przeczesuje to forum i jak dotad nie znalazlem odpowiedzi ktora mialaby chocby zblizyc mnie do wyboru karty. :(

 

Zastosowanie

 

Szukam karty wylacznie do maxa 2012 + Vray. Rendering bedzie CPU ale chcialbym także uzywać Vray RT do podgladu sceny. To bardzo przyspiesza prace nad materialami i oswietleniem. Wiem oczywiscie ze to nie jest 100% odwzorowanie rendera produkcyjnego ale wedlug mnie to bardzo duza pomoc przy finalizacji sceny.

 

Robie wizki architektury, wnetrz ale chcialbym zaczac uczyc sie animacji i rigowania postaci. Ale to przyszlosc.

 

Watpliwosci

 

Nie jest moim celem rozpetanie kolejnej wojny GTX vs Quadro. Po prostu chcialbym wiedziec czy moge liczyc na sensowny podglad VrayRT z karta quadro 2000.

 

Wiem ze Vievport napewno bedzie sprawniejszy z quadro ale naprawde przy tym poziomie kart mysle ze nie bede narzekal na GTXa i pod tym wzgledem. Zdaje sobie rowniez sprawe z niedokladnosci wyswietlania w viewportach backface culling ale to naprawde jest do przezycia.

 

Podsumowanie

Wypowiadajcie sie forumowicze... Przeczytalem w tym dziale ze GTX580 z 3GB pamieci to dobry wybor.

Mozna go kupic za 1200 zl, quadro 2000 za ok 1500 zl. Roznica nie jest duza i chcialbym wiedziec co zyskuje a co trace wybierajac jedna z tych kart.

 

Pozdrawiam :)

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 80
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

Ja bym rozważył quadro 2000 używkę, za 700 złociszy się pętają na alledrogo - za 1500 możesz już dorwać quadro 4000 czyli GTX'a 460 ;)

 

Na pewno mniej prądu zeżrą aniżeli mocniejszy GF, a problemów ze sterami nieco unikniesz, skoro męczysz się z autodeskiem.

Odnośnik do komentarza
Udostępnij na innych stronach

Q'bot, przyznam ze jeszcze nie widzialem q2000 za 700 zl...

 

Mam kpmpletny metlik w glowie z tymi geforcami... starsze GTX 580 sa wydajniejsze niz GTX650... Wydawaloby sie ze nowa architektura to gwarantowany wzrost wydajnosci.

Ale producenci celowo wprowadzaja taki chaos by klient lapal sie na numerki... Powiem szczerze ze zupelnie nie mam rozeznania w tych oznaczeniach.

 

Czy quadro 600/2000 rownie dobrze spisuje sie w Vray RT? Czy to po prostu dobry wybor jesli komus chodzi o wydajnosc jedynie w viewport'ach...?

 

MOje sceny maja po 2-3 mln poly wiec moze niepotrzebnie sie tak napinam na karte za 1500 zl?

 

Niestety na obecnym sprzecie nie mam mozliwosci pobawienia sie Vray RT... chyba ze na CPU, ale nawet przy 6 core i 12 HT jest slabo.

Ogladam na Utube filmiki jak smigaja GTX w active shade i nabralem checi by tez sie tym wspomagac.

 

Poradzcie cos koledzy...

Odnośnik do komentarza
Udostępnij na innych stronach

Wydawaloby sie ze nowa architektura to gwarantowany wzrost wydajnosci.

Ale producenci celowo wprowadzaja taki chaos by klient lapal sie na numerki... Powiem szczerze ze zupelnie nie mam rozeznania w tych oznaczeniach.

 

nie ma zadnego chaosu

W kartach do grania nvidii wyglada to tak:

- pierwsza cyferka to numer architektury/serii

- druga cyferka to wzgledne okreslenie powera w danej serii. 2-3-4 to zywkle karty multimedialne dla nie wymagajacych uzytkownikow, 5-6 to taka standardowa polka dla graczy, 7-8 to high-end, a 9 to jak ma sie za duzo pieniedzy i nie wie co z nimi zrobic :)

- ostatnia cyferka to 0 zeby fajnie wygladało.

 

Zwykle przejscie na nowa architekture nie skutuje takim wzrostem powera zeby karty ze sredniej polki przeskoczyly nad highendem ze starszej generacji.

 

Co do scen, 2-3 mln poly to nie duzo, oczywiscie zalezy co wymagasz od viewportow. Pamietaj tez ze dla maxa nie liczy sie tylko sama ilosc poly. 200 tys obiektow po 10 poly bedzie sie zachowywac w viewporcie inaczej niz 1 obiekt z 2mln poly.

 

pozdrawiam

Odnośnik do komentarza
Udostępnij na innych stronach

mirach - dzieki za wyjasnienia z geforce'ami. Dopytam jeszcze o oznaczenia typu Ti, Direct CU oraz Top CU na kartach.

 

Jesli chodzi o zachowanie w vieportach to wiem czego sie spodziewac mniej wiecej. Calkowita zagadka jest dla mnie Vray RT i jego wydajnosc na kartach ktore podalem.

Odnośnik do komentarza
Udostępnij na innych stronach

Dopytam jeszcze o oznaczenia typu Ti, Direct CU oraz Top CU na kartach.

 

Ti (Titanium) jest szybsze niz odpowiednik tej samej karty bez Ti. Nigdy nie wgryzalem sie w to i nie wiem jak konkretnie wyglada porownanie.

Te nastepne co podales to sa juz rozne oznaczenia chlodzenia, to juz zalezy od konkretnego producenta (np ASUS). Kazdy producent chce wprowadzic jakis bajer zeby jego karta wypadla lepiej, czy to fabryczne podkrecanie, czy inne chlodzenie i tak dalej. W tym juz mozna sie kompletnie pogubic i trzeba sie wgryzac w recenzje i opisy techniczne.

 

Co do Vraya RT to sie nie wypowiadam, nie uzywam.

 

pozdrawiam

Odnośnik do komentarza
Udostępnij na innych stronach

Mysle ze jak max 2012 to 580tka zamiast tego quadro.

Jesli pracujesz w srodowisku nitro a nie opengl czy dx to jak najbardziej geforce sie nadaje i roznicy w wydajnosci w tym srodowisku jako takiej zadnej nie ma. Fakt nie jest to srodowiskow wyswietlania idealne ale spelnia swoja funkcje.

 

Wersje TI sa albo mocniej taktowane albo maja odblokowane conieco prawie tak jak model o oczko wyzej.

Odnośnik do komentarza
Udostępnij na innych stronach

Napisano (edytowane)

kitamo no OK... mowisz GTX580... ale skoro juz wchodzic w Geforce'a to dlaczego nie GTX680? Roznica w cenie w tej chwili to jakies 300 zl. Karte 580 Asusa 1,5GB moge kupic nowa na allegro za 1400 zl... GTX680 2GB za jakies 1700zl...

 

Patrzac na "cyferki" na stronie Nvidia to 680 bije na glowe 580... ponadto to nowa architektura ktora potrzebuje mniej pradu i mniej sie grzeje....tu male porownanie:

 

GTX580

 

CUDA cores: 412

Wypelnianie (miliardy/s): 49,4

Taktowanie rdzenia graf: 772 Mhz

Szerokosc interfejsu pamieci: 384 bit GDDR5

 

GTX680

 

CUDA Cores: 1534

Wypelnianie (miliardy/s): 128,8

Czestotliwosc bazowa: 1006 MHz ( nie podaja na www Nvidii czy chodzi o czestotliwosc rdzenia GPU)

Szerokosc interfejsu pamieci: 256 bit GDDR5

 

Tak wiec wszystko (poza szyna pamieci) przemawia za nowa architektura... przynajmniej z cyferek.

Gdzie jest haczyk Panowie?

Dlaczego na forum wszyscy zalecaja GTX580 a nie GTX680?

 

Pozdrawiam i dzieki za pomoc

 

 

UPDATE

Ok, ok.... juz wyczytalem w jednym z Waszych watkow o problemach z Keplerem i iRay oraz Vray RT...

Czy cos sie zmienilo na chwile obecna? Czy brac GTX580 jednak?

Edytowane przez Mac26
Odnośnik do komentarza
Udostępnij na innych stronach

GTX580 jest sprawdzony i bedzie działał bardzo wydajnie, co do keplerow to nie umiem powiedziec poza tym ze w max2013 po zrobieniu updateow dziala iray i dziala nawet całkiem wydajnie. 680 to karta skierowana typowo do graczy i w grach osiagnie odpowiednie rezultaty, GTX580 to juz ostatnia karta z signle gpu gdzie wydajnosc przy opencl czy cuda jest bardzo wysoka.

Jesli jednak myslisz o robieniu renderingu typowo na gpu to na chwile obecna tylko iray choc i do niego trzeba wiedziec conieco jak to skonfigurowac.

Gdyby mnie ktos dzisiaj zapytal czy bym sobie kupul keplera do 3ds max, to pewnie powiedzial bym ze tak ze wzgledu na fakt ze nie ma praktycznie roznic w viewporcie, a jesli idzie o rendering w formie tylko podgladu to wystarczajacy jest. Vray i tak kulawo jeszcze działa i wiele elementow nie zobaczysz w stosunku do finalnego renderu.

 

Plusem jest fakt ze mniej energii zuzywa, mniej sie grzeje, ale ja osobiscie nie bralbym 680tki ze wzgledu na cene i roznice w wydajnosci. Raczej chyba zainwestowalem w optymalne rozwiazanie czyli 660TI i nie narzekam.

Problemow z sypaniem sie 3dsmax nie mam, wydajnosc w oknie wystarczajaco dobra i bez wiekszych zgrzytow.

Odnośnik do komentarza
Udostępnij na innych stronach

no ok, mowisz 660Ti.... ale czy z ta 660-tka nie ma tych samych problemow co z 680? W koncu to ta sama nowa architektura KEPLER. Rozumiem ze roznica wydajnosci miedzy 660Ti a 680 nie uzasadnia roznicy w cenie...czy tak?

 

Jesl chodzi o rendering GPU to mam na mysli jedynie podglad w Active Shade... nic wiecej. Nie mysle o finalnym, produkcyjnym renderingu.

Odnośnik do komentarza
Udostępnij na innych stronach

Gość RafalPL

A ja jako moja dygresje Mam Quadro 600 i I7 3930K (4.2GHz) od wczoraj używam nowego V-ray 2.30.1 i pracuje na podglądzie RT napisze tak ze karta działa świetnie i bezproblemowo ale do poglądu się to nie nadaję 96Cuda core mój 12watkowy procesor obrabia to 3x szybciej.

 

Co do testu Ja napisałem w swoim teście to 5mies temu.

Odnośnik do komentarza
Udostępnij na innych stronach

HEJ wszystkim.

przepraszam ,że się wtrącę ale odnośnie GTX580 a GTX660Ti - mam obie na kompie zamontowane.

Pracuję w blenderze z użyciem CyclesRender.

Karta Gigabyte GTX660Ti 2Gb (renderuję sceny przez GPU) działa 30-40% wolniej niż GTX580 1,5Gb !!!!!

Pracuje bardzo cicho, wogóle jej nie słychac! No fakt ,że karta ta renderuje mi szybciej scenę 8x niż mój procek Q9300

 

Karta MSI NGTX580 1,5GB wprawdzie osiąga mega temperatury (pod 98`C podczas renderowania) ale popierd....jak szalona no i drugi minus ,że jest głośna.

 

dla porównania użyłem różne sceny i np:

- scena z autem BMW którą renderuje GTX660Ti w 1:21sek to GTX580 robi to w 51 sek. (przy pewnych ustawieniach, wyniki mogę mieć szybsze jak bardziej ustawienia rendera zoptymalizuję)

- scena wizualizacji architektonicznej zewnętrznej którą GTX660Ti robi w 55min to GTX580 zrobiło mi w 40 min

 

...natomiast scena z tą BMW renderowana obiema kartami - razem zrobiły mi w 37 sek. :):):)

(jak GTX 580 była w porcie bliżej procka, jak zamineiłem ukłąd to 2 sek.było szybciej jeszcze - 35 sek)

index.php?option=com_smf&Itemid=2&?action=dlattach;topic=13364.0;attach=21644;image

 

 

tyle na temat dyskusji nad serią GTX5... i GTX6....

 

ta scena z BMW to jest tutaj dla wszystkich do potestowania swoich maszynek :)

http://blenderartists.org/forum/showthread.php?239480-2-61-Cycles-render-benchmark

 

myślę ,że pomogłem w rozważaniach

 

pozdrawiam !

Edytowane przez gucias
Odnośnik do komentarza
Udostępnij na innych stronach

Witam ,a ja się wtrącę jeszcze z innym pytaniem/możliwością :) Co powiecie na 2 karty w cenie ok 500-600zł za sztukę?

Pracuje 3dsmax+vray widzę na prezentacjach jak szybko renderują się ujęcia vray RT i pewnie bez 2 kart to lipa a czasem to potrafi zaoszczedzic już wiele czasu przed finalnym renderem

Odnośnik do komentarza
Udostępnij na innych stronach

A czy ktos z posiadaczy Quadro 2000 powie jak ta karta sprawdza sie w Vray RT (active shade)? Bo juz wiem ze jesli chodzi o viewport to quadro sprawuja sie niebo lepiej i nawet quadro 600 bije na glowe GTX 580...

Ale nikt tutaj nie mowi o Vray Rt i wydajnosci kart quadro (z niskiej polki - 600 i 2000)

 

Pozdrawiam,

Odnośnik do komentarza
Udostępnij na innych stronach

Gość RafalPL

V-Ray RT hmm mój I7 3930k (4.2) oblicza szybciej niż moje Quadro 600 i co ciekawie niewiele wolniej od Quadro 2000 do Vray RT brać zwykła grafikę która ma więcej cudów :) teraz myślę o tytanie jako karta pomocnicza do mojego Quadro 600 właśnie do V-Ray RT bo pozwala naprawdę zaoszczędzić dużo czasu na podglądach. Bo wiadomo Final tylko procesor.

Odnośnik do komentarza
Udostępnij na innych stronach

Jest spora roznica w renderingu miedzy GTX660 a 660TI, jesl ijuz ktos decyduje sie na 660 to tylko TI.

Druga wazna sprawa to obsluga - w Iray miedzy keplerem a fermi juz takiej roznicy nie bylo (przynajmniej nie przy 660TI)

 

Gucias - jestem ciekaw porownania 660 do 660 TI, podaj jakies wyniki i sposob ich pozyskania to tez sprawdze.

Odnośnik do komentarza
Udostępnij na innych stronach

Jestem jak to mowicie "na kupnie" i caly czas sie waham :( Nie wiem czy pchac sie w quadro 2000 czy jakiegos GTX (480/570/670)

Nigdzie nie widzialem jakiegos porownania quadro 2000 w Vray RT do kart typu GTX....

MAcie namiar na cos takiego?

Odnośnik do komentarza
Udostępnij na innych stronach

W RT nigdy quadro nie bedzie szybsze, zawsze w renderingu GTX o wiele lepiej wypadnie bo jest zawsze wyzej taktowane. Problem lezy w czyms innym - GTX bardzo mocno sie nagrzewa przy renderingu, niektore fermi nawet do 90 stopni. Quadro sa nizej taktowane, niby maja odblokowane liczby podwojnej precyzji ale w RT nie sa one uzywane (ok sa ale tylko w drobnych momentach i nie w kazdym rendererze), glownie calosc jedzie na pojedynczej precyzji.

 

Sens w Quadro byl taki ze jako jedyne mialy zawsze dostosowane sterowniki ze strony chocby autodesk'u, co zwiekszalo komfort pracy w viewportach, obecnie nie ma to wiekszego znaczenia odkad 3dsmax, maya i cad mozna pobrac za darmo w wersji studenckiej - jest to sposob autodesku na przywiazanie ludzi do swoich produktow.

 

Jak zalezy Ci na vray RT to GTX jest lepszym rozwiazaniem, ale przy dlugich renderingach musisz zapewnic mu dobre chłodzenie.

Odnośnik do komentarza
Udostępnij na innych stronach

OK, zdecydowalem sie. Kupie sobie Quadro 2000 - to zapewni mi komfort w viewporcie nawet przy wiekszej scenie (tak sądzę).

A za jakis miesiac dokupie jakiegos GTX'a.

 

Naczytalem sie o Keplerze i jak zrozumialem mimo wiekszej ilosci CUDA beda one mniej wydajne niz np. 480 czy 580 FERMI...

Poprawcie mnie jesli sie myle.

Tylko juz nie bede szalal z kaska i kupie jakiegos GTX 480 (uzywka) ktorego to kupic mozna na allegro za ok 500 zl.

 

No chyba ze doradzicie cos innego np. 560 Ti ktory jet niewiele drozszy... Chociaz mysle ze "pelne" 480 bedzie lepsze niz 560 Ti czy nawet 570...

 

Poprawcie mnie jesli wygaduje glupoty.

 

Pozdrawiam,

Odnośnik do komentarza
Udostępnij na innych stronach

Jeszcze raz - GTXy do renderingu prawie sie nie nadaja, jesli planujesz renderowac to licz sie z wysokimi temperaturami nawet po 90 stopni. Szczegolnie starsze fermi 4xx.

Jesli ma to byc rendering 5 minutowy to nie zdazy sie przegrzac ale jak planujesz w vray RT pracowac dluzej, czy tez renderowac to licz sie z tym ze standardowe chlodzenie gtxa nie wyrabia.

Tylko jak to maja byc krotkie renderingi to kompletnie nie widze sensu takiego zakupu.

Co do quadro - zalez yto od oprogramowania, kiedys quadro lepie jsie sprawowal oze wzgledu na nowe sterownik iktore specjalnie wychodzily dla autodesku itp. Dzialaly one pod Opengl.

Teraz atudoesk wspiera calkiem poprawnie d3d i tutaj gtx dziala tak samo jak quadro.

 

Wszystko zalezy od skali projektow jakie robisz, ale tak czytajac to mam bardziej wrazenie ze sklaniasz sie ku quadro, "bo to quadro".

 

Keplery sa moze i mniej wydajne ale energetycznie lepiej wypadaja (nie przegrzewaja sie) , a w viewporcie radza sobie bardzo dobrze (jak wszystkie gtxy)

Odnośnik do komentarza
Udostępnij na innych stronach

kitamo, sklaniam sie ku quadro bo jak zapewniaja wszyscy na forum w viewporcie daja bardzo duzo wygode + brak bledow i jak slyszalem zaden GTX nie moze sie w tej konkurencji rownac nawet z najslabsza Quadro 600. Teraz pierwszy raz slysze ze w Direct3D GTX dziala jak quadro...

 

A rozwazam FERMI bo nie widze wydajnego rozwiazania w cenie ok 700-800 zl. Tak, wiem ze FERMI ma problem z temperaturami pracy przy obciazeniu.

 

Pisalem juz ze potrzebuje takze karty do podgladu w Vray RT by ustawic scene do finalnego renderingu - oczywiscie juz CPU.

Czy wymagajace sa to projekty...? Troche architektury ze swiatlami + model samochodu czyli lacznie jakies 5-7 mln poly.

 

Czyli nie beda to godzinne renderingi na GPU a raczej gora 30 seundowe/ minutowe podglady sceny. Jak na razie nie moglem skorzystac z dobrodziejstw GPU w vray'u bo na obecnej karcie nawet nie laduje mi sceny. Dlatego tak naprawde nie wiem czego sie spodziewac po kartach z serii GTX... Jedyne czym sie kieruje to informacje z tego forum oraz filmiki na Utube. Niestety pokazuja tam jedynie twory typu "4 way SLI GTX 580" itp :(

 

Jesli mozesz zaproponowac jakiegos KEPLER'a w rozsadnych pieniadzach (do powiedzmy 800 zl) ktory pozwolilby cieszyc sie dobrodziejstwami podgladu active shade w Vray RT to bylbym wdzieczny.

 

Pozdrawiam,

Odnośnik do komentarza
Udostępnij na innych stronach

Quadro dobrze działa ale w opengl, w d3d nie widze roznicy w działaniu a o nitro to juz nie mowie bo dziala tak samo na niemal kazdej karcie.

 

Cała moc quadro jest w opengl nie w d3d, bo w directx działa tak jak zwykly gtx.

 

D3d jest obecnie szybszym trybem niz opengl, jednak opengl jest stabilniejszy i lepiej adoptuje sie do zmian w siatce podczas przegladania w viewporcie (dlatego nie ma na quadro tego charakterystycznego szarpniecia jak zaczynamy obracac w viewporcie).

 

Sterowniki do 3dsmax dla quadro skonczyly sie wraz z 3dsmax 2011.

 

 

co do vray RT - niestety dla mnie nawet dla podgladu sie on nie nadaje, a skoro maja to byc krotkie podglady tak wiec moim zdaniem nie zobaczysz nawet roznicy miedzy fermi a keplerem - co za roznica czy bedzie 4-5 sekund szybciej czy wolniej.

Odnośnik do komentarza
Udostępnij na innych stronach

Ok, jesli maja to byc roznice rzedu 4-5 sekund to nie upieram sie. Wiem jak liczy scene Vray RT na moim CPU (xeon E5 2620 2.0 GHz, 6 core 12HT) i nie jest to szczyt szczescia. Co innego render produkcyjny... Tutaj nie narzekam.

 

Zdecydowalem sie na Quadro 2000 w nadziei na stabilnosc i wygode w vievporcie. Kupilem ja za 899 zl brutto z faktura (nowa z 12 miesieczna gwarancja) wiec po wrzuceniu w koszta i odliczeniu VATu tragedii nie ma.

 

Do Vray'a RT kupie wlasnie GTX'a... pytanie tylko co polecacie do ok 800 zl... Chociaz wyboru chyba specjalnego nie mam :(

Jedynie GTX 660 miesci sie w tej kwocie (jesli mowimy o keplerze)

Ktos dzialal na takiej karcie z Vray'em RT?

 

Dzieki za wszystkie posty i pomoc.

Odnośnik do komentarza
Udostępnij na innych stronach

kitamo mowiac "szalu nie ma" porownujesz do jakiego procka? Ciekaw jestem jaka to roznica np. do 6 core xeona 2 GHz (E5 2620)... Mozesz podrzucic jakiegos screena z podanym czasem liczenia przez GPU? Bylo by milo :)

 

Wlasnie przyszla do mnie karta q2000. Jak wroce z pracy to odpale od razu maxa i podziele sie z wami wrazeniami.

Troche mnie zmartwila informacja o nowej quadro K2000 w momencie zakupu :( ale przeciez nie bedzie ona kosztowala 1 kzl tylk opewnie cos ok 2 kzl...

Odnośnik do komentarza
Udostępnij na innych stronach

gdzies tu na forum juz podawałem.

Do CPU nie porownuje w ogole bo jakos obrazu w podgladzie jaka uzyskalem w stosunku do CPu była zupełnie inna na niekorzysc GPU oczywiscie.

W IRAY bylo juz o wiele lepiej bo wydajnosc jest masakryczna szczegolnie w polaczeniu z CPU.

 

Testowałem na I7 2600k @ 5,25Ghz

Odnośnik do komentarza
Udostępnij na innych stronach

Gość RafalPL

Za k600 199dol co ciekawe k600 ma 192 cuda cores, a k2000 384 cuda cores i 2GB pamieci cena 599dol

Odnośnik do komentarza
Udostępnij na innych stronach

Czesc,

 

Jesli 599 $ za K2000 to bedzie ok 1900 zl.... ale to zapewne w Stanach. Na naszym rynku w takim razie ok 2500-2700 zl.

Jesli chodzi o moje q2000 to jestem troche zawiedziony :( Przy modelu samochodu 728 000 poly i cieniowaniu shaded w vieporcie jest ok 90-100 fps... tutaj super. Ale wystarczy ze wlacze podglad siatki i mam 5 fps :(

To na Nitrousie... nie wiem, moze najwydajniejsze sa jakies konkretne sterowniki. Jesli ktos ma doswiadczenie to chetnie poslucham :)

 

Vray RT dziala slabo... macie racje: to nie jest karta do tego typu rzeczy. Chociaz i tak jakosc generowanego obrazu jest lepsza niz 6 core xeon E5 2620... i jest jednak szybciej... ale szalu ni ma.

 

Pozdrawiam,

Odnośnik do komentarza
Udostępnij na innych stronach

Wiele razy mowilem, ze quadro nie jest warte swojej ceny. 700tys poly to i na gtx 560 smiga bez "pierniecia", wiec to zadna rewelacja. Co wiecej, z taka sama predkoscia dziala siatka bez cieniowania.

 

Kolejna osoba zlapana w marketingowe macki. No ale coz, ile razy mozna pisac to samo, skoro ludzie tak chetnie, za kazdym razem wydaja grube tysiace.

 

Zaraz ktos powie "Stabilnosc!". No ale Panowie.... Powiem szczerze, ze nie mialem nigdy przypadku, by jakikolwiek posiadany przeze mnie geforce kolidowal z viewportem. Nie wiem skad urodzila sie i ta bajka. Zapewne kolejny aspekt marketingowej walki o klienta.

Odnośnik do komentarza
Udostępnij na innych stronach

Traitor no nie watpie ze na GTX 580 smiga bez "pierniecia" jednak GTX 580 kosztuje ok 1600 - 1800 zl. Ja za quadro zaplacilem 899 wiec nie czuje sie nabity w butelke chociaz oczekiwania mimo wszystko byly wieksze.

Wiec nie przesadzaj z tymi grubymi tysiacami :)

 

Ale fakt... gdybym mial kupowac q4000 za 3500 zl to pewnie bym sie grubo zastanawial.

 

Pozdrawiam,

Odnośnik do komentarza
Udostępnij na innych stronach

Gość RafalPL

Ja mam odmienne zdanie na Geforce mam jeden błąd który mnie dobija z jakimiś DLL i wychodzi on nieoczekiwanie wiec nie wiem kiedy MAX mi się wywali. Natomiast na Quadro nie mam żadnych problemów od takie dziwności.

 

Najlepiej to kupić najtańsze Quadro i jakiegoś GTX

 

Ja się zastanawiam czy kupić Quadro 4000/5000/K2000/Titan cos max do 1000dol tylko sam nie wiem co może ktoś cos poleci co in by wybrał z tych kart ?.

Odnośnik do komentarza
Udostępnij na innych stronach

Traitor Hmmm, mialem GTX560 i w podgladzie siatki bylo 3-4 fps. Szkoda ze nie udalo mi sie wtedy uruchomic na niej Vray'a RT... mialem wersje 2.0 :(

 

RafalPL Ja wlasnie tak do tego podszedlem. Kupilem q2000 za 899 zl a teraz poszukam sobie jakiegos GTXa pod Vray'a RT.

Chociaz trzeba wziac pod uwage ze render produkcyjny jest jasniejszy i mozna co najwyzej podejrzec sobie materialy z odbiciami i ogolna kompozycje. NIe wiem jak jest w iray'u...

 

Dzieki za wpisy chlopaki... im ich wiecej tym wiecej doswiadczen :)

Pozdro,

Odnośnik do komentarza
Udostępnij na innych stronach

Ja niestety tez długo męczyłem się z błędami GF (bodajże serii 9600) i 3dsmaxem. Faktycznie chodziło o konflikt sterowników, tyle że nie do rozwiązania - wszystkie powodowały niestabilność 3dsmaxa. Nie pomagały formaty, reinstale, itd. Ten błąd po prostu występuje na niektórych konfiguracjach. Na forach internetowych znalazłem informacje że dotyczy to też bardziej wymagających gier (przewijał się crysis). Również wysypywały się z tym samym błędem sterownika co 3dsmax. Także nie jest to żadne urban legend :)

A ja ostatecznie skończyłem z radeonem, teraz mam kolejnego i żadnych problemów ze stabilnością. Nie mam jak porównać wydajności do quadro, ale jestem w 100% zadowolony w stosunku do wydanej kwoty.

Odnośnik do komentarza
Udostępnij na innych stronach

Traitor Super, dzieki... to duzo wyjasnia. Napisz jeszcze jaki max i jaki sterownik. Jesli moglbys wrzucic ta scene to zrobilbym to samo na quadro... Na pewno wielu osoba sie to przyda i skoncza sie kilometrowe posty typu "co wybrac" :)

 

Ale jestem w szoku i gratuluje. Sprawdzilem teraz karte ktora testowalem: byla to GTX 560 SE (jakas okrojona wersja). Bylo marnie wiec wogole przestalem sie interesowac GTX'ami z tej polki cenowej.

Ale tak jak napisalem... chetnie zrobie porownanie na quadro i qrzuce na forum.

 

Pozdrawiam,

Odnośnik do komentarza
Udostępnij na innych stronach

Dzieki, dzisiaj wieczorem zrobie test na quadro i sprobuje pozyczyc jeszcze raz tego GTX 560 SE... jestem bardzo ciekawy. Czy moglbys zrobic jeszcze jakis filmik z Varya RT.. powiedzmy to auto plus tlo studia z dwoma softboxami. Bylo by nice :)

Odnośnik do komentarza
Udostępnij na innych stronach

Traitor Jak widac 700 tys poly drugiemu 700 tys nie rowne... Wlaczylem sobie teraz w pracy ten tescik:

 

MacBookPro (i5 2,53 GHz, 8 Gb RAM, Nvidia GT330M (windows przez bootcamp)

 

65-70 fps wire

90 fps shaded

35 fps realistic

 

EDIT:

 

1X xeon E5 2620 6 core 2.0 GHz, 16 GB RAM, Quadro 2000

res. 1920x1200, Nitrous 9.0 Direct3D

 

86-110 fps wire

80-100 fps shaded

46-60 fps realistic

 

Tak to wlasnie jest ze 10 000 000 poly moze byc bardziej zjadliwe dla sprzetu niz 1 000 000 poly... wszystko zalezy czy jest to jeden obiekt czy wiele... czy sa grupy obiektow.... itp itd.

Ale gdy zrobimy test na jednej scenie to wszyscy skorzystaja i bedzie dla potomnosci :)

 

t0m3k ciekaw jestem Twoich wynikow... tylko wrzuc gdy juz zrobisz.

Edytowane przez Mac26
Odnośnik do komentarza
Udostępnij na innych stronach

http://www.thesismovie.com/testgf560.zip - Nagralem szybki test dla niedowiarkow. Pierwszy lepszy model auta, ok 700tys poly.

 

Wyniki testu: Tryb wireframe ok 500fps, tryb shaded ok 400fps, tryb realistic ok 140fps.

Dziekuje, zycze milego dnia.

 

myslalem ze to Fraps'em albo czyms podobnym mierzone.

 

Q4000 w pustej scenie nie pokazuje wiecej niz 300fps.

 

wyniki Quadro4000:

Wireframe 155-204

Shaded 110-130

Realistic 64-75

 

EDIT:

Jesli ktos podaje wyniki to prosze pisac rowniez krotko o sprzecie.

 

Quadro 4000 dziala na 2x Xeon X5650 2.7GHz + 24GB RAM

Edytowane przez t0m3k
Odnośnik do komentarza
Udostępnij na innych stronach

Hej Witajcie,

 

Fajnie ze w naszych porownaniach pojawily sie trzy rozne koncepcje... mamy Geforca, Radeona i Quadro.

 

Niestety (dla mnie :) ) musze potwierdzic slowa Traitor'a. Gdybym widzial takie porownanie kilka dni wczesniej nie zdecydowalbym sie na quadro. Kupilbym gtx 560Ti za ok 700 zl. Zdecydowalem sie na q2000 ze wzgledu na jego "przewage" w viewporcie... widac mylilem sie i to bardzo.

Mam nadzieje ze nasze testy przydadza sie potomnym :)

 

Jesli mozemy pociagnac dalej i nagrac krotkie filmiki z Vray'a RT... zaproponujcie jakas testowa scene i do dziela.

 

Pozdrawiam,

 

P.S.

Zrobilem wczoraj maly edit swojego wczesniejszego posta z wynikiem na macbookupro. Dodalem to co wyszlo w domu z q2000. TO co mnie powala to:

 

1. Wielka przewaga gtx'a i to nie jakiegos topowego 580 a 560Ti za 700 zl

2. NIeduza roznica miedzy laptopowym GT 330M a moim nowym nabytkiem. Roznica jest, ale nie taka jaka sobie wyobrazalem.

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności