Skocz do zawartości

Problem z wydajnością zestawu


praet

Rekomendowane odpowiedzi

Witam.. jakiś niecały rok temu zakupiłem komputer, który chciałem przeznaczyć (i przeznaczyłem ;]) do pracy w 3dsie.. Oto konfiguracja:

 

Procesor: Intel Core i7 3930K 3,2 GHz

karta: HP QUADRO 4000 PCI-Ex16

RAM: Kingston HyperX DDR3 8x4GB

Dysk: 2x WD Caviar Green 2TB WD20EARX 64MB cache SATA III spięte w RAID1

Dysk SSD: Crosair Force Series 3 120 GB

płyta główna: Gigabyte GA-X79-UD5

zasilacz: OCZ ModStream Pro 700W

Chłodzenie: Noctua NH-D14

 

kasy trochę za to wyszło ale doszedłem do wniosku, ze warto wydać więcej i mieć komfort pracy.. no i właśnie tutaj pojawia się zgrzyt.. tzn w kwestii tego komfortu...

 

Otóż największym problemem jest dosyć mocne przycinanie się viewportów przy bardziej skomplikowanych obiektach bądź scenach.. przy czym mam na myśli np. drzewo (składające się z około miliona polygonów), przy którym viewport podczas obrotu się przycina (shaded + edged faces ale i bez egded faces też jest kiepsko.. :/)... W momencie gdy chciałbym takich drzewek wstawić kilka np. na pierwszy plan (żeby dać displacement na korę itd..) to byłaby jakaś masakra... jedyne co mnie ratuje to proxy...

 

Dodatkowo mam problem z teksturami o większej rozdzielczości.. tzn jeśli tekstura przekracza powiedzmy ok. 1200-1500 px (szerokości bądź wysokości;];]) to wtedy w przypadku gdy chce edytować materiał z tą teksturą straszliwie zaczyna mi się przycinać material editor i muszę się sporo naczekać zanim uda mi się coś tam pozmieniać...

 

Nie wiem co jest grane... zdaje się, że teoretycznie przy takiej karcie graficznej wszystko w vewportach powinno śmigać jak marzenie... może to kwestia dysków twardych albo tego, że są połączone w raid1?? Dodam jeszcze, że 3ds'a mam zainstalowanego na ssd natomias wszystkie tekstury, modele itd mam na tym raidzie1.. Proszę o jakąś poradę co tutaj może być nie tak.....

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 57
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

dziwne bo umnie blender przy milionie vertexów na laptopie z i5. z 2tyś chodzi płynnie to a i malować teksturami na obiekcie o wielkości 4px mogę też bez większych przycinek. A jak wiemy Blender nie jest królem wydajności viewportu xD więc coś jest nie tak. moim zdaniem.

Odnośnik do komentarza
Udostępnij na innych stronach

zdaje się, że teoretycznie przy takiej karcie graficznej wszystko w vewportach powinno śmigać jak marzenie... może to kwestia dysków twardych albo tego, że są połączone w raid1??

 

dyski do tego nic nie mają. Quadro jest fajne, prestizowe i w ogole, tylko z tą wydajnoscią to jakos ciezko...

Odnośnik do komentarza
Udostępnij na innych stronach

Z kartami Quadro jest podobnie jak z Xeonami. Marketingowa nagonka na bycie "very pro", wspanialy produkt dla profesjonalnych profesjonalistów, za podwojna cene i przesadzona wydajność! Nie Ty pierwszy nabrales się na marketingowe sztuczki Nvidii i Intela.

Odnośnik do komentarza
Udostępnij na innych stronach

Dokladnie. Chcesz smigajacy viewport kupuj topowe radeone od amd hd 6 tysiecy costam. Roznica jest powalajaca! Np normalnie ja blender z karta od nvidi typu 560ti sculpt idIe gdzies tak 20-35 milionow. Z amd jest filmik jak koles pogina na 80 milionach. I co do xenonow to ja bym wolal ta kase zostawic na farme ;) obecnie tej korej uzywam wychodzi mnie 1$ za klatke.

Odnośnik do komentarza
Udostępnij na innych stronach

Te dyski niestety mogą mieć to seria green one się dziwne wzbudzaj do pracy i tak naprawdę czasami potrafią zwalniać sam byłem świadkiem jak sprzedawca jasno i metodą młotkowa wybijał z głowy klientowi greeny jako dysko podstawowy najgorszy zwykły hdd jest od nich szybszy to trochę jak laptop i stacjonarny niby wszytko to komputery :) a co do karty graficznej to pracuje od wielu lat na radkach i jakoś nigdy nie miałem z nimi problemu. ale tak ogólnie każdego kompa zamulisz jak będziesz ładował mapy mające ileś tam k, dwa jeśli wsadzasz do sceny obiekty typu drzewek roślinek o dużej ilości poligonów to albo je trzaskaj do proxa albo karz wyświetlać jako boxy. Dwa wystrzegaj się modeli od evera ciężkie toto i długo się liczy

Odnośnik do komentarza
Udostępnij na innych stronach

Te dyski niestety mogą mieć to seria green one się dziwne wzbudzaj do pracy i tak naprawdę czasami potrafią zwalniać sam byłem świadkiem jak sprzedawca jasno i metodą młotkowa wybijał z głowy klientowi greeny jako dysko podstawowy najgorszy zwykły hdd jest od nich szybszy to trochę jak laptop i stacjonarny niby wszytko to komputery :) a co do karty graficznej to pracuje od wielu lat na radkach i jakoś nigdy nie miałem z nimi problemu. ale tak ogólnie każdego kompa zamulisz jak będziesz ładował mapy mające ileś tam k, dwa jeśli wsadzasz do sceny obiekty typu drzewek roślinek o dużej ilości poligonów to albo je trzaskaj do proxa albo karz wyświetlać jako boxy. Dwa wystrzegaj się modeli od evera ciężkie toto i długo się liczy

 

No właśnie staram się przestrzegać tych reguł.. od razu wstawiam proxy, a pisząc większe rozdzielczości tekstur miałem na myśli np. ponad 1500-2000 px.. także to nie jest jakieś super wielkie.... a jednak przy próbie edycji material editor sie tnie.. :/

 

- - - Połączono posty - - -

 

Czyli tak.... generalnie wypadałoby zmienić te dyski (zapewne najlepiej na coś w stylu Seagate Barracuda 7200.14 ;]) oraz zmienić kartę... mógłby ktoś polecić (jeśli to nie problem) jakieś konkretne super wydajne modele?

Odnośnik do komentarza
Udostępnij na innych stronach

Nie no błagam niemożliwe jest żeby quadro było aż tak kiepskie Nvidia nie jest dobra w open GL a ja mam laptopowego gniota a chodzi płynnie przy 4k. i pracuje na 10 milionowej scenie bez jakiś zwiech itp. Napewno ustawiłeś że ta karta obsługuje ten program?

 

 

Co do karty to:

[h=1]AMD Radeon™ HD 7990[/h]

Odnośnik do komentarza
Udostępnij na innych stronach

Dyski beda mialy wplyw na takie rzeczy jak np szybkosc odczytu klatek w programach w rodzaju AE czy Premiere. Ale viewport w maxie nie czyta na zywca textur z dysku caly czas, wrzuca to do RAMu (czy to karty graficznej czy zwyklego to nie jestem pewien) i to sobie tam siedzi. Przez wolny dysk mozesz miec spowolnienia przy wczytywaniu sceny, wrzucaniu materialow z duzymi teksturami itp, ale nie juz przy samym obracaniu viewportu.

Odnośnik do komentarza
Udostępnij na innych stronach

Nie no błagam niemożliwe jest żeby quadro było aż tak kiepskie Nvidia nie jest dobra w open GL a ja mam laptopowego gniota a chodzi płynnie przy 4k. i pracuje na 10 milionowej scenie bez jakiś zwiech itp. Napewno ustawiłeś że ta karta obsługuje ten program?

 

W maxie mam tylko ustawiony driver na nitrous i tyle.. coś się jeszcze gdzieś ustawia?

Odnośnik do komentarza
Udostępnij na innych stronach

Tzn z teksturami jest problem gdy chce edytować materiał (zawierający daną teksturę) bo wtedy jak tekstura ma ponad powiedzmy 1500px któregoś z wymiarów to się tnie material editor... a kwestia viewportu to chyba w takim razie ta karta.... no ale pomijając już to czy w przypadku quadro 4000 cena przekłada się na jakość czy nie to jednak przy scenie powiedzmy 10mln poly (gdzie masa obiektów to proxy) nie powinno być aż takich problemów żeby viewport zamulał (przy edge faces i shaded).... :/

Odnośnik do komentarza
Udostępnij na innych stronach

Generalnie jak mam na scenie roślinność to tylko w postaci proxy.. ale jak się ogółem nazbiera wszystkiego jakieś 10 czy 20 mln poly to się robi mulenie... ale nie tylko wtedy bo zamula też na pojedynczych obiektach tylko trochę bardziej złożonych.. miałem kiedys jakiś projekt domu z gotowym modelem i była na nim położona dachówka tylko, że każda była jako osobny obiekt.. i było ok.. ale kiedy połączyłem wszystkie dachówki w jeden obiekt to oczywiście zaczęło mulić.... a scenka była wtedy malutka.. a nawet jej nie było bo był chyba tylko ten dom xD

Odnośnik do komentarza
Udostępnij na innych stronach

no z dachówkami to już tak jest ja je zawsze po połączeniu daje jako proxy i nagle plik co potrafi mieć 400mb ma zaledwie 5-6. Dwa jeśli używasz ciężkich modeli to będziesz tez miał takie skutki jest kilka firm które dają produkt tak ładnie wyglądając jak równoczesny nie zatykający komputera, a co do zacinania przy teksturach to przypadkiem te tekstury nie są dużej wielkości jeśli chodzi ok mb

Odnośnik do komentarza
Udostępnij na innych stronach

@skalpel3d nie wciągaj dyskow do marnej wydajności w viewportach! Jak napisał wcześniej @mirach, dysk zamuli przy wczytywaniu sceny, jak już się wczyta to za viewport odpowiada grafika. Drazni mnie tylko wiele testow i benchmarków kart quadro, które nijak się maja do codziennej pracy w programach 3d. Normalne gtx daje dużo lepiej rade niż te przereklamowane pseudo PRO! Ale oczywiście "szczęśliwi" nabywcy quadro wytlumacza marna wydajność slabym RAMem, niedopasowanym procesorem albo "cienkim" dyskiem!

Odnośnik do komentarza
Udostępnij na innych stronach

@skalpel3d nie wciągaj dyskow do marnej wydajności w viewportach! Jak napisał wcześniej @mirach, dysk zamuli przy wczytywaniu sceny, jak już się wczyta to za viewport odpowiada grafika. Drazni mnie tylko wiele testow i benchmarków kart quadro, które nijak się maja do codziennej pracy w programach 3d. Normalne gtx daje dużo lepiej rade niż te przereklamowane pseudo PRO! Ale oczywiście "szczęśliwi" nabywcy quadro wytlumacza marna wydajność slabym RAMem, niedopasowanym procesorem albo "cienkim" dyskiem!

 

może nie tyle co GTX'y bo jak wiadomo wymiatają one w renderingu ale w rysowaniu viewportu są średnie zdecydowanie lepiej radzą sobie z tym karty radeona dlatego warto mieć Jednego radka dla monitora a GTX'a do renderingu. W przypadku Octane/Cycles. itp.

Odnośnik do komentarza
Udostępnij na innych stronach

Przedmówca mnie wyprzedził ;p

 

Dokładnie, do viewportu jedynie zintegrowane GPU, najlepiej Radeony lub GeForce, ale nie koniecznie. Natomiast Quadro lub FirePro do renderingu.

Dlaczego? Otóż, GeForce i Radeon wspierają również obliczenia GPGPU, ale również rdzenie muszą obliczyć wektory i takie tam. Natomiast karty wyspecjalizowane na obliczenia GPGPU są pozbawione takiej funkcjonalności, co to oznacza? Otóż, Quadro i FirePro nie nadają się do gier jak i viewportów, natomiast jedynie to przeprowadzania obliczeń typu ray-tracing, path-tracing, fizyka i takie tam. Ale nie grafika, a tym bardziej taka, która wyświetla nie obraz za pomocą pikseli śledząc promień, a za pomocą wektorów i rasteryzacji, wyświetlając prymitywy quady lub trójkąty ;)

 

Reasumując, jeśli masz zintegrowane GPU w CPU lub na płycie głównej to ustaw je jako domyślne dla viewportu(najlepiej GeForce/Radeon(ale to dodatkowy koszt, zważywszy to, że ile już wydałeś na Quadro :/ ) ). Natomiast twoje Quadro jedynie do liczenia klatek(renderowania) i fizyki ;)

Odnośnik do komentarza
Udostępnij na innych stronach

Tzn tak.. ja nie jestem jakimś fanem czy wyznawcą quadro xD to mi doradzili w sklepie no to wziąłem... a że budżet miałem w miarę ok no to kasa się znalazła.. tylko taka kwestia... czy zamulanie na quadro przy 10-20 mln poly to (pomimo ewentualnej kiepskiej wydajności karty) jednak nie jest dziwne... bo rozumiem, że karta może nie być demonem wydajności ale jednak 10 mln poly to nie jest jakoś strasznie dużo... i nie wiem czy to tylko wina karty czy może czegoś jeszcze... bo chciałbym po prostu ten problem zlikwidować bo męczę się tak juz rok.. jakoś tam wizki robię ale kurczę już mam powoli dosyć tego zamulania.. tym bardziej, że komp miał być do wygodnej komfortowej pracy... :/ chciałbym po prostu komfortowo sobie obracać scenkę np 50-60 mln poly.. i tyle... ;] a dyski pójdą do wymiany bo coś tam o nich poczytałem i jakoś zaufania nie budzą.. :/

Odnośnik do komentarza
Udostępnij na innych stronach

Słuchaj no ja na laptopie z i5 i GT620M. Jak obracam scene w blenderze która ma 9 milionów poly dokładnie. To mi trochę przycina jak włącze tylko tryb siatki to mi nie przycina. Dodam że całość jest pod 8xAA. Więc myślę że jednak jest coś nie tak. Zadaj może pytanie na forum Nvidi czy coś.

Odnośnik do komentarza
Udostępnij na innych stronach

Dziwi mnie jedno, ofc, nie zrozum mnie źle, ale dziwię się, że nie kupiłeś jakiegoś GeForce lub Radeona (obojętnie jakiego),a do renderingu nie kupiłeś Tesli.

 

Odpowiem na twoje pytanie. Masz rację dla GeForce lub Radeona to nie jest dużo, a właściwie jest to śmieszna liczba. Natomiast dla Quadro już gorsza. Dawno czytałem już o Quadro, więc nie chcę namieszać, ale Quadro jeśli już ma jakieś jednostki wektorowe i takie tam, potrzebne do wyświetlenia trójkątów to właśnie ma tak wolne, że przy pewnej granicy już nie wyrabiają. Natomiast powinieneś się ucieszyć, bo jeśli kupiłbyś tylko Teslę to w jeszcze gorsze bagno być wpadł, bo tam na 100 % nie ma takich jednostek, jedynie rdzenie ;p

 

Natomiast jeśli Quadro nie ma owych jednostek, to pewnie trójkąty w viewporcie(bo to cały czas o nim piszę) nie renderuje Quadro a pewnie procesor, który przy pewnej ilości nie wyrabia.

 

Tak więc, Quadro jeśli już nawet renderuje to jedynie geometrię składającą się z niewielkiej ilości poly :/

Edytowane przez Xenox93
Odnośnik do komentarza
Udostępnij na innych stronach

@Kramon: W twoim wypadku przycięcia są uzasadnione, gdyż wersje dla notebooków są zawsze ograniczone względem tych desktop'owych ;) Tak więc, o ile procesor nie wiele gorszy od tego desktop'owego, to GPU jest już o wiele wolniejsze. Dodatkowo czynnikiem decydującym jest pamięć RAM. Tak coś mi wydaje się, że masz 4 GB DDR3 ;) Do tego zależy jaki system i wersję oprogramowania.

Odnośnik do komentarza
Udostępnij na innych stronach

@Kramon: W twoim wypadku przycięcia są uzasadnione, gdyż wersje dla notebooków są zawsze ograniczone względem tych desktop'owych ;) Tak więc, o ile procesor nie wiele pewnie jest gorszy od tego desktop'owego, to GPU jest już o wiele wolniejsze. Dodatkowo czynnikiem decydującym jest pamięć RAM. Tak coś mi wydaje się, że pewnie masz 4 GB DDR3 ;) Do tego zależy jaki system masz i jaką wersję oprogramowania.

 

Chodziło mi że jak na moiim biednym laptopie ta scena się kręci prawie bez zacinki to jakim cudem na quadro się zacina... pamięci mam 6.

Odnośnik do komentarza
Udostępnij na innych stronach

Sledzac Wasze techniczne wywody skłaniam wszystkich uzytkownikow pakietow 3d do "nie"kupowania quadro. dla mnie wygoda pracy to możliwość plynnego operowania viewportem, nawet przy dużych scenach. Quadro tego mi nie oferuje! gameingowa karta lepiej radzi sobie a rendering zostawiam prockowi. Jesliby zablokować marketingowy belkot, to nie byłoby problemów.

Odnośnik do komentarza
Udostępnij na innych stronach

Chodziło mi że jak na moiim biednym laptopie ta scena się kręci prawie bez zacinki to jakim cudem na quadro się zacina... pamięci mam 6.

 

Aha, w takim razie zwracam honor ;)

Ale Panowie bez porównania, nie można mówić o porównywaniu grafik GeForce do Quadro bo to tak jakby porównać bolidy F1 do aut hybrydowych ;p Formułą nie pojeździsz po mieście, ale na torze tak i to z jaką prędkością, tak samo odwrotnie auto hybrydowe lub nawet ścigacz nie ma szans z Formułą ;)

 

- - - Połączono posty - - -

 

@MariushO: Czy ja wiem, czy należy ostrzegać i omijać Quadro? Masz rację, jeśli masz na myśli tylko sam Viewport to i ja przyłączam się do ostrzeżeń, ale jeśli masz na myśli rendering, to bez dwóch zdań kupiłbym gorszego procka na rzecz Quadro, a na pewno już Tesli lub FirePro ;) Dodatkowo podaj link, gdzie NVIDIA pisze, że Quadro jest lepsze od GeForce a tym bardziej w grafice 3D(czyt. rasteryzacji, nie ray-tracing'u ).

Odnośnik do komentarza
Udostępnij na innych stronach

Aha, w takim razie zwracam honor ;)

Ale Panowie bez porównania, nie można mówić o porównywaniu grafik GeForce do Quadro bo to tak jakby porównać bolidy F1 do aut hybrydowych ;p Formułą nie pojeździsz po mieście, ale na torze tak i to z jaką prędkością, tak samo odwrotnie auto hybrydowe lub nawet ścigacz nie ma szans z Formułą ;)

O slodka ironio!!!

Jako very PRO fachowiec gdzie więcej pracujesz? W viewporcie czy w renderowaniu? Jak często renderujesz karta graficzna a jak często prockiem? Jak ustawić skomplikowana scene z milionami poly jak viewport muli?

Odnośnik do komentarza
Udostępnij na innych stronach

Czy ja wiem, czy należy ostrzegać i omijać Quadro? Masz rację, jeśli masz na myśli tylko sam Viewport to i ja przyłączam się do ostrzeżeń, ale jeśli masz na myśli rendering, to bez dwóch zdań kupiłbym gorszego procka na rzecz Quadro, a na pewno już Tesli lub FirePro wink.png Dodatkowo podaj link, gdzie NVIDIA pisze, że Quadro jest lepsze od GeForce a tym bardziej w grafice 3D(czyt. rasteryzacji, nie ray-tracing'u ).

 

Stary daj linka do silnika Graficznego który renderuje na AMD będę twoim ulubieńcem! i wiele ludzi też bo z tych co znam to yyy AMD nie obsługują a mianowicie kompilator AMD i ich sterowniki są tak ułomne że poprawny kod nie przechodzi xD i sami nie umieją tego naprawić. Problem ten ma Octane i cycles a są to obecnie 2 numer jeden silniki renderujące na GPU i niestetz Quadro jest wolniejsze od GFX w tym renderingu żeby było śmieszniej i co więcej tesla też nie wymiata jakoś.

Odnośnik do komentarza
Udostępnij na innych stronach

Najpierw muszę przyznać się do tego, że nie jestem zawodowym grafikiem 3D, a raczej interesuję się programowaniem w DirectX jak i OpenGL(tej biblioteki używa Blender ;) W Blenderze bawię się raczej od czasu do czasu. Można byłoby powiedzieć, że mam większą wiedzę teoretyczną niż praktyczną, tzn. wiem jak co działa, czasami sam coś sprawdziłem i niekiedy używam. Natomiast tworzę sobie coś raczej hobbystycznie.

 

Tak więc, mogę teraz dopiero przejść do odpowiadania. Więcej czasu spędzam w Viewporcie i to jest oczywiste, tak więc napisałem wcześniej, że co do samego Viewportu to zgadzam się i dołączam się do twojego ostrzegania innych. Natomiast nie można oskarżać NVIDII za coś czego nie zrobili. Od razu wspomnę, że nie jestem Funboy'em, ale jedynie stwierdzam to co wyczytałem i też uważam ich i nie tylko za marketingowców jakich mało, ale raczej w inny sposób oszukują ;) Nvidia nigdzie nie mówiła, że polecamy Quadro dla gier ;) Co to oznacza? A właśnie to, że nie jest super, hiper, (a nawet ostatnio modne określenie) ultra nowoczesna i ultra szybka w starym renderowaniu grafiki, mam na myśli już od początków istnienia grafiki proces rasteryzacji. Tym samym nie nadaje się do Viewportu, ale do fizyki i Renderingu klatek już owszem i o to właśnie chodziło Nvidii, że na tym poziomie jest szybka. Dodatkowo za kilka lat, a nawet już jeżeli ktoś będzie chciał pisać lub uruchomić grę w ray-tracing'u to powinien zainwestować w Quadro a najlepiej w Teslę ;)

 

Natomiast do renderingu używam GPU. U mnie sytuacja jest inna, bo mam GeForce GTX 460 1 GB, tak więc Viewport chodzi płynnie, a rendering nie jest tragiczny NA RAZIE, bo nie mam skomplikowanych scen jak do tej pory. Ale muszę Ci się przyznać, że kupiłbym z chęcią Quadro lub Teslę tylko do renderowania, bo później mój GeForce nie wyrobi się z renderingiem( ofc, mam na myśli to, że nadal będzie szybszy od CPU, ale scena będzie się renderowała długo w porównaniu z takim Quadro/Teslą/FirePro ), ale niestety nie mam tyle pieniędzy ;/

 

Tak nawiasem mówiąc, nie chcę się kłócić i postaram się aby do tego nie doszło, bo to nie o to chodzi ;) Po prostu każdy nie lubi jak się kogoś oczernia bez powodu, za nic. Wiem, że jesteś oburzony i rozumiem Ciebie, nawet nie wiem sam jakbym się zachował dlaczego wydałem kupe kasy na coś co okazuje się być do niczego, ale uwierz mi, że nie jest to do końca prawdą. Bo dysk masz super, "ultra" szybki co mogę pozazdrościć, o procku nie wspomnę, może nie użyję wyrazu grafiki, bo to nie jest grafika a raczej układu GPGPU również, bo taki układ wielu osobom się nie śnił ;) Twój GPGPU jest o 10x lub nawet 100x lepszy nawet od twojego CPU, ale tylko w renderingu, tak więc nie pozwól aby Quadro się zakurzyło i w renderingu użyj GPU zamiast CPU ;)

Odnośnik do komentarza
Udostępnij na innych stronach

Nie masz racji co do blendera GTX kładą na glebe w renderingu Quadro. A titan rozwala Tesle.

 

2 tesle dostarczone od Nvidi na potrzeby filmu zrobionego przez fundacje Blendera. Okazały się wolniejsze niż 1 GTX 580 przewaga tesli była w 6 gigowej pamięci ale od kąd Titan ma 6 giga a jego moc w renderingu jest 2 szybsza niż 580. :D to sam widzisz jaki jest rezultat :>

Odnośnik do komentarza
Udostępnij na innych stronach

Stary daj linka do silnika Graficznego który renderuje na AMD będę twoim ulubieńcem! i wiele ludzi też bo z tych co znam to yyy AMD nie obsługują a mianowicie kompilator AMD i ich sterowniki są tak ułomne że poprawny kod nie przechodzi xD i sami nie umieją tego naprawić. Problem ten ma Octane i cycles a są to obecnie 2 numer jeden silniki renderujące na GPU i niestetz Quadro jest wolniejsze od GFX w tym renderingu żeby było śmieszniej i co więcej tesla też nie wymiata jakoś.

 

Rozumiem wasze oburzenie, ale opanujcie się, proszę ;) Może najpierw porozmawiajmy jak cywilizowani ludzie. O jakiej grafice mówimy? Macie na myśli rasteryzowanie? Czyli nawiasem pisząc, ten Viewport? Czy raczej renderowanie klatek?

 

Czy ja wiem czy nie można użyć Radeonów lub FirePro do renderowania klatek? Macie rację, że wszyscy poszli w stronę CUDA, niestety :/ Ale pamiętam, że kiedyś w Blender'ze nie wiem czy to była pomyłka, ale była możliwość wyboru w Cycles: CPU, CUDA lub OpenCL. Tak więc właśnie OpenCL pozwalał na renderowanie klatek na układach AMD/Ati ;)

 

Tak więc, najpierw odpowiedzcie, a właściwie sprecyzujmy co rozumiemy przez słowo grafika, dokładniej chodzi mi o jaką grafikę macie na myśli rasteryzacja czy ray-tracing? ;)

Odnośnik do komentarza
Udostępnij na innych stronach

Chodzi mi o rendering strzelanie photonami passami czy inny ustrojstwem. AMD ma zbyt słabe sterowniki w OpenCL i niemogą tego uciągnąć jedynie co to clay render potrafią zrobić dlatego wszyscy używają CUDY poza tym. z Benchmarków zrobionych w blenderze wynika że:

 

 

2 tesle dostarczone od Nvidi na potrzeby filmu zrobionego przez fundacje Blendera. Okazały się wolniejsze niż 1 GTX 580 przewaga tesli była w 6 gigowej pamięci ale od kąd Titan ma 6 giga a jego moc w renderingu jest 2 szybsza niż 580. :D to sam widzisz jaki jest rezultat :>

 

 

Natomiast płynność obracania viewportu jest renderowana w OpenGL a w tym AMD jest królem.

Odnośnik do komentarza
Udostępnij na innych stronach

Nie masz racji co do blendera GTX kładą na glebe w renderingu Quadro. A titan rozwala Tesle.

 

O niee, na pewno GTX nie jest wydajniejszy od Quadro w renderingu, a tym bardziej Tesla, bo właściwie to ona zasługuje na nazywanie GPGPU wśród układów Nvidi, bo GeForce może liczyć CUDA, ale do pełnego GPGPU jej trochę brakuje.

 

No w końcu masz rację, Titan jest lepszy od Tesli. PLUS się należy dla Ciebie. Ale co to jest Tesla? Otóż, jest to układ, który posiada architekturę GPU, np. GeForce'a ;) Czyli teraz opiszę jak to wszystko powstaje:

 

1. Powstaje GeForce, nowa architektura lub tylko coś dodano do nowszej wersji i np. wychodzi najpierw taki GeForce GTX 980.

2. Po roku lub półtorej powstaje Tesla mająca architekturę GeForce, w tym wypadku, np. GTX 980. Ale jest jedna, drobna różnica, Tesla nie posiada jednostek, które odpowiadają za wyświetlanie brył, macierzy i w ogóle odpowiedzialnych za wektory. Czyli można stwierdzić, że jest to okrojona wersja GeForce'a i pewnie słabsza. Otóż nie, bo to, że nie posiada tych jednostek jest czymś zbawiennym, czymś pozytywnym, bo ich brak pozwala na zwiększenie liczby rdzeni oraz zwiększenie wykonywania obliczeń, bo nie jest tracony czas na ustawianie wierzchołków, obliczanie i samplowanie tekstury i takie tam.

 

Lecz zdarzyło się tak, że raz Nvidia wydała wersję Titana, który posiada jednostki wektorowe, które z kolei posiada GeForce, czyli jest to hybryda Tesli + GeForce, taki jeden wybryk, który okazał się, czym dobrym, pomyślnym.

Teraz już wiesz, że do trójkątów/gier GeForce, natomiast do fizyki to na pewno, a do ray-tracingu Tesla ;) Lub Titan, ale to jedynie będzie wiódł prym aż wyjdzie kolejna Tesla lub GeForce ;)

Odnośnik do komentarza
Udostępnij na innych stronach

Chodzi mi o rendering strzelanie photonami passami czy inny ustrojstwem. AMD ma zbyt słabe sterowniki w OpenCL i niemogą tego uciągnąć jedynie co to clay render potrafią zrobić dlatego wszyscy używają CUDY poza tym. z Benchmarków zrobionych w blenderze wynika że:

 

 

2 tesle dostarczone od Nvidi na potrzeby filmu zrobionego przez fundacje Blendera. Okazały się wolniejsze niż 1 GTX 580 przewaga tesli była w 6 gigowej pamięci ale od kąd Titan ma 6 giga a jego moc w renderingu jest 2 szybsza niż 580. :D to sam widzisz jaki jest rezultat :>

 

 

Natomiast płynność obracania viewportu jest renderowana w OpenGL a w tym AMD jest królem.

 

Masz rację, AMD/Ati jest słabe, bo ma słabych programistów. Tak więc po raz kolejny muszę się zgodzić. Ale ja nie pisze, że AMD/Ati jest królem GPGPU, tylko wspomniałem, że też wydali coś na po dobę Tesli ;) Czy na pewno z OpenCL jest tak jak piszą? Bo od CUDA wydajniejszy jest już C++ AMP, czyli programowanie GPU ;) Czyli albo ktoś idzie na łatwiznę, bo Nvidia jest skora do pomocy i w ogóle, albo chodzi o marketing i Blender wspiera Nvidię bo mają jakiś układ, dlaczego? Bo wydawcy, programistom Blendera powinno zależeć na obsługiwaniu wszystkich układów GPGPU, a nie tylko jednej, czyli ktoś tu uszukuje i idzie na łatwiznę, bo tak jak wspomniałem, gdyby chodziło o wydajność to istnieje takie coś jak C++ AMP.

 

A to ja wiem, że AMD/Ati ma lepszą wydajność w OpenGL niż konkurencja, ale wytłumacz mi w takim razie: Dlaczego w prezentacji Nvidia szybciej renderuje się jakaś animacja galaktyki, a nawet Path Tracing na Tesli niż na układach GeForce? Przypadek? Wydaje mi się że raczej nie. Pamiętaj, że prawie każdy co wypuszcza, tworzy coś ma jakiś w tym interes i zawsze testy może zaginać, np. mógłby ktoś zrobić samemu test jakieś animacji tej samej sceny, ale na CPU, GeForce, Quadro i Tesla, ale ta oparta na najnowszej architekturze ;)

Odnośnik do komentarza
Udostępnij na innych stronach

nie masz racji GTX 580 :D jest szybszy od 2 tesli :>

 

GTX z seri 6XX są wolniejszy od tych z 5XX mimo tego że mają więcej rdzeni. Mowa o renderingu.

 

Druga sprawa najpierw jest tesla potem jest GFX.

 

Tesla jest szybsza w zupełnie innym segmencie w obliczeniach. Gdzie wymagana jest podwójna dokładność czy jakoś tak której nie ma GTX.

 

Tesla nie renderowała galaktyki ona robiła symulacje fizyczną i tutaj tesla jest mistrzem. bo GFX po prostu tego nie obsługuje.

 

 

Dlaczego wszyscy używają CUDY?

Bo nvidia napisała genialną biblioteke do GPU. dzięki czemu jest łatwiej kodować na GPU dalej dużo trudniej niż na CPU.

 

Co do tego AMD. To problem jest spory na officialnym forum AMD są 2 wątki jeden Blenderowego Cycles drugi Octane. Oba dwa kody są poprawne ale żaden nieprzechodzi przez kompilator AMD. AMD oświadczyło że postarają się coś z tym zrobić.

Odnośnik do komentarza
Udostępnij na innych stronach

@Xenox93 mówimy o płynnej pracy w viewporcie podczas projektowania! marketingowcy obiecują nam niesamowita wydajnosc modeli "very pro" a okazuje się, ze GTX jest o wiele lepsze. Pracujac w pakiecie 3d większość czasu spędzasz na pracy w viewporcie i to tam oczekuje wydajności. Jak chcesz renderowc z GPU to bierzesz quadro, bo do tego jest stworzona! a nie baju baju, ze jak chcesz być pro to kup quadro! A i tak, Ci pro renderuja mentalem albo vrayem!

Odnośnik do komentarza
Udostępnij na innych stronach

Wszyscy wiedzą że Quadro jest wolniejsze od GTX w renderingu w przypadku Octane i cycles problem był gdzie indizej Pamięć ram. karty. musi się na niej zmieścić cała scena. A gucio można było na niej renderować skoro wszystkie karty były 1 giga potem pojawiły się 2 gigowe kiedy quadro oferowało 6 giga pamięci. Dlatego quadro się kupowało. Teraz się to zmieniło Pojawił się GTX 680 z 4 gigową pamięcią i Titan z 6 gigową pamięcią. Quadro jest szybsze już tylko w bardzo wyspecializowanych sprawach.

Odnośnik do komentarza
Udostępnij na innych stronach

@Xenox93 mówimy o płynnej pracy w viewporcie podczas projektowania! marketingowcy obiecują nam niesamowita wydajnosc modeli "very pro" a okazuje się, ze GTX jest o wiele lepsze. Pracujac w pakiecie 3d większość czasu spędzasz na pracy w viewporcie i to tam oczekuje wydajności. Jak chcesz renderowc z GPU to bierzesz quadro, bo do tego jest stworzona! a nie baju baju, ze jak chcesz być pro to kup quadro! A i tak, Ci pro renderuja mentalem albo vrayem!

 

A nie, no tak to masz rację w zupełności. Wiadomo, Viewport to rzecz święta :D Masz rację z tym, że marketingowcy wmawiają nam, że aby być Pro to MUSIMY kupić Quadro lub Teslę, nie no wiadomo, że to jest papka i czcze gadanie, bo nie ma żadnego podłoża. Mi chodziło o sam fakt, że lepiej renderować coś szybciej niż czekać kilka dni ;) Ale nie ma to nic wspólnego z byciem Pro. Bo jeżeli ja kupię teraz Teslę, to logiczne, że nie będę najlepszy na świecie i nagle jak za sprawą magicznego przedmiotu stanę się nagle geniuszem. To jest głupota, bo byciem Pro nie jest to jakie podzespoły się ma, a jedynie talent ;) Bo każdy Pro wyrenderuje scenę na kilku letnim komputerze, ale kosztem czasu ;)

 

Reasumując, błędne jest myślenie, że aby być Pro to trzeba mieć Quadro lub coś innego. Ale jeżeli cenimy czas i nie mamy co zrobić z pieniędzmi to warto zainteresować się słabszą wersją GeForce i najwyżej Teslę. Natomiast to co Ciebie spotkało to nikomu nie życzę, nawet wrogowi :/

 

- - - Połączono posty - - -

 

Wszyscy wiedzą że Quadro jest wolniejsze od GTX w renderingu w przypadku Octane i cycles problem był gdzie indizej Pamięć ram. karty. musi się na niej zmieścić cała scena. A gucio można było na niej renderować skoro wszystkie karty były 1 giga potem pojawiły się 2 gigowe kiedy quadro oferowało 6 giga pamięci. Dlatego quadro się kupowało. Teraz się to zmieniło Pojawił się GTX 680 z 4 gigową pamięcią i Titan z 6 gigową pamięcią. Quadro jest szybsze już tylko w bardzo wyspecializowanych sprawach.

 

Tak, masz rację, że w Octane lub Cycles wymaga dużej ilości GPU RAM ;) W końcu doszliśmy do konsensusu :D Może i masz rację z tym Quadro w to nie wnikam, ale nadal nie jestem pewny co do Tesli, no wiesz, to, że ktoś zrobił testy, a tym bardziej tą osobą jest twórca Blendera to nie można do końca wierzyć ;)

 

Tylko nie zapomnij o tym, że Titan to hybryda GeForce i Tesli ;) Dlatego jest demonem prędkości ;p

Odnośnik do komentarza
Udostępnij na innych stronach

http://mango.blender.org/production/a-tale-of-teslas/

 

ogarnij sobie to. Wcześniej dostali od Nvidi Quadro 2000 , które wyrenderowało scene tam na filmie mówi w ile minut 3 jeśli dobrze pamiętam. Potem przyszła paczka z teslą to co jest na filmie czyli podłączyli tesle. i wyszło tyle ile jest napisane w artykule jest też to na filmie. Potem druga sprawa jest taka że ta sama scena dla GTX 580 wyszła 23 sekundy kiedy to tesla w 34 sekundy. :) Dodam teraz że odkąd zostały dodane taile przyrost prędkości jest większy.. więc te scenki by się szybciej wyrendziły.

Odnośnik do komentarza
Udostępnij na innych stronach

http://mango.blender.org/production/a-tale-of-teslas/

 

ogarnij sobie to. Wcześniej dostali od Nvidi Quadro 2000 , które wyrenderowało scene tam na filmie mówi w ile minut 3 jeśli dobrze pamiętam. Potem przyszła paczka z teslą to co jest na filmie czyli podłączyli tesle. i wyszło tyle ile jest napisane w artykule jest też to na filmie. Potem druga sprawa jest taka że ta sama scena dla GTX 580 wyszła 23 sekundy kiedy to tesla w 34 sekundy. :) Dodam teraz że odkąd zostały dodane taile przyrost prędkości jest większy.. więc te scenki by się szybciej wyrendziły.

 

Jedno mnie dziwi, dlaczego tester nie zastosował układów nowszych, tylko słabsze? ;p Tesla użyta do testów zawiera mniej rdzeni CUDA w porównaniu do GeForce GTX 580 ;) Gdyż 580 ma ich ponad 1K, kiedy użyta Tesla ma ledwo ponad 400 ;p Autor powinien zastosować Tesla M2090 lub nowszą wersję na poziomie GeForce GTX 580, czyli Teslę K20, która ma ponad 2k rdzeni ;) Właśnie o chodzi o ten mały szczegół, a właściwie o kilka, pierwszy to liczba rdzeni, to ona ma znaczący wpływ na szybkość renderowania sceny, później magistrala, największa teraz używana to 384-bit(czy jakoś tak), to jest ograniczenie dla grafiki, bo nie jest wstanie zapełnić pamięci ;) A dopiero później ilość pamięci GPU RAM. Tak więc, pomyśl o połączeniu 2x Tesla K20, to wydajność bez porównania ;)

 

Ok, teraz dopiero wezmę się za oglądanie filmiku, bo najpierw musiałem zobaczyć parametry i opisy zastosowanych podzespołów, tak więc, moje obawy zostały uzasadnione, gdyż właśnie spodziewałem się tego, że użyją starszej wersji Tesli ;)

 

Nie wspominam o Titanie, bo on pokonałby na pewno GeForce i Teslę również.

 

@MariushO: Nie, źle mnie zrozumiałeś, układy GPU w niczym mi nie pomogą, nie upiększą ani nie ułatwią, one jedynie szybciej wyrenderują scenę i to jest jedyna zaleta ;) A tak na prawdę nie ma nowej ery w renderingu, bo nadal używany jest path-tracing, który zastąpił ray-tracing, który istnieje od dawna, a był renderowany na CPU i musiało kilka dni trwać wyrenderowanie animacji ;) To jest ta jedna lecz znacząca różnica.

Odnośnik do komentarza
Udostępnij na innych stronach

Jedno mnie dziwi, dlaczego tester nie zastosował układów nowszych, tylko słabsze? ;p Tesla użyta do testów zawiera mniej rdzeni CUDA w porównaniu do GeForce GTX 580 ;) Gdyż 580 ma ich ponad 1K, kiedy użyta Tesla ma ledwo ponad 400 ;p Autor powinien zastosować Tesla M2090 lub nowszą wersję na poziomie GeForce GTX 580, czyli Teslę K20, która ma ponad 2k rdzeni ;) Właśnie o chodzi o ten mały szczegół, a właściwie o kilka, pierwszy to liczba rdzeni, to ona ma znaczący wpływ na szybkość renderowania sceny, później magistrala, największa teraz używana to 384-bit(czy jakoś tak), to jest ograniczenie dla grafiki, bo nie jest wstanie zapełnić pamięci ;) A dopiero później ilość pamięci GPU RAM. Tak więc, pomyśl o połączeniu 2x Tesla K20, to wydajność bez porównania ;)

 

Ok, teraz dopiero wezmę się za oglądanie filmiku, bo najpierw musiałem zobaczyć parametry i opisy zastosowanych podzespołów, tak więc, moje obawy zostały uzasadnione, gdyż właśnie spodziewałem się tego, że użyją starszej wersji Tesli ;)

 

Nie wspominam o Titanie, bo on pokonałby na pewno GeForce i Teslę również.

 

@MariushO: Nie, źle mnie zrozumiałeś, układy GPU w niczym mi nie pomogą, nie upiększą ani nie ułatwią, one jedynie szybciej wyrenderują scenę i to jest jedyna zaleta ;) A tak na prawdę nie ma nowej ery w renderingu, bo nadal używany jest path-tracing, który zastąpił ray-tracing, który istnieje od dawna, a był renderowany na CPU i musiało kilka dni trwać wyrenderowanie animacji ;) To jest ta jedna lecz znacząca różnica.

 

 

która i tak kosztuje 5 razy tyle co jeden GTX 580 ;>

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności