materalia Napisano 10 Listopad 2015 Share Napisano 10 Listopad 2015 (edytowane) tak, bo to najbardziej okrojone chłodzenie, a tak to wygląda w EVGA SSC Cinemabench zobaczę głównym hamulcowym jest CPU, sam zobaczysz:), o czym wspominałem, że lepiej kupić Xeona E3(4c/8t) za 1100zl + MB (ok. 300-400zł) do tego GTX660 (ten zyskałby PCIx 3.0!, 2x szybciej transfer), całość za 1500 zł ;). Viewport miałby podobną ilość FPS (często większą) co GTX970, ale zyskałbyś szybkość dosłownie wszędzie, włącznie z renderingiem!. ps. resztę masz, pamięć DDR3, zasilacz, chłodzenie pasujące też do 1150. Edytowane 10 Listopad 2015 przez materalia Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
deshu Napisano 10 Listopad 2015 Share Napisano 10 Listopad 2015 Oprócz wrzucania obiektów nie zapomnij nawrzucać tekstur, najlepiej 4K.exr 32b float :). Jaki normalny człowiek wyświetla 4k floaty we viewporcie? I w jakim sofcie? Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Sebazx6r Napisano 10 Listopad 2015 Autor Share Napisano 10 Listopad 2015 Materalia xD juz Cię czytać nie mogę... Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
materalia Napisano 10 Listopad 2015 Share Napisano 10 Listopad 2015 Jaki normalny człowiek wyświetla 4k floaty we viewporcie? I w jakim sofcie? właśnie Substance Painter na takich teksturach pracuje w viewport (na kanał 32b float, najlepsze ustaw.), a dodatkowo pobiera 1GB VRAM na sam bufor dla operacji tj. goły projekt zajmuje 1GB VRAM + maks ok. 0.5GB (0.5GB trzeba liczyć na monitor 4K, 256MB na FHD) ramka wyświetlania (maks. 1.5GB VRAM trzeba od razu odjąć w Substance Painter, zostaje realnie 2GB w GTX 970 + to "wolniejsze" 0.5GB). Nie tylko ten program tak robi, liczone shadery też idą do float przy ustaw. hi detal np: w majkowej viewport 2.0. Żaden viewport nie używa kompresji tekstur, tak jak to jest w grach, gdzie gry mają po 100 tekstur 4K i wtedy nawet 4GB styka na FullHD z ekstra teksturami. Trzeba pamiętać, że niektórzy w tym czasie liczą jeszcze na obliczenia GPGPU, które swoje też zajmują zależnie od stopnia skomplikowania :) 8GB VRAM ma naprawdę rację bytu w pracy 3D ze współczesnym softem jeżeli ktoś liczy na maks. jakość wyświetlania. Co do zależności CPU vs GPU w Cinebench R15 w teście OGL, to chyba wszystko wyjaśnia. Identycznie jest w przypadku GTX660, dlatego lepiej byłoby zainwestować 1500 zł w Xeona E3-1231v3 + MB i wycisnąć maksa z GTX660 :) Notabene na R9 380 mam wynik maks. 125fps. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
deshu Napisano 10 Listopad 2015 Share Napisano 10 Listopad 2015 Na moim gtx580 z 1.5gb vramu substance painter nie ma zadnych przytyków. Wg tego co piszesz, soft nie powinien na tej karcie własciwie w ogóle działać. Materalia - zajmij się lepiej praktyką, niż teorią. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
materalia Napisano 10 Listopad 2015 Share Napisano 10 Listopad 2015 (edytowane) Wg tego co piszesz, soft nie powinien na tej karcie własciwie w ogóle działać. a dlaczego ?. Substance Painter działa nawet na GPU które mają 0MB VRAM :) tj. APU od AMD i Intela - zdziwiłbyś jak dobrze (ale góra do rozdz. FHD), a karta graficzna na PCIx potrzebuje minimum tylko tyle VRAM ażeby wyświetlić ramkę ekranu - obecnie bezpiecznie tj. ok. 256MB dla FHD i 512MB dla 4K (uwzględniam bufory na okna w kompozycji pulpitu), reszta może być transferowana z RAM komputera przez szynę PCIx bezpośrednio do GPU. Szyna PCIx 3.0 ma transfery do 8GB/s (2.0 do 4GB/s), to jest wystarczająco np: żeby Crysis 3 działał płynnie(25fps) na Low w rozdziałce HD:). Niestety obciążenie w ten sposób RAM komputera wpływa drastycznie nie tylko na wydajność GPU, ale także CPU, dopóki nic nie spada poniżej 25fps to niewiele odczuwasz, ale fpsy mocno lecą w dół. Także mówiąc krótko, nie wiesz o czym piszesz, bo tego nie testujesz w bardziej ekstremalnych warunkach. Pamiętaj, że używać GPU może więcej niż jeden program jednocześnie i do czegoś więcej niż tylko viewport np: GPGPU do renderingu... Jeżeli chcesz jednocześnie pracować w Substance Painter i renderować załóżmy w Cycles no to musisz wybrać, bo 1.5GB to może być problem. ps. nie wspomnę o tym, że karty NVIDIA nie są jeszcze sprzętowo przystosowane do takiego "multitaskingu", tak jak AMD. A co do praktyki, to wszystko zależy jak rozbudowane ktoś robi sceny, jak pracuje itd. i tylko mając to na uwadze należy dobierać dla siebie kartę gfx. Edytowane 10 Listopad 2015 przez materalia Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Sebazx6r Napisano 10 Listopad 2015 Autor Share Napisano 10 Listopad 2015 Ty n a pewno jestes dorosły? Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
materalia Napisano 10 Listopad 2015 Share Napisano 10 Listopad 2015 a co to za pytanie ? Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Sebazx6r Napisano 12 Listopad 2015 Autor Share Napisano 12 Listopad 2015 Zaisntalowalem juz 970 jezeli chodzi o gry to MKX teraz smiga na FULL plynnie. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Maciek Jutrzenka Napisano 12 Listopad 2015 Share Napisano 12 Listopad 2015 ps. nie wspomnę o tym, że karty NVIDIA nie są jeszcze sprzętowo przystosowane do takiego "multitaskingu", tak jak AMD. tak taaak AMD jest tak zawansowane że nikt tej firmy nie bierze na poważnie przy skomplikowanych zadaniach jak np rendering. :D Ale AMD multitasking zawansowany xaxaxa. w liczeniu owieczek. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
materalia Napisano 12 Listopad 2015 Share Napisano 12 Listopad 2015 AMD jest tak zawansowane że nikt tej firmy nie bierze na poważnie przy skomplikowanych zadaniach jak np rendering. Tak, tak:), rendering nie jest jako takim skomplikowanym zadaniem:), od tego zacznijmy, a na poważnie to jeszcze mało kto renderuje na GPU, bo finalne rendery lecą mimo wszystko głównie na CPU i więcej korzyści dadzą dopiero silniki hybrydowe OpenCL + CPU. Tak czy owak to nie jest żaden argument za taką czy inną kartą, bo obecnie wiele silników jest na OpenCL lub jest przepisywana albo tworzone na OpenCL, co ułatwi już AMD FireRaysSDK(łatwe do integracji z kodem C++ (nawet silnika CPU), pierwszy korzysta z tego FireRender który w zamyśle ma być taką CoronaRT, LuxRender jeszcze nie używa...). W odróżnieniu od rozwiązań pewnej zielonej firmy nie jest to wszystko zamknięte i ograniczone do jednego sprzętu. Masakra, że jeszcze teraz daje się ktoś tak "zamknąć". To jest taki poniekąd odpowiednik Intel Embree tylko na GPU, na czym skorzystają wszyscy. Także to nie jest dzisiaj tak, że jak ktoś kupi AMD GPU to dupa blada i nie po renderuje sobie dodatkowo z jego użyciem. Może być tylko coraz lepiej, bo AMD wykonało niezbędną podstawową pracę. PS. "Multitasking" GPU to dla NVIDI na razie piosenka przyszłości, czyli coś co GPU AMD wspierają sprzętowo od kilku lat (od pierwszego GCN!) i stanowiło to bazę dla rozwoju wielu nowych API (DX12, Vulkan, OpenCL 2.x, C++ Amp itd., co wyznacza nowe std.), także NVIDIA może tylko to papugować trzepiąc na okrągło te same ograniczone Cudaki, co ma ją niby pozytywnie wyróżniać. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Sebazx6r Napisano 12 Listopad 2015 Autor Share Napisano 12 Listopad 2015 Panowie jako ze sprzedaje GTX660 zaczalem szukac rachunkow. GTX zastapil u mnie Radeona HD 6870 z ktorym miałem jaja z marking menu w Viewporcie w Mayce . Poprostu nie działały i różnych sterow próbowałme. :) To tak by the way. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
materalia Napisano 12 Listopad 2015 Share Napisano 12 Listopad 2015 Zaisntalowalem juz 970 jezeli chodzi o gry to MKX teraz smiga na FULL plynnie. No super, też mam 60fps w FHD na wielu grach :). W końcu jak to z 3D view. Weźmy np: Cinebench 15, bo nie wiem czy jest jakiś punkt odniesienia na Maya. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Maciek Jutrzenka Napisano 13 Listopad 2015 Share Napisano 13 Listopad 2015 (edytowane) materalia ej ty tak na serio piszesz czy trollujesz czy oco c'mon :D? Renderowanie nie jest skomplikowane powiadasz. to dlatego jak wszyscy developerzy nawet AMD pomagało przy sprawie z cyclesem nie dali rady i Kompilator AMD mimo tego że kod był poprawny się wykrzaczał, potwierdziło to samo AMD. Dopiero po 2 latach pracy koderów AMD-Blender. i wydania nowej seri kart na nowym chipie. Okrojna wersja cyclesa przeszła na niektórych kartach. Sukces! :D Ale no AMD jest wspaniałe i dla niego rendering to pestka :D Tylko po prostu silniki renderujące takie jak. iRay, Octane, Cycles, Arion CPU+GPU, V-ray. FurryBall. się poddały implementowania na AMD. Ale tak tak wiem to są jakieś śmieszne i nikomu nie znane silniki renderujące xD Ale taki FireRender! to jest potęga! xD Nawet LuxRender który jest officialnie wspierany przez AMD ma problemy xD haha człowieku ja cię proszę zejdź na ziemię :) Także to nie jest dzisiaj tak, że jak ktoś kupi AMD GPU to dupa blada i nie po renderuje sobie dodatkowo z jego użyciem. Może być tylko coraz lepiej, bo AMD wykonało niezbędną podstawową pracę. W czym sobie porenderuje? W lux renderze? który jest silnikiem pisanym for fun? przez paru koderów i jest tylko plugin do blendera? a na poważnie to jeszcze mało kto renderuje na GPU, bo finalne rendery lecą mimo wszystko głównie na CPU ździwiłbyś się ale GPU jest już dość popularne :) no ale fakt gdybym używał AMD też bym wolał CPU :P to nie jest tak że AMD jest totalnie beznadziejne. Ale po prostu, no jeśli chodzi o kartę dla grafika to AMD jakoś nie widzę w świecie 3D. Edytowane 13 Listopad 2015 przez Maciek Jutrzenka Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Sebazx6r Napisano 13 Listopad 2015 Autor Share Napisano 13 Listopad 2015 (edytowane) Dzis/Wczoraj na spotkaniu Foundary Platige od reklamy opowiadal jak na Octanie renderuje. 3DMark Vasic edition wyszlo mi 8614pkt, ale w cinemabenchu cieniutko xD bo 66. Cinemabench gorzej. CPU 540 GPU 67.58 Uzbieram hajs to sie zmini plyte i procek. 3.8Ghz 544 69.02 Edytowane 13 Listopad 2015 przez Sebazx6r Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
materalia Napisano 13 Listopad 2015 Share Napisano 13 Listopad 2015 Renderowanie nie jest skomplikowane powiadasz. to dlatego jak wszyscy developerzy nawet AMD pomagało to nie jest kwestia skomplikowania tylko mocy przerobowych AMD. Okrojna wersja cyclesa przeszła na niektórych kartach. ja wiem czy okrojona, właściwie brakuje tylko jednego i drobiazgów, a może już nie brakuje. Nie był to problem kart AMD, tylko problem po stronie twórców Blendera i mocy przerobowych AMD w celu ich wsparcia. Tylko po prostu silniki renderujące takie jak. iRay, Octane, Cycles, Arion CPU+GPU, V-ray. FurryBall. się poddały implementowania na AMD. Ale tak tak wiem to są jakieś śmieszne i nikomu nie znane silniki renderujące iRay nigdy nie będzie na AMD/OpenCL z racji bycia własnością NVIDIA, a NVIDIA jak coś ma na własność to od razu zamyka, dlatego ta firma dostaje fucki na lewo i prawo od dev. Octane od V3 będzie wspierał karty AMD i być może także IntelHD. VRay w żaden sposób nie wspiera GPU, tylko robi to VRayRT, a to tylko podobny choć zupełnie inny silnik, tak jak będzie w przypadku Corona (powstającej obecnie wersji CoronaRT na GPU). Reszta jest mi mniej znana. Nawet LuxRender który jest officialnie wspierany przez AMD bzdury, ostatnio do LuxRender głównie wnosiła poprawki NVIDIA, bo silnik mocno odstawał w testach na GTX980 w porównaniu do kart AMD R9 390. Gdyby był taki wspaniale support AMD jak twierdzisz to już dawno (od roku) miałby zaimplementowane FireRaysSDK tak jak Firerender (baza dla CoronaRT), a dopiero ma to być od którejś kolejnej wersji Luxrender. Intel nawet lepiej wspiera Luxrendera, bo zaimplementowano Intel Embree. Wszystkie firmy zależnie od swoich możliwości de facto wspierają ten silnik. W czym sobie porenderuje? W lux renderze? A który silnik nadaje się do pełnego renderowania na GPU, właściwie tylko Octane, bo akurat takie założenia nałożyli sobie jego twórcy, reszta ma znacznie rozszerzone wersje CPU, także finala wrzuca się najczęściej na CPU. ździwiłbyś się ale GPU jest już dość popularne tak tak, zdziwiłem się jak mało praktycznie przydatne jest samo CUDA, mając kiedyś GTX550Ti i GTX650Ti. Najważniejszy pozostaje nadal OpenGL, obecnie 4.x. Dla mnie nawet rewelacje AMD nie mają większego znaczenia, jak również od lat cudactwa NVIDIA. Akurat takich używam programów, gdzie nawet OpenCL jest marginalne. to nie jest tak że AMD jest totalnie beznadziejne. Ale po prostu, no jeśli chodzi o kartę dla grafika to AMD jakoś nie widzę w świecie 3D. Właśnie AMD wchodzi w ten świat renderowania z wykorzystaniem GPU (+CPU) za sprawą OpenCL 2.x, FireRaySDK i kart AMD GCN. AMD wprowadza ten temat od razu na zupełnie nowy wyższy poziom, także jest szansa na przeniesienie GPU do normalnych silników (tak jak w przypadku Intel Embree, a jednostki GCN ACE nie uczynią GPU bezużytecznym w momencie puszczenia renderingu...). Poza tym GPU są używane nie tylko do renderingu, a tutaj wykorzystuje się najczęściej OCL, a nie CUDA, więc karty AMD znajdują takie samo zastosowanie, podobnie jak IntelHD. 1 Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
materalia Napisano 13 Listopad 2015 Share Napisano 13 Listopad 2015 Cinemabench gorzej. CPU 540 GPU 67.58 nie gorzej tylko zgodnie z przewidywaniami o których wspominałem, że wąskim gardłem jest CPU. Masz trochę ponad 50% tego co mam na R9 380 4GB (900zł) z maks. OC na AMD FX-8320E(500zł), ale nawet bez OC mam sporo więcej. Musisz wydać kolejne 1500 zł, żeby było na GTX970 więcej fps w cb o przewidywane 20% względem R9 380. Takie są fakty. ps. kosztowne dla Ciebie. Koledzy wyżej powiedzą, dobrze uczyniłeś, już niedługo już za chwilę ujrzysz cuda o jakich nie śniłeś, nie wiem tylko czy ta inwestycja zwróci się tak szybko jak ktoś tu przewidywał, czy nie jest to w tej chwili raczej kolejny gadżet w komputerze ;) ps. Xeon E3 na GTX660 wyciągnąłby lekko 100fps, a nie tylko to dostałoby kopa. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
materalia Napisano 13 Listopad 2015 Share Napisano 13 Listopad 2015 zastapil u mnie Radeona HD 6870 z ktorym miałem jaja z marking menu w Viewporcie w Mayce wydawało mi się, że pisałeś o stareńkim(2007/8rok) Radeon HD 4870!?:), bo jeżeli na tej to nie wiem, bo testowałem na laptopie HP Probook właśnie na tej karcie AMD dodatkowo Maya 2016sp4 i wszystko okej z marking menu. HD7650M to jest dokładana taka sama architektura co HD6870 tj. Terrascale 2 (VLIW4), tylko z racji mobilności ma mniej rdzeni. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Sebazx6r Napisano 13 Listopad 2015 Autor Share Napisano 13 Listopad 2015 A Ty wiesz wogole jak marking menu włączyć? Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
materalia Napisano 13 Listopad 2015 Share Napisano 13 Listopad 2015 Nie, nie wiem, wczoraj się urodziłem i nie wiem, ale możesz zawsze mnie oświecić :) Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Sebazx6r Napisano 13 Listopad 2015 Autor Share Napisano 13 Listopad 2015 Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
materalia Napisano 13 Listopad 2015 Share Napisano 13 Listopad 2015 jest OKEY! na tym Radeon HD7650M, czyli także HD6870, bo to taka sam arch. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Sebazx6r Napisano 13 Listopad 2015 Autor Share Napisano 13 Listopad 2015 No spoko ciekawe jak z Substance Painterem.Chociaż w sumie karta jużzakupiona a Substance Designer korzysta z Iraya. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Maciek Jutrzenka Napisano 13 Listopad 2015 Share Napisano 13 Listopad 2015 Ej teraz mnie oświeciło że HAHA! napisałeś że iray to silnik NVIDI i że z nikim się nie dzieli o tuż to nie dokońca jest prawda bo cała biblioteka OPTIX jest dostępna dla każdego :) Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
materalia Napisano 14 Listopad 2015 Share Napisano 14 Listopad 2015 (edytowane) a to cokolwiek zmienia w moim stwierdzeniu ?:) . Udostępnienie biblioteki funkcji tylko dla kart NVIDIA, biblioteki zamkniętej, to nie jest żadne otwarcie, tylko rozszerzenie oferty zamkniętych bibliotek funkcji dla dev. cudactw. PS. dla porównania AMD FireRays SDK nie jest ograniczona do żadnego konkretnego sprzętu czy systemu, ostatecznie kod wykonuje się na samym procesorze i nie musi być to procesor AMD No spoko ciekawe jak z Substance Painterem na HD7650M (architektura HD6870) Substance Painter działa, choć przy pierwszym uruchomieniu pojawia się jakiś komunikat dt. GPU, coś w stylu, nie wiemy czy nasz program będzie poprawnie działał na tym modelu GPU (chodzi zapewne konkretnie o model HD7650M, ciekawe, że na IntelHD nie ma takiego komunikatu), zatwierdzamy OK, dalej wszystko wygląda okej. Nic się nie zawiesiło, Hans wygląda jak ma wyglądać, malowanie okej itd. Po godzinie zabawy trudno powiedzieć, ale jest okej. Edytowane 14 Listopad 2015 przez materalia Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Maciek Jutrzenka Napisano 14 Listopad 2015 Share Napisano 14 Listopad 2015 no widzisz :D nawet integra daje radę a AMD wywala komunikaty że może być słabo xD xaxaxaaxax Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
skalpel3d Napisano 14 Listopad 2015 Share Napisano 14 Listopad 2015 przepraszam o co jet to całe bicie piany chyba tylko dla bicia piany i nie dla niczego innego albo dla czyjegoś przerostu ego :) Chyba to jest wystarczając informacja na jakim sprzęcie dany soft ma działać, jaki jest nie zalecany a dla jakiego niema wsparcia, to jak on będzie działał to już inna bajka:) Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
materalia Napisano 14 Listopad 2015 Share Napisano 14 Listopad 2015 nawet integra daje radę a AMD wywala komunikaty że może być słabo a z skąd program ma to wiedzieć skoro się jeszcze nie uruchomił, pomyśl czasami :). Nie chodzi o to. Program nie ma w spisie tego modelu (choć to model znacznie powyżej >HD2000), więc profilaktycznie wyrzuca takie powiadomienie przy pierwszym uruchomieniu, potem jest wszystko okej. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Sebazx6r Napisano 12 Czerwiec 2016 Autor Share Napisano 12 Czerwiec 2016 no i zaniosłem dziś Asusa do reklamacji. Wyłączał się obraz na ekranie i trzeszczały cewki. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Rekomendowane odpowiedzi
Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto
Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.
Zarejestruj nowe konto
Załóż nowe konto. To bardzo proste!
Zarejestruj sięZaloguj się
Posiadasz już konto? Zaloguj się poniżej.
Zaloguj się