Skocz do zawartości

materalia

Members
  • Rejestracja

  • Ostatnia wizyta

Zawartość dodana przez materalia

  1. Oszczedzasz na chłodzeniu, a wydajesz na proca prawie 10 tyś :). Wybacz, ale to brzmi zabawnie. Konfiguracja dobra do renderingu, ale cholernie droga mimo wszystko. Do pracy to jednak przerost formy nad treścią, bo naprawdę wystarczy najtańszy procek i7 w OC obsługujący 128GB w 4 kanałach. W tym procesie nie tyle potrzeba mocy obliczeniowej co mocy przetwarzania, bo zapycha się strumień z danymi, a jedyne sposoby na przyspieszenie tego procesu to SSD, większy RAMcache lub dynamiczny RAMdysk (format wspierany przez GPGPU np: JP2, chyba AE wspiera ?), nawet nie wiem czy wtedy 6c/12t będzie pracować na 100% swoich możliwości, a co dopiero 14c/28t, które funkcjonuje też na tak samo wydajnej pamięci.
  2. Kup najtańszy procek obsługujący 128GB :). W tym AE 6c vs 10c to nie robi większej różnicy. Jeżeli już upierasz się na 2x Xeony to ten jest najbardziej opłacalny, ale to już do wymagających renderingów, jeżeli takowe wykonujesz i czekasz powiedzmy po kilka godzin za wynikiem: https://www.morele.net/procesor-serwerowy-intel-e5-2630v4-bx80660e52630v4-871102/
  3. 2x GTX1070 to nic nie da. Postawiłbym na bardzo dużo RAM w 4 kanałach i procesor który to obsłuży, mając na myśli dużo myślę o jakiś min. 128GB. Taki RAM może być wykorzystany przez cache (programu lub systemu), ew. można utworzyć sobie dynamiczny ramdysk... Karta graficzna jest tutaj kwestią trzecioplanową, bo nie sądzę żeby jakość sprzętowych koderów h.264/h.265 była zadowalająca dla pro zadań, lepiej wypadają "sprzętowe" (OCL/CUDA) dekodery np: Jpeg/Jpeg2.... Zastanawia mnie czemu używasz dość powolnego PNG, a nie np: JP2 ?. Najszybsze SSD są na PCIe, ale nie jest to już jakaś piorunująca różnica względem zwykłych SSD.
  4. materalia odpowiedział woj → na odpowiedź w temacie → Hardware
    W zupełności wystarczy ten MSI X99A SLI PLUS. Jak planujesz zakup procka za >5 tyś zł (min. 8 c/16t w OC) to możesz pomyśleć wtedy o droższej płycie z chłodzonymi 12 fazami, choć ten wzrost ceny z powodu +4 faz jest mocno przesadzony, to nie powinno zwiększyć ceny płyty więcej jak o 15$. czysty marketing podbija cenę. 1300 zł za jednoprocesorową płytę to jest naprawdę hardcore cenowy. Tym bardziej, że płyta nie wpływa specjalnie na wydajność, kilkaset złotych więcej (+30%), a na wydajności jakieś niepewne promile.
  5. materalia odpowiedział woj → na odpowiedź w temacie → Hardware
    Pełną moc GTX750Ti wyciągnie nawet płyta za >200zł :), a za ok. 400 zł to już hi-end, ale że wybrałeś 2011v3 to zostaje to za 949 zł, co uważam mimo wszystko za przerost formy nad treścią, jeżeli bazuje się tylko na renderingu GPU CUDA, bo za cenę procka i płyta można mieć, 2x GTX1060 6GB + zasilacz: http://www.x-kom.pl/p/254978-plyta-glowna-socket-2011-3-msi-x99a-sli-plus-x99-4xpci-e-ddr4.html Co do kart to bardziej przyszłościowy jest GTX1060 6GB ok. 1250-1300 zł.
  6. materalia odpowiedział woj → na odpowiedź w temacie → Hardware
    akurat do tych 2x GTX750Ti to wystarczy jakakolwiek najtańsza płyta z 2x PCIe, nawet niezbyt mocny zasilacz rzędu >450W, tak na marginesie :) jeżeli nastawiasz się na rendering only GPU CUDA to ja bym dał sobie luz z tym i7-5820K - szkoda kasy, bo wystarczy spokojnie z zapasem mocne i5, a kupiłbym płytę pod 3x PCIe, no chyba, że ktoś lubi MicroATX na biurku to zostaje maks. 2x PCIe (generalnie ATX to i tak maks. 4 karty). Zamiast ładować kasę w drogiego procka 2011v3 i drogą płytę 2011v3 władowałbym kasę w 3x GPU + odpowiednio mocny zasilacz :). Będziesz miał z tego więcej pożytku od razu w renderingu niż ze świadomości posiadania "pustych" linii pci-e w i7-5820k oraz bezużytecznych rdzeni CPU przy renderingu GPU CUDA. W GPGPU nie doświadczysz różnicy między x16, x8, x4 na PCI-e, to nie wymaga SLI!, to nie gry, zresztą nawet w grach wystarczy x8 na pci-e 3.0 w sli - karta musi obsługiwać, ale o grach nie piszmy. Dobór GPU to zależy od preferencji i najważniejsze budżetu. Karty nie muszą być wszystkie jednakowe np: do viewportu może być inna - słabsza, a do renderingu mocniejsze - jeżeli rendering ma iść w tle, bo jak nie w tle to lepiej 3 takie same... Różne są opcje... trzeba to też ocenić, na ile program wspiera takie kombinacje alpejskie. ps. budżetowo najlepiej chyba wypada GTX 750Ti 4GB (tańsza opcja), GTX1060 6GB (pewien kompromis na VRAM vs cena względem GTX1070), obie nie są SLI - akurat zbędne.
  7. materalia odpowiedział woj → na odpowiedź w temacie → Hardware
    Nie licz rdzeni CUDA tylko liczbę SM, bo liczba rdzeni CUDA wywiezie na manowce np: GTX 550Ti ma 192 cores, a GTX 650 Ti ma 768 cores, można by pomyśleć, że GTX 650Ti jest 4x szybszy, a jest mniej więcej taki sam. Może pomóc w ocenie; http://blenchmark.com/gpu-benchmarks ps. imho. zakup GTX 1070 jest zupełnie nieopłacalny, to najgorszy wybór w sumie. ps2. he , ciekawostka, że 2x GTX750Ti dają wydajność GTX1080, tyle gorzej co 4GB, a nie 8GB, ale lepiej mieć więcej kart niż jedną, jedną do pracy z viewportem, a reszta rendering...
  8. materalia odpowiedział woj → na odpowiedź w temacie → Hardware
    Współczynnik wydajność vs cena, wątpię, bo bez OC to i7-5820K jest słaby, a z OC=większy koszt uzyska owe średnie +30% (optymistycznie) więcej względem i7-4790K/6700K w bardzo wybranych operacjach do testów (głównie rendering), bo tak to różnicy nie ma lub jest na odwrót, zwyczajnie mało jest operacji do takiego skalowania w programach. Ta platforma 2011v3 jest fajna jak zakładasz jej rozbudowę o kolejne i7 8c/16t lub Xeony >8c/>16t pod kątem renderingu, wtedy jest drogo, ale po prostu płacimy tutaj za wizje rozbudowy o xx rdzeni, ot co, ale start jest marny na i7-5820k, bez OC to całkiem bez sensu i bardzo drogo, koniec też, jeżeli na i7-5820K ma stanąć. Mówiąc krótko. Moc na 2011v3 zaczyna się dopiero od i7-5960x :), taka jest prawda.
  9. materalia odpowiedział woj → na odpowiedź w temacie → Hardware
    Jak na mój gust to wchodzenie w LGA 2011-3 tylko w celu używania i7-5820K mija się z celem (to jest taki Celeron tej platformy, raczej buduje się z zamiarem wymiany w bliskim okresie na min. 8c/16t), bo to wychodzi drogo, niespecjalnie szybciej (często działa wolniej niż LGA1150/1151), no jeszcze w przypadku 5830K można to usprawiedliwić liniami pci, tylko pytanie do czego takie linie, więcej nie zawsze znaczy od razu jakoś spec. lepiej, bo w GPGPU to kartom wspomagającym rendering wystarczy w zupełności x4, bo to i tak jest ułamek sekundy na transfer do pamięci dla GPU... a w przypadku gier to karty korzystają z mechanizmu SLI/Crossfire, co jest głównym hamulcowym. Zakup dwóch GTX970 to do czego, bo jak do viewportu to kompletnie bez sensu. Do viewportu kupujesz najtańszą stabilną kartę dającą dobry stosunek fps do ceny - przepłacanie 2x dla nawet +20fps w skali 160fps jest bez sensu, tym bardziej, że czym bardziej złożona scena tym mniejsza różnica w fps - praktycznie nieodczuwalna.
  10. iRay nie działa na kartach AMD, bo to CUDA, nie OCL, więc pewnie chodzi o tryb CPU. NVIDIA jeszcze nic nie zrobiła co by działało na czymś innym niż NVIDIA, inaczej kart by nie sprzedawali, taka polityka tej dziadowskiej firmy. Modo, pierwsze słyszę i nie zauważyłem, a testuje w ramach LW, ta na PC i Mac z AMD ?. Oprogramowanie The Foundry działa dobrze. Cinema4D kiedyś miała problemy na kartach NV linii Fermi, ale to nie znaczy, że NV nie nadaje się do Cinema4D. Bzdury pisałbym gdyby jeden przypadek i kilka błędów w sterownikach (whql i beta) rozciągał na wszystko, nawet jak Fermi nadal bywają problemy ze stabilnością C4D. Cinema4D, Lightwave, Maya działają bez problemu. Substance Painter działa na starych kartach AMD (gdzie wyrzuca komunikat program o niekompatybilności, o dziwo), nawet na IntelHD z serii Haswell/Skylake (nie SandyBridge) - karta musi mieć z 1.5GB VRAM!. W przypadku gier, proszę bardzo, nagrany Bug na GTX970 w GTA V. Czy to znaczy, że GTX970 nie nadaje się do GTA V, w życiu bym takich bzdur nie pisał jak tutejsi fanboje NVIDIA :) --- Bajer, stary z 2013 roku test SolidWorks 2013, także to tylko kwestia optymalizacji :) karta za 900$ vs karta za 2250$
  11. materalia odpowiedział wwysocki → na odpowiedź w temacie → Hardware
    Konfig niezły, ale zasilacz lepiej było brać jakiś XFX z serii Pro lub TS (nie musi być modularny) ew. z tańszych SilentiumPC >500W, ten zasilacz to jednak taki średniaczek. Dysk SSD dobre są Iridium Pro od Goodrama na lepszych pamięciach i niedrogo ok. 300 zł. Nie będę wywoływał świetej wojny, ale jeżeli viewport only to wystarczyłby tańszy Radeon RX470 4GB za 900 kilkadziesiąt zeta, a zaoszczedzone kilka stów lepiej było włożyć w i7-6800K. Chłodzenie lepsze byłoby wtedy dwuwiatrakowe np: SilentiumPC Grandis XE1236. To tak dla innych już piszę :).
  12. a jaką to ma baterię i ile trzyma w obciążeniu, bo to pięta achillesowa wszystkich tego typu urządzeń ?
  13. Nie chodzi o słuszność tylko prawdę, także to nie jest kwestia do dyskusji, bo to bardzo poważne sprawy, a w tym przypadku jak czytałem to film ma niewiele wspólnego z ustaleniami komisji ekspertów badających przyczyny katastrofy. No nic, zobaczę to ocenię dalej...
  14. Do oglądania filmów po polsku to znam to trochę język za słabo. 3 lata temu znałem polski tylko trochę z domu, jakoś mi idzie pisanie i słów poznałem więcej, ale gorzej słuchanie filmów, za szybko mówią, za mało słów w pamięci:), a tam, poczekam na napisy żeby odnieść się do treści filmu, ocenić obraz to tam za mało, bo musi współgrać z historią i prawdą, chyba fx jakieś tam są. Nie wiem jakie wątki masz na myśli ?. Dla mnie to shit jeżeli zakłada jakoby rząd Rosji chciał sprzątnąć tamtego prezydenta Polski, to zwyczajnie jakieś kłamstwa i pomylenie pojęć z poplątaniem rzeczywistości, a robić o tym film, na którym pokazuje się obecny prezydent Polski!, ministrowie! itd., czyżby ten obecny prezydent Polski i jego ministrowie tak myśleli, bo jeżeli tak, to muszą mieć bardzo twarde dowody, bo inaczej śmiech i litość, kpina z rzeczywistych ofiar katastrofy, a z tego co czytam to film propaguje zamach i to film czysto propagandowy. Dla mnie takie kłamstwa są nie do przyjęcia w filmie na faktach. http://www.filmweb.pl/film/Smole%C5%84sk-2016-650957
  15. O tam, nie ma co brać wszystkiego na serio :). To jest dopiero shit! http://wiadomosci.onet.pl/warszawa/premiera-smolenska-na-premierze-prezydent-i-czlonkowie-rzadu-pis/l1zgvk
  16. Wiesz, fakt jazdy samochodem nie czyni konstruktorem aut, a tym bardziej wizjonerem motoryzacji, ale skoro tego używasz to jak niby Vulkan mógłby tutaj pomóc w viewport, że jest Spir, sorry, ale nie wiem czy wiesz, że to działa na llvm (notabene słabym do gpu), więc zmiany w strukturze sceny nie raz wymagać będą rekompilacji (nawet nie do kodu maszyny, tylko bajtkodu sterownika), więc cała ta "wydajność" pójdzie w piz...du ?. Skoro jesteś tak zachwycony Vulkanem, to musisz wiedzieć zapewne, że gdyby nie AMD Mantle to jeszcze długo nie byłoby Vulkana, znów AMD górą, a NVIDIA tylko pracuje nad tym jak się odizolować i zakonserwować w Vulkanie :) ps.skończ gościu z tymi wypadami ad personam, bo właśnie piszesz jak dziecko z piaskownicy. https://www.amd.com/en-gb/innovations/software-technologies/radeon-pro-technologies/radeon-prorender https://github.com/GPUOpen-LibrariesAndSDKs/RadeonRays_SDK z eksperymentalnym supportem do Vulkana https://lists.blender.org/pipermail/bf-committers/2016-July/047519.html sponsoring dwóch dodatków, bo społecznicy sami wolą dotować NV, a wcześniej były tam jakieś wstawki do Cyclesa od AMD, chociaż szkoda moim zdaniem na Cyclesa prądu. więc chyba trochę ich interesuje, tylko to mała firma w porównaniu do Intel + NVIDIA, a oprócz GPU konkuruje w dziedzinie CPU, APU, chipsetów itd. Zupełną ciekawostką jest to, że OpenCL for CPU działa dużo wydajniej od AMD na procesorach Intela niż OpenCL for CPU od Intela na procesorach Intela, to jest dopiero zaskoczenie. NVIDIA ma fajny projekt, nazywa się OptiX, szkoda tylko, że jest zamknięty na cztery spusty, działa tylko na kartach NVIDIA, nawet nie rusza na CPU = szok!. Mnóstwo filmowych narzędzi korzysta jednak z OCL. HPC nie włączaj w temat, zresztą AMD nie ma takich mocy produkcyjnych jak Intel żeby zaspokić samotnie HPC..., poza tym nie dotyczy branży filmowej. https://www.top500.org/list/2016/06/ Dwie pierwsze pozycje, a potem już przepaść (przy czym 2 wygaszają Chińczycy), ale gdzie tam są renderfarmy?. 251 poz. WETA i nie ma NVIDIA, nie może być :). Po poz. 1 i 5 można wywnioskować, że Chińczycy mają lepszy procek od Japończyków, od Intela zresztą też...
  17. @SYmek Zamiast bawić w nędznej jakości erystykę to: Ad.1 gdzie napisałem coś co nie jest prawdą odnośnie Lux'a, szczególnie w kontekście Cyclesa ?. Jeżeli wg. Ciebie ktoś używający Luxa jest amatorem, to używający Cyclesa tym bardziej, bo to mniej zaawansowany silnik. Ad.2 to nie ja zacząłem temat gier tylko fanboje zielonych, a że trochę się zdziwili, to inna sprawa, więc teraz odwracanie kota ogonem, bo nie jest tak jak im ktoś wmawiał :) Ad.3 nie widzę potrzeby używania CUDA do pathtracingu, bo od dawna działa to na OCL (od AMD HD4xxx) - pomijając CPU, zarówno bezpłatnie i komercyjnie, choć komercyjnie jest może bardziej dopracowany, ale to nie wpływa akurat na jakość samego renderingu path. Ad.4 po to powstał Vulkan, żeby ułatwić koderom gier dostęp do niskopoziomowych funkcji GPU, ale niektórzy twierdzą, że jak ktoś wykona taką tytaniczną pracę tzn. napiszę od początku viewport programu CAD/3D na Vulkana (bo to zupełnie co innego niż OGL), a będzie to wielokrotnie więcej pracy niż w przypadku OGL, to zyska bóg wie co, a ja w to wątpię, natomiast marketingowy bełkot to jest tylko kit na uszy :) Nie interesuje mnie Pixar, ani Renderman nie leży na mojej liście potrzeb, natomiast projekt Hydra, nie wiem co to ma do rzeczy, po pierwsze wykorzystuje OCL, po drugie, to coś pośredniego (OpenUSD), nie jest związane bezpośrednio z Vulkanem, bo może wspierać dowolny front i back.
  18. Jaki to ma budżet, że tak zapytam z ciekawości ?
  19. materalia odpowiedział marvin365 → na odpowiedź w temacie → Hardware
    Polityka, biznes i marketing korpo, po co produkować jeden model, jak można kilka i skalować cenę do Mhz, kilka razy sprzedać to samo klientowi :). Gdyby nie taka polityka wystarczyłby kilka i7, a jest ich wow 49 w kwotach od 300 do 700 usd :) http://ark.intel.com/products/family/75023/4th-Generation-Intel-Core-i7-Processors#@All Jeżeli wydajność tych Xeonów OC jest 2x wyższa w renderowaniu od i7-6800k to nie ma nawet moim zdaniem dyskusji do 8k, tylko brać dopóki jest razem z gwarancją :)
  20. Braki to sam masz skoro nie wiesz po co powstał Vulkan. To jest świetna sprawa do gier, szczególnie na konsolach, gdzie można wszystko idealnie zoptymalizować pod konkretny hardware - po to powstał!, a dane są już ładnie ułożone, trochę mniej ciekawe dla PC i innych urządzeń ala Android, ale biorąc pod uwagę ograniczoną liczbę sprzętu GPU jest to nadal wykonalne, a znacznie większy wysiłek (nie tylko w ilości kodu, też optymalizacji pod konkretny hard) rekompensują zyski wydajności wynikające z użycia niskopoziomowego API oraz pewna łatwość dokładania nowych fx'ów. Dla aplikacji jedyne korzyści może dać wielowątkowść np: mega wielkich instancji, ale na poziomie używanych obecnie viewportów innych nie dostrzegam, tyle, że to samo można zrobić przez rozszerzenia ARB w OGL4.5 dla tego konkretnego przypadku lub innych przypadków, czy SPIR daje obecnie korzyści względem GLSL w aplikacjach CAD/3D to też wątpię. Natomiast to co piszesz o możliwości zarządzania danymi, fajna sprawa, tylko znów w grach, gdzie dane są wstępnie pięknie ułożone, także może pięknie poukładać w GPU, a nie w aplikacjach gdzie dane ulegają bardzo losowym nieprzewidywalnym w żaden sposób modyfikacją, co na pewno zbije wydajność. Cóż, zobaczymy jak ktoś wykona taki wysiłek w CAD/3D, bo pisania kodu jest wielokrotnie więcej, wtedy ocenimy w praktyce korzyści. Nie wiem tylko czy ktoś się na to porwie :), chociaż może jakieś Unity itp. @HubertP Do mnie piszesz, w jakim celu, bo nic nie napisałeś. Kolejny fanboj który przepłacił za kotleta GTX970 z 3.5GB + 0.5GB, bo posłuchał kolegów, a nie rozumu własnego :)
  21. @Maciek Jutrzenka jakie firmy, Ty podajesz tylko tego bidnego Cyclesa GPU i tyle, a to nie jest ani super dobry, ani nadzwyczaj wydajny silnik renderujący, toż to pospolity Pathtracer z Sobolem, który nie nadaje się do wszystkiego jak każdy taki pathtracer, wystarczy trochę szkiełek, kaustyki i leży jak długi na prostej, kiedy na luxcore mam inne opcje, czasami GPU np: Pathtracer (bias i unbias) + Metropolis, ostatecznie zostaje CPU, bo bardziej zaawansowane metody są kapryśne na GPU, choć na Indigo mniej kapryśne, w końcu za coś się płaci... itd. :). Nie ma idealnego silnika do wszystkiego, także Cyclesem czy ogólnie Pathtracerem wszystkiego nie zrobisz. Słyszałeś o integracji AMD ProRender w Blenderze 2.8 https://lists.blender.org/pipermail/bf-committers/2016-July/047519.html, tak to będzie kolejny silnik dla Blendera, pytanie czy nie wywalą teraz CUDAków ?, najwyższa pora, bo przystosowanie Cyclesa do OCL napotka za dużo przeszkód, bo to stara generacja kodu przygotowywana na GPU NV Fermi i CUDA..., oczywiście sceny (shadery) należy budować inaczej niż na Cyclesa. Zobaczymy co da ProRender w Blender, bo to może być mega hit, bardziej by mnie przekonało do tego softu, jeżeli integracja pójdzie w dobrą stronę :). Ktoś jednak spodziewający się przeniesienia scen z Cyclesa jednym klikiem powinien sobie to wybić z głowy, bo to nigdy nie działało dobrze na żadnym sofcie!. -- NVIDIA chciałaby mieć wiele z technologii jakie posiada AMD, a AMD może tylko CUDA zrobione przez NV, czyli nic takiego czego już nie ma :) np: braku HBM w NV wynika tylko z bardzo kiepskiej konstrukcji GPU NV, co sami przyznali..., a już taki Radeon SSG Pro jest zupełnie poza zasięgiem NVIDIA, a to pierwsza karta GPU która eliminuje problem pamięci, 1TB na GPU, czemu nie ? :). Pamiętaj, że normalny R9/RX mógłby mieć nawet kilkadziesiąt GB z pełną wydajnością w całej przestrzeni. Do tego pamięć działa w hUMA z pełnym zarządzaniem tj. znane MMU z CPU. Kiedy AMD skończy Zen to pokażą takie APU na DDR5X (choć już pokazali pierwsze APU na DDR5 w PS4), że NVIDIA i Intel mogą tylko oblizać się smakiem za taką wydajnością hybrydową, nawet NVlink wersji 5 nic nie da, ale buble będą dalej cisnęli :). Mała firma AMD robi więcej niż obie zebrane do kupy będące dziesiątki razy większe. Tutaj jest takie zaślepione samonakręcające fanbojstwo NVIDIA wciskające ludziom kotlety GTX970. Minusujcie dalej fanboje NV z kółka wzajemniej adoracji :D @Monio Niskopoziomowe API w viewport może coś przyspieszyć lub poprawić w typowych używanych widokach cieniowania, nawet nie sądzę żeby w widoku PBR cokolwiek to dało, kiedy głównym hamulcowym jest sama w sobie aplikacja. Oczywiście można to wszystko przepisać na niskopoziomowe API, tylko czy to da korzyści, bo ja mam wątpliwości, dlatego sądzę, że wysokopoziomowe API pozostanie i będzie nadal wiodące w programach CAD i 3D :). Masz prawo do własnego zdania.
  22. @Monio Ty nie masz zielonego pojęcia. Przewaga(niewielka! zresztą) w DX11 wynika głównie z użycia NVIDIA Gameworksów, które albo wcale nie działają na kartach konkurencji, albo znacznie wolniej.. ot taka to polityka NV, dlatego jest tak nielubiana to firma. DX12 może być podobnie z tymi NVIDIA Gameworksami. Oto kilka porównań dla gier: RX470 4GB, 1440p, karta za 940 zł, najlepszy stosunek wydajności do ceny i przyszłościowa do DX12/Vulkan, OC oraz łączenia 2 kart w Cross. R9 Fury 4GB HBM, 2160p, karta za 1500 zł, znów AMD najlepszy stosunek ceny do wydajności itd., bo to już przedział kart do 4K. Dla niedowiarków 1498zł: http://www.x-kom.pl/p/294781-karta-graficzna-pci-e-sapphire-radeon-r9-fury-4096mb-4096bit.html Do FHD w zupełności wystarczą karty poniżej 800 zł lub mocne APU AMD, a do HD to nawet IntelHD (APU Intela) się już nada lub słabsze APU AMD :) np: R7 360 2GB jest tańszy od GTX750Ti 2GB o prawie jedną stówkę, choć ponoć lepiej brać R7 260X 2GB (wydajniejsza i tańsza od R7 360), a w cenie GTX 750Ti można dostać R7 370 2GB/4GB lub RX 460 2GB/4GB :), a GTX950 nie kupi się tak tanio... Uprawiacie fikcje NVidia. Ta firma może brylować tylko zamkniętymi closed source technologiami wciskanymi w różne programy żeby pokazać swoją nierzeczywistą przewagę, inaczej jej nie mają, tak właśnie z frajerów wyciskają kasę vide szajsowaty kotlet pt. GTX970 za 1500 z 3.5GB + 0.5GB (jeszcze z pół roku temu za tyle niektórzy brali, inni mówili, że dobrze robią hehe), nawet nie ma szans na 8GB, bo ten GPU to zwykły drogi bubel technologiczny i zwolniłby chyba do prędkości ZX Spectrum stronicując pamięć w paczkach kilkudziesiąt bajtowych hehe :D, taka jest prawda. @deshu Zależy czego używasz, jak opierasz się na przereklanmowanym CUDA dostępnym tylko na NV, to możesz używać tylko kart NV, bo NV nie ma w zwyczaju dzielić się z kimkolwiek czymkolwiek, nie licz na wsparcie CUDA gdziekolwiek, nawet jak jest to możliwe, bo NV za to pozwie każdą firmę do sądu..., gdyż na tym polega ich polityka wciskania bubli za dużą kasę. Używam od zawsze tylko pathtracerów OpenCL na GPU (już od HD48xx z 2009), więc takiego problemu nie mam, nawet laptop (tablet) na GPU IntelHD akceleruje mi rendering pathtracingiem, niewiele stoi na przeszkodzie żeby nawet różne Qualcomy itp. również wykonywały taki kod OCL. Blender natomiast bardzo traci w oczach jako soft open source z powodu wspierania tak silnie zamkniętych technologii jak CUDA, bo tym nie powinno zaśmiecać się kodu Blendera, bo NVIDIA nic nie wnosi tylko wynosi. żądasz niemożliwego, nigdy nie będzie CUDA na AMD, bo by się okazało, że działa lepiej niż na NV hehe:) i jeszcze taniej, dlatego NV wyśle armię prawników żeby do tego nie dopuścić, bo to byłby ich koniec, natomiast inicjatywa Boltzman jest tylko kierowana do developerów, a nie użytkowników, w tym problem. Głównym powodem używania CUDA na NV jest kiepskiej jakości OCL od NV. Nie sądzę żeby Cycles był szybszy od Luxa na tej samej cenowo czy nawet wydajnościowo karcie AMD i NV. Bredzicie towarzysze kumotry co zajętości pamięci w liczeniu GPGPU na AMD, kolejne fikszyn fanbojowskie. @Pionier Pathtracer Octane jest only CUDA czyli only karty NVIDIA, jeszcze spec. zoptymalizowany na GTX980. Vray RT potrafi wykorzystać OCL, ale użytkownicy Vray tym raczej nie renderują, Redshita nie znam, only CUDA, OCL w planach... Nuke nie znam wcale, Substance Painter działa na każdym obecnym GPU w sklepie (włącznie z IntelHD, na AMD tak samo jak na NVIDIA, tylko lepiej mieć AMD, bo taniej kupić 8GB, za ok. 1100zł np: RX470:) - program potrzebuje min. 2GB do w miarę wygodnej pracy z bardziej skomplikowanymi modelami, na dzień dobry zabiera 1GB (jak nic nie ma, pusty viewport), nie używam go, kiedyś testowałem, bo ktoś mi tu wciskał kit, że nie ruszy na AMD.
  23. Nie kłam! w żywe oczy fanboju NV, RX 470 4GB na dzień dobry tuż po premierze kosztuje teraz 940 zł, pewnie dobije do 900 zł niebawem, tyle co niedawno R9 380X 4GB, a GTX970 nie kupisz z 8GB, bo takie nie istnieją i nie mogą istnieć w tak przestarzałym układzie, nawet GTX980Ti tyle nie ma (6GB maks.) choć niedawno kosztował ponad 2 tyś, a teraz 2-3 stówki mniej. Gdzie 4GB, a gdzie 8GB, to jest przepaść, nawet jak widać dla kart NVIDIA - znacznie większa niż dla kart AMD (gdzie wystarczy dopłacić tylko 200zł do 8GB). I tak RX 470 ma więcej pamięci niż kotlet GTX970 który obsługuje normalnie 3.5GB + 0.5GB. Nawet tu widać przewagę GPU od AMD, bo może działać na 4, równie dobrze na 8, ten sam rdzeń. Ceny w NV na kotlety obniżyli, bo AMD ma lepsze propozycje. Tyle kosztuje wersja 8GB!, rozumiesz 8, napisz sobie dużymi, bo dopiero GTX1070 ma tyle, czyli dopiero od 2016 roku domowe GPU od NV obsługuje więcej niż 6GB hehe, to co było w domowych AMD R9 290X/R9 390 sprzed 3 lat od 1500 w górę :) https://www.morele.net/karta-graficzna-msi-radeon-rx-470-gaming-x-8gb-gddr5-256-bit-2xdp-2xhdmi-dvi-box-v341-001r-993494/ RX470 4GB, taką porównuj ze swoim kotletem GTX970 za ponad 220 zł droższym obecnie. https://www.morele.net/karta-graficzna-xfx-radeon-rx-470-4gb-gddr5-256-bit-dvi-hdmi-3xdp-box-rx-470p4sfd5-985478/ GTX970, tyle co 8GB wersja RX 470, bez wątpienia do GPGPU RX470 z 8GB jest o całą długość lepszy, niż karta z 3.5GB + 0.5GB. GTX970 niedawno były po 1500, bo znajdowali się frajerzy co je brali za tyle hehe:) https://www.morele.net/karta-graficzna-inno3d-geforce-gtx-970-herculez-x2-4gb-gddr5-256-bit-hdmi-2x-dvi-dp-n97v-1sdn-m5dsx-665540/ GTX1060 nie obsługują łączenia kart haha, jak to NV, krok wprzód, dwa kroki w tył. Praktyk GPGPU się znalazł hehe:) z przepłaconą kartą o 50% nie mająca nawet normalnych 4GB. @maciek Jutrzenka Tobie się wykrzacza na OCL od NV, zacznij używać AMD R9. Myślę, że kreujesz, jak inni oponenci, żeby tylko pohejtować na AMD :). Lux jest od lat wystarczająco użyteczny do nawet profesjonalnych zastosowań, tylko co to znaczy profesjonalnych he. Piszesz bzdury zwyczajnie. @Monio Liczba gier rośnie, za rok będzie 2x tyle, będą to tytuły topowe. DX12/Vulkan jest świeży, ale nie w powijakach. Mantle to jest eksperymentalne API, tak Metal od Apple. Co do wykorzystania w programach to tak jest jak napisałeś, także do programów wystarczy dziś każde GPU od AMD/Intel/NVIDIA. Oczywiście DX12/Vulkan powstał głównie z myślą o grach, bo w programach 3D raczej niewiele da takie niskopoziomowe API. CUDA to może kiedyś podzielić los Glide :)
  24. Dałeś za tego wykastrowanego kotleta z 3.5GB+0.5GB ponad 1500 zł i porównujesz do kart poniżej 1000 zł od AMD, bo możesz porównywać tylko do R9 380X 4GB lub RX 470 4GB lub RX 480 4GB (wszystkie pełne 4GB) - karty 8GB w testach gier przygotowanych na 2/4GB/FHD to bez sensu???, to są karty na poziomie GTX960/GTX970 wydajnościowo i zasobami, ale w cenie tej najtańszej, poniżej 1000 zł, strata nawet powiedzmy kilku klatek w FHD da się przeżyć bardziej niż przepłacanie o nawet 50%. Wkleiłem przykłady w których ten mocno przeceniony kotlet bez panierki GTX 970 OC przegrywa ze znacznie tańszymi kartami za ok. 1000 zł, a Ty mi piszesz o manipulacji. Manipulacji to dokonała NV skoro ktoś dał za kartę o takich parametrach >1500 zł w 2015/16 roku, ale już wtedy to byli frajerzy czesani przez NV :D. Odpowiednikiem cenowym tej karty był i chyba jest R9 390 8GB (NV została zmuszona obniżać ceny z powodu RX) i kto kupił tą kartę raczej nie myśli o wymianie na GTX970 (szczególnie) i raczej RX470 4GB (bo może wersja 8GB i znacznie mniejszy pobór energii może tylko kusić), bo nawet jak wrzuci sobie 4K tekstury i DX12/Vulkan, to się nie zatka, bo ma 8GB i nadal właściwą do tej pamięci wydajność oraz wsparcie sprzętowe nowych API. Większość użytkowników GTX ledwo co kupiła GTX970 to już myśli wymianie na kotleta GTX1060, bo karta praktycznie bardzo szybko się zestarzała..., kolejny bez sensu wybór GTX1060, który równie szybko będzie zdychał, bo to kolejna nieprzyszłościowa karta, gdyż słabo sobie radzi w DX12/Vulkan, a już obecnie jest wiele tytułów używających tego API, a za rok to norma. I co, po raz trzeci kurs do sklepu płacić za to samo od NV, to jest frajerstwo, bo RX przynajmniej względem R9 daje wyższy postęp w DX12/Vulkan i energetyce, a GTX1060 jedynie w końcu obsługuje więcej niż 3.5GB, wow!:) I to sugerowanie, że gry nie działają na Polarsie z miejsca. Działają i to elegancko. Kupujesz Polarisa i korzystasz, czym wyższe parametry ustawisz, tym lepiej, bo to najbardziej wiarygodne testy na przyszłość, jak ktoś kupuje kartę na >2lata, bo FHD to dziś na PC tylko absolutnie minimum, ja najcześciej jak już coś uruchomię to w 1440p lub 2160p - to się nie skaluje prosto!, robię tak już od czasów R9 380X. Porównuje karty NV do AMD, a nie AMD do NV, czyli szukam odpowiednika dla R9 380X lub RX 470 lub R9 390 itd. w stosunku, wydajność, cena, zasoby, najmniej ważna jest dla mnie energetyka, ale też ważne. Natomiast dla Ciebie karty AMD kręcą się w koło shitu GTX 970, w tym sęk, dlatego nie dostrzegasz jak dałeś się naciąć :) jeżeli chodzi o pathtracery to luxrender, a testuje indigo.
  25. Słowo mocno w tym przypadku brzmi cokolwiek śmiesznie :) . Jakby nie patrzeć to RX 480 kopie im tyłki dość mocno. Pomijam sens zakupu zakupu karty RX 480 8GB do gierek, bo najlepszy wybór to jest ta za 999zł, osiągi RX 470 4GB w gierkach prawie takie same jak RX 480 8GB, RX 470 ma lepsze OC (co przekłada się na wydajność TMU/ROP), a cena poniżej 1000 zł dok. 999zł, choć fabrycznie wydajniejszy jest Sapphire RX 470 NITRO+ 4GB:). http://www.agito.pl/karta-graficzna-asus-radeon-rx-470-strix-4gb-gddr5-256-bit-strix-rx470-o4g-gaming/pd/DG0MP2BBM/ https://www.morele.net/karta-graficzna-sapphire-amd-rx-470-nitro-4gb-gddr5-256-bit-dvi-2xhdmi-2xdp-box-11256-01-20g-774722/ Kupowanie RX 480 8GB do gier mija się z celem, a GTX 1060 3GB (3GB ???) to czy nie jest czasami kastrat na wzór GTX 970 ?. Generalnie karty serii Polaris zoptymalizowane są pod DX12 (Mantle) i Vulkana, a to API staje się już standardem, natomiast gierki DX11 będą działać wystarczająco dobrze. Różnice są nie tylko w fps, także konstrukcji gpu. Za rok każda gra będzie optymalizowana na DX12/Vulkan :) Crossfire 2x RX 480 vs GTX1080, to samo dałoby 2x RX 470 4GB za 999 zł :), co dobrze wróży karcie z dual Polaris (dual jest lepsze od cross) @deshu Kupiłeś tego kotleta nvidi do gierek czy gpgpu, bo jeżeli do gierek to przepłaciłeś, gdyż najlepiej kupić PS4, znów AMD itp. :). W przypadku GPGPU ilość pamięci jest kluczowa, lepiej mieć więcej pamięci niż mocy, bo moc nadrobisz łatwo (dokładasz kolejną), a pamięć, jak brakuje pamięci to zostaje zazwyczaj znacznie wolniejsze CPU..., a pierwsza karta NV z 8GB kosztuje obecnie ok. 2200zł, a za to są prawie 2 sztuki RX 480 8GB, które są wyraźnie wydajniejsze w GPGPU. Dla mnie idealna byłaby karta z możliwością rozbudowy VRAM, może być nawet na poziomie tego RX 470, ale niech dadzą rozbudowę VRAM do 32GB :). ===== Jeszcze kilka gierek Hitman, na RX 470 4GB uzyska podobnie jak na RX 480 8GB, znów wydajniej ? The Witcher 3, jak wiadomo korzysta dość mocno z NVIDIA Gameworks, które na AMD działają znacznie wolniej lub wcale. Ja tam na PC w gry nie gram :) Na koniec dodam tylko, że różnice są w granicach błędów statystycznych, więc można uznać karty RX 470 vs RX480 vs GTX1060 i ew. jakieś GTX970 z mocnym OC za porównywalne. Oczywiście w DX12/Vulkan bezsprzecznie wygrywa AMD.

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności