Jump to content
Sign in to follow this  
smk91

Komputer do nauki

Recommended Posts

Cześć, zwracam się do Was z prośbą o pomoc w dobraniu podzespołów do komputera.

Chciałbym złożyć coś w miarę konkretnego głównie do modelowania, renderingu(vray,corona).

Pierwszym moim pytaniem jest to czy w przypadku początkującego jest sens inwestowania w Ryzen7 3700x czy w zupełności wystarczy r7 2700x.

Drugie pytanie odnośnie płyty głównej, chciałem kupić którąś z x570, nie wiem tylko czy też potrzebuje płyty w okolicach 700-800 zł czy równie dobrze będzie wszystko grało na tańszej płycie.

Chciałbym zamknąć się ze wszystkim w kwocie do 5000zł. W przypadku początkującego jest to chyba wystarczający budżet ?

 

Osobiście wyszło mi coś takiego :

Ryzen 7 3700x/2700x

GTX 1660 ti

MSI X470 gaming pro/ X570 gaming plus (między jedną a drugą jest 100 zł różnicy)

Pamięć hyperX Fury, 16gb, 2400mhz, CL15, ewentualnie gdybym znalazł tańszą płytę to dołożyłbym do 32gb.

Zasilacz silentiumPC Vero M2 Bronze 600W

 

Chciałbym to zamówić na dniach, z góry dziękuje każdemu za porady ;) 

Pozdro :) 

Share this post


Link to post
Share on other sites

troche problematyczna sprawa. Bo jak chcesz się skupić na modelingu... to ja bym szedł w Blendera + 6 rdzeniowy procesk ryzen 5 3600 i tyle. do tego 32 giga ramu. i dobra karta graficzna i rendering w eevee lub cycles na GPU.

natomiast jak chcesz się bawić w CPU rendering to... no brałbym ryzena 12 rdzeniowego. i do tego karta graficzna jaka tam uda się... zrobiłem taki build zakładając CPU.

 

Zrzut ekranu z 2019-08-28 14-45-02.png

Share this post


Link to post
Share on other sites
Posted (edited)

Ja bym w ogóle nie szedł w ryzena 3000 w twoim wypadku. Lepiej kupić ryzena 2700 albo nawet 1700 i zrobić małe OC. Ryzena 1700 z płytą można dostać za około 1100zł (płyta + CPU) Albo jak kolega wyżej napisał bierz Ryzena 3600 + x570. Chociaż np. w moim przypadku 6 rdzeni to za mało do tego co robię (zbrush, renderowanie video itd.) i cenowo wychodzi o wiele więcej 750zł mobo + 900zł cpu.

Skupiłbym się na lepszej karcie graficznej chyba, jeżeli chodzi o renderowanie to GPU jest mocne i kosi CPU. Dlaczego chcesz renderować na CPU?

Potrzebujesz też 32gb ram, sam Photoshop mi czasami zjada 16gb+ ram :D

Druga sprawa, karty graficzne od Nvidii zwłaszcza seria RTX, dostaje różnego rodzaju ciekawe zastosowanie w różnych aplikacjach (np. blender ma denoisera od nvidii, oraz renderowanie w cycles dostaje boosta w czasie renderowania dzięki kartom RTX, czasami do 100% zwiększona wydajność) w Substance Designerze/Painterze możesz dosłownie w 1s wypalić Ambient Occlusion Map dzięki technologi ray tracing (karty RTX) i pewnie wiele innych zastosowań. CUDA też jest od nvidii...  Ogólnie "pro" zasosowanie to karty RTX/GTX.

Przemyśl sprawę :)

 

Edited by brain

Share this post


Link to post
Share on other sites

@brain kilka spraw pomieszałeś 😄 jeśli chodzi o blendera.. to.. blender nie posiada denoisera od nvidi.. bo na to niepozwala licencja... posiada ond dw denoisery jeden jest blenderowy a drugi od intela... ob denoisery są działają na każdy każdym sprzęcie. co do RTX'ów... officialnego builda czy nawet experymentalnego builda który wspierał by rdzenie RT, po przez biblioteke optix niema... Jest path od nvidi razem z buildem. który wspiera RT rdzenie... i jest tam jakiś boost na zasadzie 20-35% szybciej scena się renderuje...

Co do Cudy... to nie wykorzystuje ona w ogóle rdzeni RT. żeby móc z nich korzystać trzeba pisać w Optix'ie... a tego nie robi prawie nikt. po za pathem do blendera od nvidi.. i Beta versją redshifta która w wielu przypadkach działa wolniej niż ich wersja CUDA bez rdzeni RT...

z tego co gadałem z niektórymi developerami, akurat to był developer Rendermana który pracuje nad RM GPU.. aka XPU jeśli dobrze pamiętam. to powiedział że teraz boost jest mały... i prawdziwy boost będzie z drugą generacją tych kart.. wtedy będzie prawdziwa magia.

Share this post


Link to post
Share on other sites
Posted (edited)

Dziwne, myslalem że to jest od nvidii, nie jest? Może się pomyliłem coś, ale wspomniał o Nvidia's Optix,

 

 

 

A co do boosta do czasu renderowania to jest dość spory, jak dużo renderujesz.

cycles-rtx-performance-1.png?x10499

Edited by brain

Share this post


Link to post
Share on other sites
Posted (edited)

Pavillon barcelona to bardzo specyficzna scenka i tam akurat traceing akcelerowany hardwareowo dużo daje ale tak to jak sam widzisz w większości przypadków jest to boost na poziomie 20-40%..

Co jest istotne w Cyclesie.. na CUDA. threadripper 32 rdzeniowy jest szybszy od RTX 2080ti... a następny TR gen 3.. z pierwszych przecieków przez benche w wersji 32 rdzeniowej jest dwa razy wydajniejszy na windowsie! od linuxowej wersji gen 2.... i już AMD powiedziało że gen 3 będzie kosztować tyle samo co gen2. może tam z 50$ więcej.. Tak więc zaraz nowy TR będzie dwa razy szybszy od RTX 2080ti za te same pieniadze co GPU.  Teraz tylko czekać na odpowiedź nvidi.

co do denoisera no tam andrew wspominał że są dwie grupy denoiserów.. jedne które opierają się na clever filtrach i aov. a drugie to oparte na deep learningu i w tej grupie jest optix. oraz intel open denoiser.. no i blender ma intela.

Edited by Maciek Jutrzenka

Share this post


Link to post
Share on other sites
Posted (edited)

No ja czekam na najnowsze karty nvidii właśnie, zobaczymy co zrobią z technologią Ray tracing bo widać, że coraz większe zastosowanie ma.

Co do najnowszych TR, będą mega mocne, ale mój problem jest taki, że ja używam bardzo dużo GPU do renderowania w blenderze (mam 2 gpu) ale też dużo w Unity renderuje scenek (rendery modeli do gier/scen pod portfolio w bardzo dużej rozdziałce) i dla mnie mocne GPU to podstawa. TR są mega mocne jak ktoś tylko renderuje na CPU i ogólnie mało używa GPU - chyba że kogoś stać na jakieś wombo combo 2x RTX 2080Ti + najnowszy TR żeby renderować np. video + renderować sobie jeszcze jakąś scenke w 3d i do tego grać w grę. :D

Ogólnie ciężki temat bo za rok będzie na prawdę ciekawie: Nvidia wydaje nowe karty (podobno 7nm), AMD wydaje ostatnie ryzeny (osatnie pod mobo AM4) w których na pewno poprawią parę rzeczy i zwiększą dalej IPC (może dogonią intela w końcu w single core i uda się osiągnąć te 5ghz!), Intel wydaje swoje GPU... ogólnie za 2 lata znów może być mega skok wydajności bo AMD wydaje kolejne jeszcze bardziej ulepszone 7nm (albo jeszcze mniejsze)...

Intel ogólnie nie ma odpowiedzi na AMD :D Jestem ciekawy co zrobi intel przy takiej konkurencji. Intel w sumie jest daleko w tyle bo AMD teraz sobie ulepsza technologię 7nm a intel dalej cisnie 14nm, już wyciągneli chyba wszystko co się dało przy 9900k.

Edited by brain

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

×
×
  • Create New...

Important Information

We are using cookies. Read about our Privacy Policy