Skocz do zawartości

mrys

Members
  • Liczba zawartości

    900
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    8

Odpowiedzi dodane przez mrys

  1. lepszy będzie droższy. nie ma cudów

     

    A to akurat kwestia dyskusji. I3930k jest lepszy, bo to inna półka wydajnościowa niż FX8350 a nie dlatego, że jest trzykrotnie droższy.

     

    @Traitor: a gdzie widziałeś I7 2600k w cenie zbliżonej do 750 PLN? Bo jak widzę, to jest on w najlepszym ptrzypadku droższy o ok. 400PLN od AMD.

     

    Pod V-rayem akurat FX8350 spisuje się bardzo dobrze (http://www.behardware.com/articles/880-7/amd-fx-8350-review-is-amd-back.html , na poziomie I7 3770K , czasem ciut lepiej) a jeżeli chodzi o Octane to chyba raczej kwestia karty grafiki ma większe znaczenie?

     

    Żeby była jasność: I7 są generalnie lepsze od FX3850 poza zastosowaniami wielowątkowymi, gdzie procesor AMD potrafi pokazać pazury. Cenowo oczywiście AMD rządzi.

  2. Świetne prace. Jak wygląda praca 150 dpi w druku przy takiej wielkości bo właśnie również jestem w trakcie tworzenia pracy o 2 metrach szerokości i metrze wysokości gdzieś miej więcej i no właśnie zastanawiam się czy robić tekstury strasznie gigantyczne żeby ten render przy rozdzielcozści 300 dpi był bez pikselozy czy robić duże i wydrukować to tylko w 150 wystarczy?

     

    W tym wątku: http://www.max3d.pl/forum/showthread.php?t=79855 (post no. 8) jest przykład banera 8,2x3 m. Ostatecznie poszedł do druku w ok. 90 dpi i z bliska też nie było pikselozy - ale to już zależy od techniki druku. Tekstura na samolocie miała bodaj 8192x8192.

     

    A co do obrazu to Camel całkiem fajny.

  3. - nie brał bym takiego ramu ( 10 CL grrrr, skoro chcesz 1600mhz taktowanie to zainwestuj w Timing 9 -8 i kingston to nie jest dobry ram. )

     

    Z ciekawości: jakie znaczenie przy renderingu ma CL 8-9 wobec 10? Bo z moich obserwacji wynika, że żadne. Podobnie częstotliwość 1600 wobec 1866. Cenowo natomiast i owszem. Dlaczego Kingston to nie jest dobry RAM? Bo z moich obserwacji wynika, że, mimo iż to żaden tam "King of the Hill", seria Hyper X daje radę bez najmniejszego problemu - może być toporna przy podkręcaniu, ale podkręcanie RAMU to teraz raczej sport dla sportu. Akurat chyba mam ten sam model pamieci co tu wymieniony, i bez żadnych kombinacji chodzi sobie 1600 MHz przy CL 9 (oficjalnie przy tej czestotliwości ma być CL10, ale jakos tak zostało i chodzi; co nie znaczy, że każdy egzemplarz da radę).

     

    Kingstony mają też opinię pamięci, które się prawie z niczym nie gryzą.

     

    Tu http://maxforces.com/articles.php?article_id=52&rowstart=1 w jednej pozycji jest porównanie różnych pamięci (od 1333 do 2133 MHz i różne CL) w Cinebenchu. Różnice śmiechu warte.

  4. Oczywiscie zaraz ktoś powie ze to niewykonalne bo temperatura otoczenia jest wyzsza ;) i ma racje, ale ja nie wspomniałem ze używam takiego prostego układu chłodzenia :P

     

    To znaczy że co? Używałeś kriochłodzenia? Bo jeżeli nie, to nie uzyskasz w stresie temperatury niższej niż temperatura otoczenia, nawet na WC (w idlu być może urwiesz te 2-3 stopnie). To, co pokazuje RealTemp to jedno a to co jest to inna sprawa. Powszechnie uważany za wiarygodny Core Temp (RT działa tylko na intelach) pokazuje w Idle dla mojego FX 8350 11 stopni a w stresie maksymalnie 40 kilka. Niestety nie są to poprawne wskazania i trzeba do nich dodać co najmniej 10 stopni.

  5. Osobiscie nie spotkalem sie z komunikatem o braku pamieci podczas renderingu w 3dsmax nawet przy ciezkich scenach i maszynach z mala iloscia ramu (1GB)

     

    A co to w takim razie jest "ciężka" scena wg. ciebie?

     

    Poza tym wcale nie musi być tak, że masz teksturę 16GB. Możesz mieć np. 24 tekstury 8192x8192, kilkadziesiąt 4096x4096, kilkadziesiąt 2048x2048 i w końcu ci się nazbiera. Sama geometria, chociaż ona akurat jest najmniejszym problemem, potrafi zająć kilka GB przy NAPRAWDĘ ciężkich scenach.

  6. mrys - cholernie możliwe że przekręciłem coś, co mówił Chris Nichols na jednym z Gnomonowych tutów :) logiczne jest to, co piszesz.

     

    No ja do końca nie wiem, jak z tym jest - w końcu coś mogli wymyślić, dlatego się dopytuję. W Modo nie ma siły - scena się ni emieści w ramie to do widzenia. A komunikat Out of memory zawsze był znacznie bardziej wk....jący niz długi czas renderingu :)

  7. Raczej przyśpieszenie stawiałbym tylko na procesor. Niby ram też jakoś tam wpływa, ale to głównie przez odciążanie dysku twardego - zamiast czytać potrzebne rzeczy (np tekstury) z twardziela, to co się zmieści jest czytane z ramu. Tak samo ram jest zapychany też między innymi przez przeliczanie aa (zależy od sposobu), kiedy ramu braknie idzie to wszystko na twardziela

     

    A to coś się widzę zmieniło w tej kwestii, bo od kiedy pamiętam w momencie gdy tekstury (czy cokolwiek) nie mieściły się w RAMie leciał komunikat "out of memory" i cześć pieśni. Chyba, że w Maxie jest inaczej. Ale trudno mi sobie wyobrazić, jak niby renderer miałby doczytywać teksturę. Bo w takim wypadku teoretycznie na 2GB RAM dałoby się wyrenderować scenę z 64 GB tekstur.

     

    Ram jest tani. 32GB to teraz kwestia 700-800 PLN. Pytanie ile trzeba wydać na tą "lepszą grafikę" o której piszesz, bo może ekonomicznie lepiej iść w kartę i 32 GB RAMU a potem w miarę potrzeb tego RAMu dokupić.

  8. Jezeli uda ci sie cos popsuc wkladajac karte do slotu, to bedzie to pierwszy taki przypadek na swiecie:)

     

    Ja kiedyś na jakimś forum śledziłem wątek, w którym usiłowano pomóc gościowi, któremu się nie uruchamiał nowo zmontowany komputer. Nawet płyta się nie zgłaszała. Ile tam było pomysłów i podpowiedzi. Gdzieś na 8 czy 9 stronie wątku facet nagle zapytał, czy to, że jak montował bebechy, to mu zasilacz wpadł do środka i walnął w płytę mogło mieć znaczenie...

     

    A co do pytań: czy ta karta będzie działała? na 95% tak (5% rezerwuję na rzeczy nieznane filozofom, które się zdarzają); czy jak będziesz podpinał kartę to coś zepsujesz? To możliwe, ale jak napisał Traitor - byłbyś sławny :D

  9. Płyta główna: http://proline.pl/?p=GIGA+GA-970A-UD3.

     

    recenzja: http://www.benchmark.pl/testy_i_recenzje/Gigabyte_970A-UD3_-_test%2C_cena_i_opinie-4393.html

     

    Tu uwaga - płyta jest na chipsecie 970, w tej serii mocniejszy jest chipset 990. Jeżeli ni ezamierzasz łaczyć dwóch kart grafiki w tryb sli to 970 w zupełności wystarczy. Za to płyta ma porządną i zaopatrzoną w radiatory sekcje zasilania - a to bardzo ważne w przypadku FXów (990 z taką sekcją to już ok. 100 zł więcej). U mnie działa bez jakichkolwiek problemów. Płyty Gigabyte mają generalnie bardzo dobra opinię, jezeli chodzi o wsparcie dla procesorów AMD.

     

    Pamięci: http://proline.pl/?p=KHX16C10B1BK2%2F16 . Wspominam o nich, bo u mnie świetnie współpracuja z płyta i procesorem, a podobno czasem zdarzają się jakieś problemy w tej kwestii.

     

    Co do procesora: TYLKO FX 8350 (ew nieco słabszy FX 8320, który się dobrze podkręca do parametrów FX 8350), czyli jadro Piledriver. Absolutnie nie należy brać pod uwagę serii FX 8150 - to znacznie słabszy procesor, gorszy pod każdym względem.

     

    Reszta zakupów to przyzwoity wiatrak (jeżeli chcesz podkręcać zwłaszcza) no i to samo co w przypadku Intela.

     

    Karta grafiki - nie znam żadnych ograniczeń w tej kwestii - karty Nvidii pracują na tej płycie bardzo dobrze (ale bez układu SLI) - ja mam starą GTX 260, ale zbieram na jakiegoś GTX 660.

     

    PS: FX 8350 w 3dMax:

     

    http://www.behardware.com/articles/880-7/amd-fx-8350-review-is-amd-back.html

  10. AMD FX ma słabą (w porównaniu z Intelem) wydajność pojedyńczego rdzenia, ale bardzo dobrą gdy aplikacja wykorzystuje je wszystkie - a te akurat nas interesują najbardziej. Żeby nie było: I7 2600 jest wydajniejszy od FX 8350, ale różnica np. w Cinebench to bodaj jak 7.8 do 6.9.

     

    Powiem tak: mam FX 8350 i pracuje się na nim bardzo komfortowo. W moim przypadku najważniejsze w wymianie bebechów było powiększenie pamięci przy limitowanym budżecie.

     

    Większość testów FXa jakie znajdziesz opiera się głównie na grach, a tam Intel rządzi. Bo przecież kiedy liczba klatek spada do 40 na sekundę to się już nie da grać ;)

  11. Czyli kotlet z mikrofali :/ to pozostaje tylko nadzieja iz bedzie ladnie sie krecil.

     

    Zaletą Haswella może być mniejsze wydzielanie ciepła (mówi się, że ma pracować z TDP ok. 84W) i tu może tkwić jego siła. Przy Ive Bridge problem polegał ponoć na tym, że przy technologii 22 nanometrów powierzchnia jądra była zbyt mała, by efektywnie oddawać temperaturę. Do tego doszła niezbyt szczęśliwa technologia łączenia heatsinka z jadrem.

     

    A tak z ciekawości: @rdawlud nie brałeś pod uwagę AMD FX 8350? Sam ostatnio musiałem zmienić bebechy, bo zabrakło mi RAMu a jechałem jeszcze na DDR2. Fundusze miałem ograniczone i z płyt, procesorem i 32 GB RAM zmieściłem się w 1750 złotych. FX 8350 na duże TDP (chociaż to troche wyolbrzymiony problem), ale akurat w renderingu spisuje się bardzo dobrze. Nie jest oczywiście tak wydajny jak I7 3770, ale różnica nie jest duża (przy stillach IMO pomijalna, przy animacji może już być zauważalna), za to w cenie to ok. 400-500 PLN na korzyść AMD. Kiepsko w porównaniu do Intela wypada w aplikacjach jednowątkowych, ale akurat w 3DMaxie ma dobre osiągi.

  12. A nie myslales poczekac do maja-czerwca ze skladaniem zestawu ? Maja sie pojawic 4770k cenowo beda zapewne w granicach 3770 a wzdajnosc ma wyrosnac o ok.15%. Przekladajac to na lopatologiczna metodologie cinbencha procek bedzie mial ok 9-10pkt + realna szansa na dobre OC.

     

    Sądząc z pierwszych testów wydajność Haswella w stosunku do I7 3770 (przy zbliżonym taktowaniu) jest wyższa nie o 15 a o max. 2-7 %. Oczywiście w wersji produkcyjnej może się to zmienić, ale cudów bym się nie spodziewał.

  13. moim subiektywnym zdaniem kupowanie proca "nie K" jest bez sensu

     

    To zależy od założeń. Między I3770K a I3770 bez K różnica w cenie często sięga ok. 160-200 PLN. Jeżeli budżet jest napięty ma to znaczenie, bo np. zamiast na OC można zainwestować różnicę w dodatkowe 8GB RAM, a to może być znacznie bardziej przydatne, niż podkręcanie. Jeżeli jest pole manewru to oczywiście możliwość podkręcania jest fajna, tyle, ze wzrost wydajności przy OC wcale znowu tak imponujący nie jest.

     

    A tak z ciekawości czemu I7 2600 a nie I7 3770?

  14. Ttaaddeek- Nie wiesz to nie pisz. Ngony były w blenderze do czasu wydania 2.50 i wróciły z wydaniem 2.63 czyli niecały rok temu. Jak ktoś koniecznie potrzebował ngonów to modelował w 2.49 a renderował w nowych wersjach. Ja po prostu na nie poczekałem.

     

    W 2.49 nie było n-gonów. Przyszły dopiero wraz z b-meshem.

  15. @Nezumi, Monio: Ja nikomu nie zabraniam testowania - problem w tym, że oprócz tego przeważnie nie ma nic. Napisał już o tym Mookie na Blenderowni chyba. Cytując z pamięci (może słowa nieco inne ale sens był taki) "to nawet nie są testy, bo testy prowadzą do czegoś, są po coś. A tu prowadzą tylko do kolejnych testów".

     

    Tak, jest zbyt mało konkretnych prac w Blenderze. Niekoniecznie wybitnych ale zwyczajnie skończonych. I, Nezumi - Blender to nie tylko animacja i szorty. Stawiając się w pozycji człowieka, który zastanawia się, czy warto np. przesiąść się na Blendera z komercyjnego softu musiałbym powiedzieć że nie warto, bo przecież "tak niewiele w nim można zrobić". Dla promocji softu nie mają znaczenia programistyczne arcydzieła w kodzie, tylko konkretny efekt w postaci jakiejś dobrej pracy. A tych jest niewiele, stąd niesprawiedliwa często ocena możliwości Blendera.

     

    Tak, chciałbym, żeby więcej profesjonalistów używało Blendera do pracy. A to dlatego, że zyskałaby na tym i Fundacja Blendera (im więcej użytkowników tym większe wpływy z donacji) i sam Blender, bo może to właśnie użytkownicy wymuszaliby na developerach konkretne kierunki rozwoju. No i może rzeczywiście taki Autodesk musiałby zjechać trochę w dół z absurdalnymi cenami.

     

    Wspomniałeś dziadka3d... Czasem mnie drażni, ale coraz częściej z przerażeniem stwierdzam, ze ma sporo racji. Nie zauważyliście, że od pewnego czasu fascynacja możliwościami oprogramowania zupełnie nie idzie w parze z koncepcją ich kreatywnego wykorzystania? Że coraz więcej prac przypomina bardziej rozbudowane testy niż jest jakimś przekazem. Ale akurat ostatni akapit to wyraz tego, że się starzeję i coraz mniej rozumiem świat w którym artystą można nazwać równocześnie Pata Metheny'ego i Dodę.

  16. Swoją drogą.... Czym mierzyliście temperatury? Bo na cztery programy każdy pokazuje co innego, a różnice sięgają nawet 10oC (CoreTemp vs Easy Tune 6)

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności