Skocz do zawartości

Rekomendowane odpowiedzi

Napisano

Witajcie.

Muszę zmienić komputer bo to co mam to już nie wyrabia.

I takie skompletowałem podzespoły:

CPU - Core 2 Quad 2,44

Płyta - Asus Commando

Ram - 2x 1GB kongston 800Mhz Cl5

GPU - Asus GF 8800 GTS 640MB DDR3 PCI - E BOX

 

całość jakieś 4300zł + obudowa i zasilacz szacuje - 5300zł.

 

Pracuje w Maxie, renderuje w Vreyu i komp jest mi potrzebny do pracy.

 

Co myślicie o takim ustawieniu i co ewentualnie byście zmienili?

  • Odpowiedzi 82
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

Napisano

Co do procesora się nie wypowiadam, nie wiem jaki przyrost wydajności niosą kolejne 2 rdzenie i jak wygląda sprawa pełnego ich wykorzystania.

Co do grafiki, odradzałbym jednak pakowania niepotrzebnie kasy w wersję z 640MB na pokładzie, bo tego praktycznie nie odczujesz. Ważniejsza jest szyna na jakiej karta pracuje, a wszystkie GF 8800GTS pracują już na 320bitowej, stąd myślę, że możesz spokojnie zaoszczędzić i kupić wersję 320MB.

 

Z wyborem płyty głównej. Ja już głupi jestem. Jedni chwalą ASUS'y, inni krytykują, szczególnie Commando. Niech ktoś inny się wypowie;)

Napisano

Właśnie wśród mnogości tego całego sprzętu można się pogubić. Znalazłem też taką konfigurację tym razem stacji graficznej:

 

 

Procesory: 2 x Intel® Xeon™ 3,2 GHz /FSB 800, 2 MB cache/

Chipset: Intel® E7525 (FSB800, maks. 8 GB RAM)

Pamięć RAM: 2 GB ECC (2x1 GB)

Grafika PCI-Express: QuadroFX 550 128MB

Napęd optyczny: DVD 16x

Obudowa: Tower z opcją konwersji do 5U (450W)

System operacyjny: MS Windows Vista Home Basic PL

 

Co do takich stacji to nie mam w ogóle pojęcia jak to ma przełożenie na pracę. Jak sprawują sie takie xeony i jakie jest mniej więcej porównanie zestawu którego wypisałem wyżej.

Z tym ze ten zestaw już kosztował by 7356.6 PLN. a 2 tyś piechotą nie chodzi :)

Napisano

Dwa Xeony i Quadro też piechotą nie chodzą;) Xeony to kombajny i wyższa szkoła jazdy także w kwestii innych komponentów, gdzie na przykład zdaje się, że pamięci muszą mieć korekcję błędów (ECC), no i specjalna płyta, która 2 Xeony obsłuży;) Gdzie wynalazłeś taki sprzęt w takiej cenie?

Napisano

zmieniłbym na:

1) pamięć HyperX CLK4 LowLatency albo UltraLowLatency CLK3

2) 2 rdzenie (2,4 GHz) a nie 4 (podobno mogą nawet zwolnić w pewnych przypadkach w MAX - jest pełno testów w necie)

3) zaoszczędzoną kasę z 4 rdzeni dołożyłbym do

Quadro FX przynajmniej 1500 i podkręcić (ja mam 560 - odradzam)

Napisano

Jezeli chodzi o grafike zdecydowanie odradzam pakowanie sie w Quadro, a zostanie przy GF8800GTS 320MB. Pracowalem jakis czas na quadro 1500 oraz quadro 3000 i jezeli mam fizycznie porownywac do aktualnego GF8800GTS to roznica w wydajnosci jest KOLOSALNA na kozysc GF8800.

Napisano

Touch - taką konfigurację zrobiłem tutaj http://www.ideal.pl/

evarcha - dzięki za rady.

Sęk w tym że albo odprzedam swoją nerkę i kupie opcje z xeonem albo bez uszczerbku na zdrowiu kupie opcje pierwszą :) Zastanawia mnie czy jest duża różnica wydajności między tymi opcjami a jeśli nieduża to czy warto żyć bez nerki:)

Bo na przykład, Quadro fx jest świetną kartą pod aplikacje 3D ale karta grafiki odpowiedzialna jest za vewporty. Nie jestem przekonany do tego czy potrzebne jest mi generowanie cieni w czasie rzeczywistym, czy wyświetlanie świateł tak jak one świecą, co dają właśnie Quadra. A z gęstością siatek i wyświetlaniem tekstur taka GTS sobie chyba poradzi.

Napisano

Zastanówcie czy w ogóle jest sens pakować się w Xeony i Quadro. To jest sprzęt kierowany do firm, które mogą sobie pozwolić na konkretny wydatek bo zwraca się im w ciągu 2 dni a te 10% więcej wydajości ma znaczenie gdy godzina pracy wykwalifikowanego pracownika liczy się w setkach dolarów.

Kupując sobie taki sprzęt do domu czy do małej firmy nawet to chyba tylko po to żeby się kolegom pochwalić.

Napisano

Nie do końca masz rację - 1084. Dzisiaj czas to pieniądz. Jak do Ciebie przyjdzie załóżmy architekt i powie że ma dla Ciebie extra zlecenie ale na następny dzień chce dostać wizualizacje a Ty mu powiesz że niestety ale zabrać się za to możesz dopiero jutro bo renderuje Ci się inna wizka i będzie jeszcze mielić przez całą noc to ten pan architekt ciebie oleje i pójdzie do firmy która nie ma problemu z komputerem.

To jest że tak powiem inwestycja która ma się zwrócić.

Napisano
zmieniłbym na:

1) pamięć HyperX CLK4 LowLatency albo UltraLowLatency CLK3

2) 2 rdzenie (2,4 GHz) a nie 4 (podobno mogą nawet zwolnić w pewnych przypadkach w MAX - jest pełno testów w necie)

3) zaoszczędzoną kasę z 4 rdzeni dołożyłbym do

Quadro FX przynajmniej 1500 i podkręcić (ja mam 560 - odradzam)

 

ad.2 popatrz na benchmarki na forum chaosgroup. quad 2.9 bigleba renderuje w 2 godziny to co mój p4 3.0 w dwa dni.

ad.3 poczytaj na cgtalk wątki w których ci którzy nabyli quadro opowiadają o swoim wielkim rozczarowaniu niewielkim przyrostem mocy najwyższych modeli quadro względem najwyższych modeli gforce. jeszcze ciekawsze są wypowiedzi tych którzy przesiedli się z najwyższych modeli gforce na średnie modele quadro.

Napisano
Nie do końca masz rację - 1084. Dzisiaj czas to pieniądz. Jak do Ciebie przyjdzie załóżmy architekt i powie że ma dla Ciebie extra zlecenie ale na następny dzień chce dostać wizualizacje a Ty mu powiesz że niestety ale zabrać się za to możesz dopiero jutro bo renderuje Ci się inna wizka i będzie jeszcze mielić przez całą noc to ten pan architekt ciebie oleje i pójdzie do firmy która nie ma problemu z komputerem.

To jest że tak powiem inwestycja która ma się zwrócić.

 

Ej nie mowimy o różnicy 100% tylko 10%. W wielkiej firmie gdzie pracuje 100 takich kompów to może mieć znaczenie ale w domu lepiej sobie kupić lepszą drukarkę a kompa podkręcić (czego nie zrobisz w przypadku Xeona) i mieć zbliżoną wydajność.

Napisano

Chyba nie wiem o co Ci chodzi....jesteś przeciwny w ogóle targaniu się na sprzęt typu quadro i xeony ? :

 

Zastanówcie czy w ogóle jest sens pakować się w Xeony i Quadro.

 

czy, podważasz sens wyboru między quadro a xeonami ?:

 

.....kompa podkręcić (czego nie zrobisz w przypadku Xeona) i mieć zbliżoną wydajność

 

Obecnie pracuje na P4 3GHz i meczy mnie strata czasu czekając na próbkę renderu, nie wspominając o ostatecznym rezultacie.

 

Chciałbym się dowiedzieć czy te opcje które wypisałem na początku wątku mają dużą różnicę w wydajności. Bo jeśli diametralną, to jest już nad czym się zastanawiać. Co byście mi doradzili?

Napisano

P4 3Ghz to niezły padak. Mamy w firmie taki jeden i jest 3x wolniejszy od C2D podkręconego na 2.8Ghz. Nowe Xeony to juz zupełnie nowa technologia, zbliżona wydajnością bardziej do C2D.

Chodzi mi o to że taki Xeon kosztuje z 3tys. a C2D możesz mieć za 450 zeta i elegancko podkręcić.

Tak samo z Quadro. GF kosztuje 1500 a odpowiadająca mu Quadro -6000.

 

Do tego nie złożysz tego na zwykłej płycie za 400, tylko potrzebujesz Tyan'a za 2000.

 

W efekcie złożysz sobie stację roboczą za 12000 o wydajności 10-20% większej od kompa za 4000.

 

Oczywiście przesiadając się z padaka poczujesz ogromną różnicę.

 

IMO zestaw z C2D, który złożyłeś na poczatku spokojnie wystarczy. Tylko zamiast GF'a brałbym Radeona 2900XT bo Radki maja lepszą obsluge OpenGL.

Napisano
zamiast GF'a brałbym Radeona 2900XT bo Radki maja lepszą obsluge OpenGL.
Fajnie, ale oprócz niewielkiej liczby przypadków OpenGL jest tym "gorszym" driverem do maxa.
Napisano

bielsko/kraków? rozumiem bielszczanin na emigracji w krakowie , tak jak ja :)

 

co do zestawu to dlaczego az 1000zl przeznaczasz na obudowe+zasilacz

ja teraz zmienialem sprzet i wzialem

http://www.apollo.pl/store/show_detail/7/21096

jestem z niej bardzo zadowolony, zasilacza jest bardzo cichy, obudowa bardzo funkcjonalna, praktycznie wszystko na zatrzaski, szufladki a 400W starcza z spokojnie [pentium D 2,8/2gb ram/7600gt]

Tobie proponuje wersje z mocniejszym zasilaczem

Napisano

Jeszcze raz podkresle, ku przestrodze to co napisal kolega wyzej. Jezeli nie chcesz sie rozczarowac "cudownym" quadro kup GF8800GTS. Nie zawiedziesz sie jej moca w maxie.

Napisano

Dzięki wszystkim za pomoc.

Chyba jednak wybiorę opcję pierwszą, chociaż sprawdziłem to co mi napisał evarcha i rzeczywiście 4 rdzenie nie wypadają jakoś rewelacyjnie przy np. maxie. Ale pisze w tych testach że to kwestia programów obsługujących te procesory więc pewien jestem że kolejne wersje maxa będą wyciskać z quada to co mu tam intel naładował.

GPU to chyba skłaniam się do zdania Traitora, i kupie GTSa.

Kedzior - fajnie spotkać, tu na forum, kogoś ze swojego miasta. Serdecznie pozdrawiam.

 

Co do zasilania to znalazłem coś takiego: http://www.komputronik.pl/Zasilacze_do_obudow/ATX_high_end/OCZ/Zasilacz_OCZ_GameXStream_600W_SLI/pelny,id,37214/

 

Jak mnie kiedyś ruszy fantazja, i nie będę miał co robić z kasą to może i dokupię 2gie GPU i wtedy będzie jak ulał.

Napisano

Kup wiec na razie dwurdzeniowego, a jak sie pojawia wersja maxa w pelni wykorzystujaca mozliwosci quada, wtedy sie przesiadz. Zaoszczedzisz pare $, ktore proponowalbym przeznaczyc na jakis szybki dysk np WD Raptor;) pozdrawiam

Napisano

sprawdz jeszcze dokładnie różnice w Quadro a GeForce znajdziesz w necie informację TU NIE CHODZI TYLKO O WYDAJNOŚĆ !!! (to ci co myślą bardziej o graniu) Quadro ma istotne funkcje do pracy w Viewportach których nie ma zaden GeForce - nie pamietam już dokładnie ile tego jest podam ci jeden przykład: nakładanie na cieniowany obiekt siatki lub vertexów z niewidocznych stron obiektu itp. podczas pracy są to bardzo istotne funkcje - ja pracuje od dawna w MAX i INVENTOR bez tego nie wyobrazam sobie pracy.

 

Powodzenia

Napisano
Kup wiec na razie dwurdzeniowego, a jak sie pojawia wersja maxa w pelni wykorzystujaca mozliwosci quada

Co za bzdura!!!... jezeli nie macie pojecia o quadach, nie widzieliscie ich na oczy i slyszeliscie, ze chodza tak czy siak, to lepiej zachowajcie to dla siebie.

Napisano
Co za bzdura!!!... jezeli nie macie pojecia o quadach, nie widzieliscie ich na oczy i slyszeliscie, ze chodza tak czy siak, to lepiej zachowajcie to dla siebie.

 

cytat z forum chaosgroup:

 

Had some time to burn this morning while rendering, so here are some results from the tests so far:

weightedcpu.jpg

weightedprice.jpg

renderfarm.jpg

 

first table lists according performance, second one lists according weighted cpuprice and last one sorted according renderfarm oppertunity...

 

a bit more detail on this :

- dual CPU setups require 2 cpu's and a more expensive mainboard

- the rest of the parts (2gb memory, HD, basic MB, case, video card) to make a working renderslave is estimated at 700€

- these prices are most certainly not the cheapest you can get, but they all come from the same vendor, so their relative value is kept intact...

- the "renderfarm value" takes into account the number of systems you would need to achieve the same performance as a dual xeon 5355. it uses the performance multiplier to calculate the rough investment needed.

f.e. you would need 9 P4 3.2ghz systems to equal a single dual xeon 5355 system...

Napisano

zresztą - pomyślcie chwile

dzisiaj kupujesz Core2Duo 6600 za 800zł, a Quad za 2000 - za rok kupisz Quad za 800 zł i wszadzisz w tę samą płyte = czyli masz dwa procesory za 1600 zł - to chyba proste (jeszcze odzyskasz kasę za duo na bronx)

Napisano

Intel będzie podnosił szynę i zmniejszał procki zeby w ostateczności zmieścić 8 rdzeni w przyszłości, już są nowe płyty obsługujace DDR3 i szynę 1333, lepiej zainwestować w taką płytę niż teraz przepłacać za Quad, którego niedługo zastąpi nowy Yorkfield (polityka intela jest jasna - ubijanie gruntu pod przyszłe CPU - a płacą za to ci którzy kupią ich procesory w momencie kiedy są najdroższe) wystarczy zawsze być te 6-8 miechów za czołówką a masz to za połowe ceny - i tak kiedyś zmienisz tego Quada na Ósemaka żecz w tym żeby nie być frajerem i nie przepłacać, bo Duo mozesz podkręcić na dobrej płycie nawet do 4GHz i rok wytrzyma a dogoni quada, kasę zaoszczędzoną na Quadro przeznaczyć bo też sie podkręci (i to ładnie - mam podkręconego FX 560 z 350MHz na 550MHz i w stresie 60-65 C przy nowym chłodzeniu Revolteka za 60zł) i MAXTreme wchodzi a funkcji z Quadro na GeForce nie masz

 

(z intela)

Rodzina chipsetów Intela o kodowej nazwie Bearlake, której premiery spodziewamy sie w czerwcu, będzi słuzyć przez najblizszy rok. PóĽniej, w II kwartale 2008 roku, zast±pi j± kolejny chipset, o kodowej nazwie Eaglelake. Chipset przeznaczony jest do 45-nanometrowych procesorów Wolfdale (dual core) i czterordzeniowych Yorkfieldów, z 1333-megahercowa szyn± FSB. Będzie również obsługiwał pamięci DDR3-1333.

Napisano

evarcha i tu masz chyba rację. Może lepiej kupić dobrej klasy Duo i go podkręcić a za to zainwestować w najnowszą płytę co to ma przyszłościowe opcje.

 

Poza tym w różnych testach czytałem o podkręcaniu Quada i nie wypada on najlepiej.

 

A na jakich Wy pracujecie kompach? I jak się one spisują przy np renderowaniu?

Napisano

jesli dużo renderujesz (ciezkich scen) to zapoznaj sie z Backburner dodawany do MAX, proste rozwiązanie...

Musisz mieć dwa kompy:

FIRST. Mocne CPU i GPU do modelowania i ew. compositingu

SECOND. Mocny tylko CPU do samego renderingu (legalnie to chyba wymaga drugiej licencji na 3ds max - ale tego nie wiem)

poprzez Backburner zlecasz renderowanie do tego drugiego, a na pierwszym dalej modelujesz itp. i tak to się robi...

Zapewniam cię że nie każde studio 3d wydaje kupe kasy na Xeony a już na pewno nie co rok czy dwa lata (tym bardziej że najczęściej polega to na systemie freelancer i jego sprzęcie) oni udostepniają tylko swoje stacje renderingowe, podejrzewam ze wiecej xeonów znajdziesz w Onecie lub Apache - oni z kolei mażą o Itanium tak jak my o xeonie.

Kto wie dlaczego Xeon jest taki dobry? może wcale nie różni się od Core?

tak jak GeForce od Quadro??? ale co konkretnie ma lepsze???

mój znajomy z dużej serwerowni mówi że różnią się tylko bezpieczeństwem, tym że Xony mają dodatkową korekcję błędów (podobnie jak pamięci z ECC i bez ECC) i są wycinane ze środka wafla bo im dalej od środka wafla tym kryształy są bardziej nieregularne ????, przecież gdyby xeony miały jakieś super instrukcje dla programów 3d to wypisywali by je wołami na pudełku i w reklamach a pisza tylko o SSE które zawsze w xeonie jest w tyle za Core????

 

MyComp:

H) Duo 2,4 GHz / Quadro FX 560 (OC na 550MHz) / HyperX 2GB, 800MHz, 3CL

S) XP64 EN Corporate / MAX 9 + Production Booster + MAXTreme / Inventor / Rhinoceros / Combustion4

 

zadko renderuje całe sceny w MAX raczej wszystko składa się w Combustion ponieważ tam jest jeszcze mozliwość dodanie większej ilosci efektów i korekcji kolorów (COMPOSITING), statyczne sceny też.

Tak jak w Photoshopie na warstwach masz poszparowane elementy całego projektu.

Napisano

Evarcha: A widziales ile lat ma ten artykul o quadro?:) Wiele z tych opisow jest poprostu przestarzala. Np wygladzanie linii. Poczytaj sobie o tym co oferuje nakladka na maxa w postaci http://www.redway3d.com/ jezeli juz ktos az tak bardzo upiera sie przy upiekszaniu wiuportow.

 

I druga sprawa, czy miales osobiscie porownanie fizyczne nowych mocnych kart GF do Quadro przy pracy w maxie, czy pracujesz poprostu od wiekow na quadro i czytasz tylko to co pisze producent na swojej stronie?:)

Napisano

TRAITOR

no nie myslisz chyba że NVidia robi tylko róznicę w nazwie pomiędzy tymi sprzętami, przecież kupują to powazne firmy (Pixar, Disney, ILM itp) które mogłyby zmieść z powierzchni ziemi nVidie za takie oszustwo.

 

Mógłyś zarobić miliony dolarów gdybyś zdemaskował oszusta.

 

Możesz mieć to wszystko w GeForce ale nie sprzętowo i tu się nic nie zmieniło.

MAX dopiero od wersji 8 (chyba) idzię w stronę DirectX, wczesniej tylko Quadro na OpenGL z MAXTreme dawały pełną moc MAXa,

uwież mi nie jestem wyznawcą Quadro - jak wcześniej pisałem frajerem też nie

Za moje Quadro - FX560 (1300 zł) wydajność porównywana chyba do GeForce 7600 (wtedy za 550 zł), po podkręceniu Quadro był na poziomie GeF 7600 ale GTS (za podobną cenę co Quadro).

 

A ty masz porównanie z Quadro???

Napisano

Tak jak pisalem, uzywalem ponad dwa lata quadro fx1500 i 3000, teraz uzywam gf8800gts i widze potezna roznice wydajnosciowa. Mnie to dziwi, ze ludzie wola wydawac kase na karty sygnowane jako profesjonalne skoro za 1000zl mozna kupic fajnie dzialajacego zwyklego geforca. To, ze uzywa ich pixar czy inny moloch akurat do mnie nie przemawia:) A nich uzywaja, pewnie maja z tego jakis zysk, na aplikacjach ktore sobie sami pisza. Tutaj skupmy sie bardziej na uzytkowaniu jednostkowym, dla zwyklego usera. W takim wypadku nadal obstaje przy tym, ze kolega bedzie mial wiecej zadowolenia niz z hiendowej karty ktroa w maxie chodzi jak chodzi. Ja w niej rewelacji nie odnalazlem a co wiecej bylem zaskoczony brakiem mocy. No ale luz, to juz kolega podejmie decyzje co zamierza kupic:) Nie bede sie wiecej sprzeczal:)

Napisano

Ja nie upieram się przy Quadro bo faktycznie nie mam porównania z GeF nowszej generacji, bardziej pisałem o CPU.

 

Tyle ze GeF 8xxx można porównywać dopiero do QFX 4600 (z DX10)

a nie do QFX 1500 czy 3000 - prawda?

 

a jesli chodzi o kasę to na Allegro masz Quadro FX 3500 za 1500zł z mięsięczna gwaranacją rozruchową, a FX 560 teraz za 300zł - więc mozna sobie potestowac.

 

Ale pytanie dalej pozostaje bez odpowiedzi 100%

czy nVidia robi nas w balona???

Napisano
Ale pytanie dalej pozostaje bez odpowiedzi 100%

czy nVidia robi nas w balona???

 

tak. dowód to poniższa wypowiedź :)

 

TRAITOR

no nie myslisz chyba że NVidia robi tylko róznicę w nazwie pomiędzy tymi sprzętami, przecież kupują to powazne firmy (Pixar, Disney, ILM itp) które mogłyby zmieść z powierzchni ziemi nVidie za takie oszustwo.

 

Mógłyś zarobić miliony dolarów gdybyś zdemaskował oszusta.

 

edit: nvidia nikogo "nie robi w balona". sam się nakręcasz i dopowiadasz legendę. swoją drogą to fenomenalne zjawisko socjologiczno-marketingowe. bardzo popularne zresztą.

Napisano

"Ale pytanie dalej pozostaje bez odpowiedzi 100%

czy nVidia robi nas w balona???" - Tak jak pisalem, bycmoze te karty maja ogromna moc przerobowa, ale zwykly user tego raczej nieuswiadczy. A bynajmniej ja tego nieuswiadczylem. Ja bardziej porownuje karty pod wzgledem uzytkowania w mojej codziennej pracy i tutaj GF jak dla mnie wygrywa.

 

A co do cen. To wiesz, raczej przykladam cene do wydajnosci. Za 1000zl nie kupie nowego quadro ktore by mialo fizyczna moc w maxie porownywalna z GF8800. Prosty rachunek, po co kolege wprowadzac w niepotrzebne koszta? 5tysi na karte to troche chyba przesada.

Napisano

SANSSERIF

sorry to nie marketing, to mozna sprawdzić, firma taka jak ATI czy inna Z TAJWANU może rozłożyć na części pierwsze taką kartę i wie co w niej jest...

Xeon to też marketing???

NOKIA i APPLE to jest prawdziwy marketing, przestarzała technologia w ładnym oopakowaniu...

Napisano

Juz ponad 10 lat pracuję w reklamie i wiem coś o tym...

 

 

TRAITOR

i tu sie zgodzę, jak dla nas nie ma sensu wydawać 5000 na kartę którą i tak za rok albo dwa trzeba zmienić, bo też lubie w KANTERA popykać i inne, ale co do tego czy Q jest lepszy chyba nie ma wątpliwosci.

Tylko porównaj Q4600 do GeF8xxx a nie starsze modele.

 

Pa

Napisano
Juz ponad 10 lat pracuję w reklamie i wiem coś o tym...

to zapewnie wiesz że supernadprzyrodzone możliwości mac'ków są objawem legend tworzonych częściej przez użytkowników pc niż mac. techniczny marketing apple zawsze był skromny i nieśmiały. podobnie nvidia nigdzie nie przeciwstawia swoich produktów profesjonalnych względem konsumenckich. same suche dane techniczne.

Napisano

"Tylko porównaj Q4600 do GeF8xxx a nie starsze modele."

No, ale dlaczego? :) Porownajmy karty o podobnej cenie. Dlaczego mam porownywac GF za 1000zl z Quadro za 5tysi?:)

 

 

ps. Swoja droga chetnie bym porownal, lecz nie mam takich fizycznych mozliwosci.

ps2. Nie kupilem GF bo lubie pograc:) Nie przepadam za grami.

Napisano

duze bogate firmy kupuja karty workstationowe nie tylko ze wzgledu na

ich rzekoma super wydajnosc a glownie ze wzgledu na certyfikacje

sterownikow do uzycia z profesjonalnym softwarem. jak geforce/radeon

ci chrzani w maxie, maya miga, autocad gubi linie czy co tam, to od nvidii

i ati dowiesz sie co najwyzej ze mozesz sobie czekac na nowe sterowniki

do gier i moze to bedzie poprawione. jak kupujesz quadro/firegl to dostajesz

liste certyfikowanego softwaru ktory zostal przetestowany i zaaprobowany

do uzycia z karta i jak nie dziala to nvidia/ati ma problem i chcac uniknac

straty certyfikacji (od autodesku, avida.... ble ble) musi to naprawic. jak

kazdy wie, czas pracy grafika jest x razy drozszy w cywilizowanym kraju

niz amortyzacja drogiej karty graficznej, tak wiec firmom bardziej oplaca sie

zainwestowac w stabilne rozwiazanie niz zeby graficy sie marnowali bo

sprzet nie wspolpracuje z ich ulubionym softem. A nawet jesli te karty

sie nie roznia sprzetowo, to co ? za software niby sie nie placi ? przeciez

do wersji workstationowych ida rasowane sterowniki, kto powiedzial ze

sterownik na quadro nie moze duzo kosztowac...

Napisano

SANSERIF

pracowałem chyba 5 lat na MACach od wersji 3 do wersji 6 ich wysoka cenę trzeba było płacić za piękna obudowę - bo zawieszały się bardziej niż PC, mam kolegę który jest obecnie ARTDirectorem w Życiu Warszawy jest wyznawcą APPLE, nigdy nie pracował na PC, nawet w domu miał MACA (chyba 5) spalił mu się zasilacz (staną wiatrak w zasilaczu) widział dym ale pracował dalej, po chwili komputer przestał działać - był zdziwiony dlaczego wszystkie części były spalone.

I tyle ci powiem na temat MACA, a to że ludzie nie znaja sie na sprzęcie tylko słuchają reklam mnie nie dotyczy.

 

Jeszcze nie słyszałem z ust rdzennego PC że MAC jest lepszy (uzupełnij swoja wiedzę)

 

Techniczny marketing apple skromny ???? co to znaczy ????

ludziom sie podoba, jest fajny wyglad lepszy od taniego pc - no i przecież graficy na nim pracują !!! musi być mocny !!!

 

to jest własnie marketing apple

Napisano

Koledzy Koledzy :) Spokój na pokładzie.

Każdy ma swój punkt widzenia.

 

evarcha -> edytuj posty.

 

Poza tym troglodyta zainwestuj przedewszystkim w dobrą płytę.

Gigabyte lub Asus'a, lub jeśli sie nie spieszysz - poczekaj.

 

Ponoć AMD szykuje parę niespodziewanek jak również i Intel. ;).

 

Pozdr,

Napisano

evarcha to do ciebie: Mac jest lepszy :P jakby nie to, że Max jest tylko pod Windowsa już dawno bym sie przesiadł na makówke. Aha ja to chyba rdzenny PC jestem, cokolwiek to znaczy ;| a graficy na nim pracują nie bez powodu, to po prostu wydajniejszy system jest, nie wiesza sie, ogólnie nie ma z nim problemu.

 

a historia o twoim kumplu i jego komputerze, który zaczął się jarać to nie wiem co miała udowodnić, imo nie świadczy najlepiej o kumplu.........na pewno nie świadczy o tym że Maci są kiepskie.......

Napisano

chudy

masz PC to skąd znasz MACa, kto ci takich bzdór naopowiadał, w MACu bodajże G5 była karta GRAFICZNA MATROXA - a o DRR zapomnij - w tym czasie na PC była rewolucja sprzętowa kiedy MAC poprawiał DESIGN obudowy..........

 

Historia mojego kumpla świadczy o jego braku wiedzy na temat sprzętu - on nie odróżnia pamieci RAM od DYSKU twardego - a w grafice siedzi od lat i to na najwyższym stanowisku, dodam tylko że maluje piekne obrazy tak jak jego ojciec. TO ŻE NIEZNA SIĘ NA SPRZĘCIE - źle o nim nie świadczy - tylko guzik go to obchodzi - A MAC poprostu mu się podoba....

 

Dodam jeszcze żeby zakończyć ten temat, że każdy zorientowany w sprzęcie grafik (firma) za takie pieniądze powinien wybrać stacje graficzne DELLa w Leasingu a nie MACa.

Napisano

hkropiński

 

Kultura nakazuje mi podziękować ci za korektę moich błędów ortograficznych.

Ile u ciebie za znak - obecna stawka to 0,22 grosza.

 

Jednak powinieneś wyjaśnić, co miałeś na myśli pisząc "i to by chyba wszystko wyjaśniało”, jeśli chciałeś mnie obrazić to przeproś.

 

Specjalnie dla ciebie pisałem to w Wordzie, żeby przypadkiem błędu nie popełnić.

 

Pozdrawiam

Napisano

Dodam jeszcze żeby zakończyć ten temat, że każdy zorientowany w sprzęcie grafik (firma) za takie pieniądze powinien wybrać stacje graficzne DELLa w Leasingu a nie MACa.

 

każdy zorientowany wie że dell i hp jakością podzespołów nie odbiega od jakości zestawów z tesco :)

Napisano

paru moich znajomych ma Maci, kiedyś z jednym z nich mieszkałem i miałem okazje popracować na Macach. Za każdym razem jak go odwiedzam to mam ochote mu go ukraść :P

 

co do rewolucji w PCtach i MACach, Apple po prostu nie szaleje od razu jak sie pojawi jakaś nowa technologia. Imo kiedy DDR było wporwadzane do PCtów jest prawie pewien, że MACi były nadal szybsze, A dlaczego? Bo miały lepszą architekture dopracowaną od sprzętu aż po software.

 

Maci teraz teraz mają praktycznie architekture PCta, a więc tak naprawde wyższość nad PCtami nie wynika z samego sprzętu ale z oprogramowania....

 

imo Mac G5 to było dawno i już nie prawda :P a tak wogóle to MACi z serii G można sobie konfigurować. Karta Maxtora była pewnie wkładana jako standart.

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności