Skocz do zawartości

dokturpotfor

Members
  • Liczba zawartości

    449
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    2

Zawartość dodana przez dokturpotfor

  1. whatever, niech nawet 10% tej mocy wykorzystaja... ide o zaklad ze w 120 minut a nie 1200 i7 wyrenderuje rownie ladny obrazek. nie uzywaj terminu ktorych dzialania nie znasz... rdzen gpu ma dostep jedynie do pamieci na gpu... koniec kropka CL_MEM_USE_HOST_PTR i na mac'u i w streamsdk i w nvidiowej implementacji openCL przerzuca zawartosc pamieci z hosta na device tam wykonuje kernel i znow np jesli wyniki tez byly zmapowane na hosta przerzuca wyniki spowrotem. nie ma synchronicznej, read write pamieci dostepnej dla cpu i gpu, ktos kto by cos takiego zaimplementowal po szynie pci zasluzylby na ignobla. g prawda... nie wierz w plotki... nvidia reklamuje multiple kernels jako MIMD. 'kazdy rdzen robi co chce'... normalnie kaze sobie to wydrukowac na banerze i zawiesze w biurze. podstawowa jednostka granulacji watkow jest '1 warp' czyli 16 lub 32 (nie liczac double dispatcha) watki wykonujace ta sama instrukcje S.I.M.D. jakbys chcial miec pelny MIMD, to fermi z maszyny 512 'potokowej' zamienia sie w 16 potokowa... chyba nie o to nam chodzilo. prawie robi roznice. 512 aktywnych watkow, ~2K niekatywnych, 768 kilo L2, 768 kilo L1 na GPU vs. 5 aktywnych watkow 50 nieaktywnych i 256kilo L1, 1 MB L2, 6-8-12 MB L3 w przeciwienstwie do nienormalnej... normalna czyli: wspolna dla warpa i bez stosu ? hmm... wszystkie petle moga byc rozwijane dziala to w nastepujacy sposob: po prostu miedzy kolejnymi iteracjami wkladany jest dynamiczny test (srodkowa czesc for'a) ktory moze wyskoczyc calym warpem na sam koniec. Ma to calkowity sens, przeciez mozesz np. wiedziec ze dynamiczny test wyznaczy na oko 20 iteracji, dlaczego by wiec nie unrollowac np 5. CAL IL i PTX to nie sa jezyki klienckie (jak brook, cg, hdsl itd...) tylko ISA, wewnetrze assemblery kart graficznych. narzedziem robienia branchowania w hardwarze (nawet w hd5000, fermii, gtx200 itd..) sa predykowane instrukcje. dynamiczne petle (czyli rozne ilosci iteracji dla roznych watkow) wykonywane sa w nastepujacy sposob... wszystkie watki wykonuja najdluzsza potrzebna petle... (nim wszystkie zbranczuja na zewnatrz) a te ktore nie musza wykonywac kolejnych iteracji po prostu wykonuja jalowe instrukcje ktore predykatami sa olewane... nie przeskoczysz SIMD na poziomie warpa (czyli 16, 32 watkow) Larrabee to trzy produkty, intel wycofal sie z jednego. nie bedzie konsumerskiej karty graficznej w pierwszej (wypuszczonej) generacji LRB. ok... nie wiem co dalej... dyskusja schodzi troche na psy... widze ze sie interesujesz tematyka, zapewne studiujesz informatyke albo piszesz gry, ale w twojej wiedzy znajduja sie podstawowe dziury. i nie mowie tu o wiedzy typu czy nowa karta ma to czy tamto, albo czy nowe sterowniki nvidii wspieraja costam, bo ja np za tym nie nadazam. A raczej o braku zrozumienia podstawowych zagadnien w stylu: model obliczen. Ja mam (choc nie twierdze ze to cos znaczy) wysztalcenie informatyczne - matematyczne, wiec sam tez mam tendencje do olewania stalej .... ale nie mozna mowic o wydajnosci / zlozonosci bez dobrego okreslenia modelu obliczen. Na twoim miejscu rowna uwage poswiecilbym nie tylko na nowe techniki postprocesingu i raytracingu na gpu, ale na zapoznanie sie z tym co w samym sprzecie piszczy - bo w tej dzialce akurat to ma ogromne znaczenie (w przeciwienstwie do wielu dziedzin w ktorych programowanie wysokopoziomowe sprawia sie bardzo dobrze).
  2. jasne, nieregularny dostep do pamieci i nieregularny flow programu to aspekt w ktorym gpu bryluje. a jak sobie splycisz strukture danych (a tak wlasnie implementuje sie kddrzewa, bsp i co tam chcesz) to narzut na pamieci jest taki duzy ze glupi zajac zajmuje 50 mega (do wydajnosci pamieci na gpu jeszcze wrocimy). Publikacje akademickie to sa zazwyczaj 'proof of concepts', nie wiem jak cie przekonac, moze powiem tak... wrocmy do przypadku iraya 15 quadro 5800 ma teoretyczna moc okolo 15 000 GifaFlopow na sekunde obrazek pojawia sie po 4 minutach... core i7 920 ma jakies 50 gigaflopow teoretycznej mocy obliczeniowej czyli 300 razy mniej. uznam ze gpu jest wydajniejsze obliczeniowo jesli core i7 nie bedzie w stanie wypluc rownie ladnego obrazka w ciagu 1200 minut. rozumiem jeden aspekt, ilosc zuzytego pradu, ale mowic ze algorytmy na gpu/gpu sa wydajniejsze niz na cpu ? rozumiem tez ze po 4 minutach juz otrzymujesz obraz, co tez moze byc wazne, ale jak dla mnie to ma elegancje orania pola czolgiem: da sie, jest szybko no i... ? pamiec hosta i pamiec urzadzenia to dwa rozne swiaty... chcesz pojedyncze bajty zczytywac przez DMA :) ? nawet jesli mialo by to byc mozliwe to na szczescie implementacje openCL i CUDY tego zabraniaja... mozesz zmapowac pamiec globalna albo stale bufory na RAM kompa, wykonac transfer DMA, odpalic kernel, shader cokolwiek... i tyle... ok, whatever stala glebokosc rekursji jeszcze przelkne (choc wyobrazam sobie zlozonosc branchowania jesli chcesz miec choc jednego ifa), ok, ale fermi nic nie zmieni... patrz nizej... no jesli c++ bez rekursji i bez 'jmp' na poziomie pojedynczego watka jest "nie okrojone" to ok. Powtorze to jeszcze raz... gdzie ty chcesz ten stos i kontrole sterowania upchnac ? primo... w 48 kilo L1 dzielonego na 32 watki ? czy moze w 768 kilo L2 dzielonego na 512. powtorze to kolejny raz gpu to maszyna SIMD... i chocby nvidia i ati krzyczaly w nieboglosy inaczej, sytuacja wygloda tak: Bobek: this is madness.... Leonidas: this is SIMD! jak dziala cpu ? masz swoj ulubiony rejestr Instruction Pointer i co robisz ? a teraz wykonajmy instrukcje z nastepnej komorki pamieci, a teraz z nastepnej, a teraz skoczmy o 10 do przodu, albo pod adres 00000000... a na gpu... znowu przypowiesc: siedzi 32 galernikow (nazywaja sie CUDA cores) a bebniarz krzyczy: a teraz wszyscy biora rejestr r1 i mnoza przez rejestr r2, a teraz wszyscy odejmuja 5 od rejestru r3, a teraz wszyscy zapisuja w pamieci dzielonej w adresie ble ble ble... oczywiscie jest branch ale zczytuje go 'bebniarz' a nie kazdy z galernikow. oni wykonuje listy polecen, ewentualnie polecen poprzedzonych predykatami... o tym za chwile... sorry, znowu powiem ci... bzdura... zeby nie byc goloslownym na gtx275, odczyt z rejestru 1 takt, odczyt z pamieci dzielonej 1 takt, odczyt z pamieci lokalnej/globalnej.... 120-150 taktow.... stos/sterta... stos na stercie jeden pies.... gpu nie ma podsystemu pamieci jak cpu... tam na 20 watkow jest 6-8 mega cache, tu na tysiac jest 1.5... to nie kwestia jezyka ani tego czy stos jest na stercie (ktorej tak na serio nie ma, bo na gpu nie ma czegos takiego jak alokacja dynamicznej pamieci... wyobrazasz sobie malloca na 1000 watkow ?). Po prostu gpu nie ma sprzetu zeby tego robic... moze nie trzeba bylo rezygnowac i cos sprobowac napisac nie gadalbys takich farmazonow. a ty rozumiesz co ten szablon robi ? po prostu zamiast wywolywac dynamicznie funkcje rekurencyjna po prosty przepisuje ja na chama, w uproszczeniu: np: abc { print "akuku" } abc() { print "ble ble" x abc(x-1) print "elb elb" x } i teraz: abc { print "ble ble" 5 print "ble ble" 4 print "ble ble" 3 print "ble ble" 2 print "ble ble" 1 print "akuku" print "elb elb" 1 print "elb elb" 2 print "elb elb" 3 print "elb elb" 4 print "elb elb" 5 } albo tworzy piec funkcji abc1, abc2, abc3, abc4, abc5 wywolujacych sie statycznie nawzajem. masz swoje rekurencyjne gpu petle dynamiczne nie istnieja... mozna je hakowac predykatami ale... patrz nizej... gpu dziala w nastepujacy sposob: jakiekolwiek branching robiony jest przez predykaty... po prostu jak masz ifa to kod: if (a print a a += 10 b -= 5 } else { print b a *= 4 b = 0 } zamienia sie na gpu na: policz predykat ppp = a wykonaj (jesli predykat ppp) print a wykonaj (jesli predykat ppp) a += 10 wykonaj (jesli predykat ppp) b -= 5 wykonaj (jesli nie predykat ppp) print b wykonaj (jesli nie predykat ppp) a *= 4 wykonaj (jesli nie predykat ppp) b = 0 czyli program ktory powinien wykonac 4 instrukcje na watek, na maszynie SIMD (poza przypadkami iz kazdy watek idzie w ta sama galaz) wykona 7 instrukcji... na tym polaga branching na gpu... i fermi tego nie zmieni... no way... nie chce sie upierac, sam sie przylapuje na typowej programistom przypadlosci "wszystkowiedzenia" :), ale wez napisz jakis shader w CAL'u albo PTX'ie a nie w hdsl'u. bez kompilatora od razu zobaczysz dlaczego gpu to nie cpu. nie twierdze ze nie znasz sie na rzeczy, ale rzucasz za duzo hasel z broszurek. ps: przejrzyj sobie papiery do LRBni przy okazji, to bedzie calkiem fajne. Wole juz na Larrabee czekac niz na fermi, ktore nic nowego nie wniesie. re: nvidia no planowalem od jakiegos czasu 'jak dziala gpu' napisac, ale nie bylo chwili.
  3. stary... implementacje wskaznikowych czy kursorowych struktur danych jak drzewa, na gpu to sa dalej akademickie rozwazania, ktore maja sie do architektur SIMD jak piesc do nosa. tak da sie je zaklepac ale ilosc hakowania aby obejsc ograniczenia architektury skutecznie jak do tej pory odbieraja komukolwiek ochote by tego stosowac. Nie wiem co ma blender ale drzewo bounding volume hierarchy, (jak sie myle to mnie popraw) ktore jako drzewo licznikowe, znane jest chyba od paleozoiku, przytoczylem bsp jako przyklad jakich wiele. Powiedzialem path tracer bo nie widze innej mozliwosci. czy to bedzie 2^n czy 13^n i tak jest to strasznie wolny algorytm. monte carlo czy nie zlozonosc obliczeniowa jest gigantyczna, o stala sie nie kloce. inny algorytm ktory widze to by byla kratka i iteracyjnie policzony transfer swiatla (jak w demie GI cryengine 3), ale ze wzgledow pamieciowych w jakosci lepszej niz przyblizone gi w realtimie wydaje mi sie to niemozliwe. no niestety przypowiesc ma cechy metaforyczne wymagajace skupienia od czytelnika ok tu zwracam honor nie zauwazylem ze dla doubli jest support dla 4800+, 5800+ uzycie szablonow to zabieg dziejacy sie podczas kompilacji a nie podczas uruchomienia programu. po co mi funkcja ktorej zagniezdzenie rekursji jest ustalane podczas kompilacji. kolejna przypowiesc: dla parametru 5 funkcja ABC wymaga 3 zagniezdzen rekurencyjnych, ale dla pewnosci zawsze bedziemy wykonywac 10 tak na wszelki wypadek mimo ze punkt staly funkcji osiagniemy juz w 3 zagniezdzeniu. Tu dochodzimy do kolejnej sprawy, i nie zmieni tego marketing... programy na gpu tez sa kompilowane (olaboga!)... to 'wykonywanie kodu pisanego w c++' o ktorym wspominasz to wierutna bzdura. kod jest kompilowany w sterowniku i na gpu trafia juz jako assembler gpu. to cale zamieszanie z "wsparciem natywnym c++" wiaze sie jedynie z unifikacja adresowania pamieci, nie wiem czy wiesz ale i kod C i C++ nim jakikolwiek procesor wykona program zamienia sie na taki sam kod maszynowy, ba nawet da sie w latwy sposob napisac funkcjonalnosc obiektowa C++ w C, ba nawet pierwsze kompilatory C++ po prostu tlumaczyly kod na C i pozniej kompilowaly kod w C. hmm... podsumowujac zadne gpu nie potrafi wykonywac kodu pisanego w C++ 'no spik C++ segnor', a co wiecej gpu, nawet cudo (CUDA) fermii nie ma do ch* jasnej stosu! i nie ma szans na wydajna rekursje. A jak chcesz sobie sam napisac stos, tylko nie wiem gdzie, w pamieci dzielonej SIMD ? jasne... juz widze jak szybko bedzie dzialal... czy moze na jakiejs 'teksturze' - jeszcze lepiej. funkcje rekurencyjne to podstawa informatyki wszystko obliczalne na maszynie Turinga ma postac funkcji rekurencyjnej wydajna obsluga funkcji rekurencyjnych to podstawa szybkiego i ekspresyjnego sprzetu i nie gniewaj sie :) nie chce cie obrazic PS: aha i z ciekawosci zerknalem na tego przyspieszonego blendera i po pierwsze, z tego co widze blenderowi zamienili zwykle octree na drzewo bvh, a po drugie: "He switched to special BVH's using adaptive children count, exploiting raycoherence using hints/LCTS, SIMD at the end. He's using self developed heuristics to build trees and reduce the expected number of bounding box tests by about 20%. He calls his BVH's "VBVH" and "SVBVH". VBVH is much slower than SBVH when using non-SIMD." wydaje mi sie ze to swiadczy glownie o tym jak slaby byl wczesniejszy raytracer blendera :) PS2: a tak jeszcze sie zastanowilem, upieram sie przy tej rekursji, a wczesniej jest duzo wazniejszy problem, dynamiczny przeplyw sterowania. na gpu nie da sie zrobic dynamicznej petli, nie da sie zrobic if'a w wydajny sposob, nie da sie zrobic podstawowej instrukcji w stylu 'jump' (przejdz do instrukcji).
  4. ble ble ble, "potrafi" / "bedzie (zapewne)". "iray uses a highly optimized BSDF and EDF shading framework (essentially, simulating the physical behavior of real-world material and light source), as opposed to a complex collection of programmable shaders applied through renderer specific object and scene parameters." no pewno... po co nam "complex collection of programmable shaders", choc moze arch materials wystarcza "For technical audiences…: Interpolation techniques, which trade final quality, predictability, and simplicity of scene specification for performance, form the core of most current global illumination renderers. Unlike them, iray rendering is based on deterministic and consistent global illumination simulation algorithms that converge without introducing persistent approximation artifacts." he he, nie ma to jak sprzedac ograniczenie technologiczne i sprzetowe jako zarabiscie porzadana zalete softu. Poza tym po demie na siggraphie gdzie 15 quadro fx5800 przez kilka minut meczylo jakis obrazek troche sie zmartwilem ze jest to nadal w takich powijakach. Oczywiscie mental images triumfalnie oglosilo ze na cpu liczyloby sie to 10 godzin.... tylko ze nie dodali ze: 'liczyloby sie na cpu przez 10 godzin PRZY UZYCIU TEGO SAMEGO ALGORYTMU'... czyli 'dla laikow technicznych' iray na gpu uzywa nachamowego path tracera ktory jest wolny jak cholera, ale za to ma konstrukcje cepa. na 15 quadro fx5800 scenka liczy sie 3-4 minuty. na cpu ten sam algorytm dziala odpowiednio wolno i liczy sie kosmicznie dlugo. i porownuje sie czasy dzialania tego samego algorytmu na cpu i gpu zamiast zadac sobie pytanie, jak szybko uzywajac wszystkich dobrodziejstw cpu, wyprodukowac obraz o takiej samej jakosci jak ten wyprodukowany na gpu irayem. odpowiedz: "duzo szybciej niz uzywajac iraya na cpu" - bo mamy photon mapping, bo mamy irradiance cache, bo mamy drzewa bsp itd... zaproponuje przypowiesc: to tak jakby posadzic na tandemie czterech kuternogow i kazac im sie scigac z jednym facetem na dwoch nogach. Tylko ze zawiazmy temu zdrowemu jedna noge, "zeby bylo sprawiedliwie". Wynik jest 4 do 1 dla czterech kuternogow. jak ten z dwoma nogami moze uzywac ich obu to czterej kikuci nadal wygrywaja, ale stosunek jest tylko 2:1 ??? a dlaczego mialoby nie dzialac? to tak jakby podwojna precyzja pojawila sie wczoraj... jesli sie nie myle to 'korona' najwydajniejszej karty w doublach nadal nalezy do radeona 5970 edit: btw, na 8600 zdaje sie double nie dzialaja (ani tez na 9xxx), yep sprawdzone tylko CUDA na gtx260/275/280/285/295 i teslach niech sprobuje wywolac funkcje rekurencyjnie... gpu potrafi glownie dodawac i mnozyc, czytac z pamieci i filtrowac tekstury... za to robi to bardzo szybko ech... ciezko walczyc z marketingowymi machinami wielkich firm...
  5. re: skoti tu wiekszosc gosci to maxowcy, wiec dx to chleb powszedni. a o tej magicznej 8600 ktora potrafi renderowac to nawet sie nie bede wypowiadal. pokaz mi renderer na gpu ktory obsluguje cala specyfikacje ".mi" a sie z tym zgodze. co do kart graficznych to 4770 coraz trudniej dostac, za to pojawila sie tania 5670 (jakies 330 zl) z calkiem podobnymi osiagami. zapowiada sie tez 5830 wypelniajaca luke miedzy 5770 a 5870. a na nowinki od nvidia trzeba czekac do marca (usa) / maja (reszta swiata :) ). re: wallop co do tej plytki 2x1366 to da sie zamontowac dwa i7... ale: i7 nie ma dodatkowego linka qpi (tylko jeden do mostka) na bezposrednie polaczenie miedzy procesorami (jak to ma miejsce w xeonach DP), tym samym komunikacja miedzy procesorami odbywa sie przez mostek polnocny (jak to mialo miejsce w starszych generacjach xeonow - bez kontrolera pamieci i interconnectu) - co rzecz jasna zabija wydajnosc i nie jest zapewne zgodne z przykazem intela. jesli sie nie myle chip to tylersburg wiec sie to da zrobic, choc pozostaje to w kategorii domyslow i plotek :) PS: aha, na CES'ie wiesc gminna niosla ze nie tylko evga szykuje taka plytke PS2: aha2, i7 980x ma miec dwa linki qpi, wiec moze bedzie dalo sie go uzyc na platformie dwuprocesorowej - odpowiednik skulltrail 2
  6. dokturpotfor

    Zestaw 3D / renderng

    ta karta graficzna to zlom, reszta spoko
  7. polecam taki: http://www.bitcomputer.pl/product.php?id=13679 kupilismy i jest za ta cene po prostu zarabisty! na dodatek potanial ostatnio o 250 zl (w grudniu bylo 1790 dokladnie).
  8. dokturpotfor

    Intel i7 i turbo boost

    hmm... to chyba w ogolnosci tak wyglada ze jak podbijasz jakies rdzenie to pozostale sie wylaczaja - wchodza w stan uspienia albo drastycznie zmniejszaja predkosc.
  9. dokturpotfor

    Intel i7 i turbo boost

    panie, tak to tylko w erze daja... ten procesor ma turbo boost w trybie 1/1/6/9, czyli na 4 rdzeniach podbija mnoznik o 1, na trzech o 1, na dwoch o 6 a na jednym o 9. czyli albo podnosisz wszystkie o 133 mhz, albo trzy o 133 mhz, albo dwa o 800 mhz, albo jeden o 1200. czyli najbardziej sie oplaca podniesc 2 o 800 jesli twoj soft sie sprytnie skaluje. (poprawka). hmm pozostale rdzenie spadaja do 933 wiec chyba sie nie oplaca :) aha... 1/1/6/9 to sa _maksymalne_ zmiany, w zaleznosci od chlodzenia, temperatur, jakosci procka itd, procek moze sie gorzej podkrecac
  10. dokturpotfor

    Komputer za 2200zł

    czolem, 4730 to polke wyzej niz 4670, dwa razy wiecej potokow (640 vs 320), a na dodatek gddr5, czyli 2 razy szybsze pamieci niz ddr3 (w uproszczeniu mowiac) co do plyty to polecam: http://www.asrock.com/MB/overview.asp?Model=M3A790GMH/128M okolo 280-300 zl powinna kosztowac: http://www.ceneo.pl/2813240 asrock to jest marka asusa, ta sama firma, ta sama fabryka, inna nazwa, na inny rynek. sam uzywam kilku plyt z serii GXH i odpukac nie bylo problemow, ma kupe fajnych zlaczek: fire wire, esata inne jakies bajery, karte graficzna wbudowana hdmi, dvi, vga (nie zeby dalo sie na niej cos zrobic powazniejszego)... ps: ta evo tez wyglada super... parametry praktycznie identyczne a mozna by uznac ze asus - wieksza renoma
  11. dokturpotfor

    Komputer za 2200zł

    hmm... AM3 to najnowszy socket AMD, do 2012 masz spokoj, pamieci ddr3 tez na nic 'nowszego' dzis nie mozesz liczyc :) co do procka to 630 zl to kiepska cena: http://www.morele.net/procesor-amd-phenom-ii-x4-quad-core-955-black-edition-socket-am3-box-hdz955fbgibox-224004/ phenomy II wypadaja slabiej ghz vs. ghz z nehalemami i niektorymi lepszymi core 2 quad, wiec sama predkoscia sie nie kieruj. hmm... z tego co widze to tylko w jednym tescie z spec max'a pII955 przegrywa z q9300, (w niektorych testach im mniej tym lepiej :) ), mam tez porownanie z zycia wziete mamy kompa na q8200 ktory jest duzo wolniejszy pod maxem 2009 z mentalem. co nie zmienia oczywiscie faktu ze jest to procek za 500 zl ze sredniej polki i z np core i7 nie ma sie co mierzyc. ps: tu masz tez fajna porownywarke cpu: http://www.benchit.pl
  12. 800 zeta za 4 gb ramu to jak dla mnie przesada... wez moze 8 giga jakiegos przyzwoitego ramu... wiecej bedziesz mial pozytku z dodatkowych 4gb niz tych 2000 mhz na szynie
  13. dokturpotfor

    Komputer za 2200zł

    wez sobie phenoma II 955 za 550 zl i dorzuc jakas plyte na AM3, 790fx/785g/790gx za 300 zl i bedzie duzo szybciej niz q9300 / q8400 http://www.anandtech.com/bench/default.aspx?p=88&p2=75 mamy phenomy 955 i 965 na plytach: http://www.asrock.com/MB/overview.asp?Model=M3A790GXH/128M mozliwe ze sie troszke zestarzala, ale w cos podobnego bym mierzyl dla testow podkrecalem te proce do 3.6/3.8 ghz (overdrivem) i nie bylo problemu, ale nigdy sie w to dluzej nie bawilem. PS: a zaoszczedzona stowke wydaj na karte graficzna... btw. nie kupuj w komputroniku bo to drogi sklep, lepiej tam cos wybrac (bo wybor maja duzy) a kupic gdzies gdzie jest taniej.
  14. dokturpotfor

    Komputer za 2200zł

    spoko monopolu nie bedzie... nikt na to nie pozwoli... zawsze sie znajdzie dobry wujek pokroju IBM albo Samsunga i kupi nvidie tak jak nvidia kupila zdychajace 3dfx. Po prostu wnerwia mnie ich CEO Jen Hsun Huang :) gt 220/240/250 ? dziekuje, poczekam... ba... nawet ostatnio nvidia wydala serie gt 300 :) tylko niech sie nikomu nie wydaje ze to spozniony Fermi... po prostu kolejna zmiana nazwy: gt360m = gt240 = g215 = g92 :) 3 letnia karta z 4 roznymi nazwami :) z tego co widze na komputroniku maja premiere 5670 na 17 stycznia: http://www.komputronik.pl/index.php/category/7979/Radeon_5670.html/type/27/showProducts/1 podejrzewam ze tez wtedy wypuszcza karty z rodziny 55xx, 5570 w testach jest ponad 20% szybszy od gt220, dodatkowo ma dx11, opengl 3.2 i jest znacznie mniej pradozerny. cena MSRP w stanach jak na razie to okolo 75$ w zaleznosci od ramu i taktowania. poczekaj 3 dni az CES sie skonczy to bedziesz mial przeglad tego co jest na rynku. modele referencyjne sa produkowane przez firmy takie jak asus, gigabyte, powercolor itd... z czesci dostarczanych przez nvidie i ati (praktycznie tylko sa montowane i sprzedawcy doklejaja naklejke). Roznice miedzy sprzedawcami widac glownie w modelach egzotycznych w ktorych oferuja ci fabrycznie przetaktowane karty lub takie wyposazone w 'niestandardowe' chlodzenie. w kategorii za 300 zl praktycznie patrz na gpu, rodzaj pamieci (gddr3/4/5), predkosc gpu i pamieci no i cene. oczywiscie do tego dochodza gusta i przywiazanie do marki (zwlaszcza w stanach np zotac albo xfx sa uznawane za takie hardcorowe dla graczy, ja np preferuje gigabyta i sapphire), ale przy takim wyborze to raczej nieistotne.
  15. dokturpotfor

    Komputer za 2200zł

    czolem, gt220 to g jakich malo, chip sprzed trzech lat odgrzewany na nowym procesie technologicznym. w ogole za ten caly marketingowy syf (zmiany nazw kart i sprzedawanie tych samych za wyzsza cene) dopinguje z calego serca nvidii zeby szybko zbankrutowala :)
  16. dokturpotfor

    Czy to dobry wybór?

    a co chcesz na nim robic? 8 rdzeni 16 gb ramu to 'calkiem' mocny sprzet, przy tym odpowiednio drogi...kwestia karty graficznej: nvidia nvs 290 to jesli sie nie myle klasa geforce 8400/8500 wiec totalny low-end sprzed 3 lat. co tez pozwala watpic w uczciwosc firmy ktora na allegro reklamuje ten sprzet jako, cyt: "Znakomita jako stacja graficzna lub komputer dla gracza.", chyba ze to gracz na gieldzie, to wtedy sie z nimi zgodze :) btw, mozliwe ze to jakis lezak magazynowy, albo import ze stanow, bo w takiej konfiguracji chyba juz nowego nie mozna kupic
  17. wg mnie sprawa proca i klickowo/krzyskowej magii. Poza tym wydaje mi sie ze mylisz pojecia: roznica 100 klatek a 500 to tak na prawde gowno warta roznica. Roznica jest wtedy kiedy z 2 klatek na sekunde robi ci sie 10, bo sterownik jest przepisany i sciezki kodu sa zupelnie inne. hmm... przyklad: jeden obiekt 10,000,000 trojkatow i na to jakis realtimowy shader... oczywiscie gtx285 albo hd5870 zmiazdzy slabsze quadro/firepro. drugi przyklad: zrobilem arraya unikatowych kulek 100x10x10 240 tri kazda. taka scena masakruje cpu, na sterowniku dx9 mialem 0.55 fps, na sterowniku opengl mialem 1.05 fps. Mam slabego procka, ale i tak widac ze opengl poradzil sobie lepiej, a to byl standardowy openglowy sterownik z catalysta. cudow nie ma: jak masz model 10mln poly i dasz model 20mln poly to jak ci sie nie wyrabie max/maya czy co tam jeszcze to bedzie chodzil dwa razy wolniej (jesli wystarczy na karcie pamieci itd...), ale jak masz scenki ktore wymagaja duzej wspolpracy cpu/gpu to nawet ten dupiasty niezoptymalizowany sterownik opengl czasami potrafi byc szybszy. ps: nie mam zamiaru sie klocic, wiadomo kazdy ma jakis tam 'profil' tego co robi... ja w maxie mam glownie sceny w postaci: tysiecy obiektow, zreferencjonowanych z np setki prefabow, takie dumpy poziomow do gier, + duzo obiektow parametrycznych obiektow jak helpery, tape'y, duzo splinow zawieszonych w przestrzeni itd...
  18. truty sruty majty w druty... niestety poki co na jakosc pracy w programach 3d najbardziej wplywa dobre cpu (na ktorym idzie watek odpowiedzialny za rendering i driver gpu)... drugim aspektem jest oczywiscie jakosc sterownika, za ktory niestety slono sie placi: quadro/firepro, a dopiero trzecim moc obliczeniowa samego gpu. czyli... slaba karta quadro/firepro nadrobi/przegoni sterownikami mocniejsza do gier, oczywiscie na sofcie ktory jest certyfikowany/zoptymalizowany na te karty. bez wdawania sie w szczegoly, polecam fajne artykuly: http://tech.icrontic.com/article/perspective-the-radeon-hd-5870-vs-the-firepro-v8750/ http://tech.icrontic.com/articles/the-real-difference-between-workstation-and-desktop-gpus http://tech.icrontic.com/articles/nvidia-quadro-fx-3800-review/ btw: stery ATI (caly stos opengl) zostal przepisany od nowa
  19. Mam tu calkiem fajny artykul i webcast tlumaczacy czym roznia sie karty 'do gier' od profesjonalnych: http://tech.icrontic.com/articles/the-real-difference-between-workstation-and-desktop-gpus re: dexter wydaje mi sie ze nowsze serie kart graficznych nie daja sie juz w pelni softmodowac, bo w nowszych generacjach gpu 'do gier' i 'profesjonalne' roznia sie istotnie w budowie... tzn. quadro to nie jest tylko geforce z inna nalepka i geforce po prostu nie jest kompatybilny z perf sterownikami quadro.
  20. czolem, re: donMario Ok, sorry... jasne kazdy robi jak mu sie podoba i jesli wychodzi to jest git. Ale podejrzewam ze ty wiesz jak dziala normal mapping, albo nawet jesli nie wiesz to wyrobiles sobie dosc doswiadczenia empirycznie i nie popelniasz bledow. Ja pisze soft m.in. shadery i dla mnie normal map to nie do konca obrazek. A wiele razy ludzie sie mnie pytali dlaczego powstaja seamy: przy mirrorowaniu, uv'ek/meshy, dlaczego im sie skrecaja normale na laczeniach roznych mapowan, dlaczego im sie psuja normale kiedy przepalaja z gotowego normala na inny uv, dlaczego im sie zle naklada mikrodetal itd.. itp... nawiasem mowiac wydaje mi sie ze grafikom latwiej by bylo zrozumiec o co chodzi gdyby operowali na displacementach... a normale niech juz robia sie z tego automatycznie... (bo displacement wlasnie nie musi byc robiony w przestrzeni stycznej i jest skalarem... pochodne juz automatycznie mozna policzyc majac gotowa uv'ke, edit: to znaczy mzona go po prostu dodawac, odejmowac mnozyc, przenosic, obracac... itd... jak zwykly obrazek - height mape) re: levus ale glupie bledy mozna wyeliminowac automatem jesli nie kaze sie grafikom robic czegos czego nie kapuja do konca... np. jak dzialaja normal mapy
  21. To zwlaszcza jesli zapisujesz po kilkaset mega zastanow sie nad raidem 5. raid5 jest wolniejszy od 10 / 0+1 przy losowym zapisie / odczycie na malych plikach... na sekwencyjnych zapisach i odczytach ma porownywalna predkosc. Ta suma kontrolna to w wielu przypadkach XOR, czyli baaardzo prosta instrukcja logiczna szybsza nawet niz dodanie dwoch liczb, co moze ograniczac to zapis samej sumy kontrolnej. A co do bezpieczenstwa raid5 zabezpiecza przed padnieciem jednego dysku. Wydaje mi sie ze przy bledach fabrycznych to prawdopodobienstwo ze dwa padna w tej samej chwili jest kosmicznie male... a jak walnie piorun to i tak zaden raidX nie pomoze :). Raid 10 / 0+1 ma nad nim ta przewage ze zabezpiecza przed padem dwoch dyskow... ale nie 0 i 2 na raz, lub 0 i 1 na raz... czyli bezpieczenstwo nie jest wcale duzo lepsze. testowales te raidy ? tak z ciekawosci pytam ?
  22. Vat to vat, placi sie z miesiaca na miesiac, kwartalu na kwartal, nie ma 'podliczen rocznych' (poza sprawozdawczoscia) jest ciagly. Ujemny vat przenosi sie z miesiaca na miesiac, albo wnosi o zwrot. Zaliczki pit placi sie (przy rozliczeniu miesiecznym) w grudniu x2 (czyli za listopad i za grudzien w wysokosci takiej jak za listopad, wyrownuje sie do kwietnia, przy rozliczeniu pit-36/36L/37. Przy rozliczeniu kwartalnym placi sie w grudniu (do 20) za IV kwartal w wysokosci zaliczki za III kwartal i wyrownuje w kwietniu nastepnego roku wraz z rozliczeniem pit'a. btw... do 31 grudnia chyba mozna sie na kolejny rok przepisac na vat kwartalny (dla malych podatnikow) co znacznie upraszcza papierologie pit kwartalny tez ulatwia sprawe. ps: mi firme prowadzi ksiegowa: podatki, kadry, ubezpieczenie... ale jak sam cos chce doczytac to zawsze dobre info znajdywalem na: http://www.vat.pl i http://www.pit.pl (maja duzo materialow dostepnych wszystkim)
  23. jesli sie nie myle TDP 120 watow mial ten nowy 48 rdzeniowy procek. ale nie sikajcie po nogawkach... ten procek to tylko 'proof of concept' zabawka dla naukowcow do testowania meshowego softu, te pojedyncze rdzenie sa bardzo biedne (to takie uposledzone atomy, in-order, daleko im do core2/nehalem'aa/deneb'a). Moze was zainteresuje ze taka mala firma Tilera zalozona jako spin-off MIT, produkuje juz procki 100 rdzeniowe na meshu 10x10... :) rzecz jasna calkiem drogie i bardzo specjalistyczne - jesli sie nie myle to glownie do dsp i sprzetu sieciowego wysokiej wydajnosci ps.. a co do polarisa (ten 80 rdzeniowy) to tak samo jak i ten nowy 48 rdzeniowy do produkcji nie wejdzie... bo to nie sa procesory ktore mialy kiedykolwiek wejsc do produkcji... to tylko takie drogie zabawki :) ps2: kurde... polaris jesli sie nie myle na 3 ghz byl bardzo energooszczedny 60 watow... ale jeszcze raz powtarzam... to byly bardzo proste rdzenie moze porownywalne z pierwszym pentium... bez wszystkich bajerow ktore znamy z nowoczesnych prockow. http://techresearch.intel.com/articles/Tera-Scale/1449.htm a tu tilera: http://www.tilera.com/products/TILE-Gx.php
  24. Rozciagnij wspolrzedne uv tak aby zajmowaly caly kwadrat (0,1)x(0,1). Po prostu jesli podlozysz teksture 1024x256 to na jednej osi wspolrzedna 0.5 bedzie w plus, minus 512 pixelu, a na drugiej osi wspolrzedna 0.5 bedzie na 128 pixelu. o inny pomysl... mozesz tez wykorzystac reszte kwadratowej tekstury na inne obiekty... atlasowanie tekstur (jesli sie nie musza tilowac w obu kierunkach) mozna stosowac bez zmian nawet na bardzo starych silnikach, a nawet ma to swoje zalety wydajnosciowe.
  25. dokturpotfor

    Gry na Iphona

    dobra... wygooglalem gdzie to czytalem... nie w ksiazce tylko na forbes'ie http://www.forbes.com/2008/11/21/games-eedar-developers-tech-ebiz-cx_mji_1121eedar.html ta agencja zbierala dane od kilku lat, ale podejrzewam ze mogli sie zalapac na poczatek kryzysu
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności