Zawartość dodana przez dokturpotfor
-
Rendering na GPU
czesc czolem, iray jest zwiazany z CUDA wiec o ati mozna zapomniec... ale tez nie rozplywalbym sie jakos nad irayem po tym co pokazali w demach technologicznych to jest to soft o raczej ograniczonych mozliwosciach i dosc odlegly dla nas - zwyklych uzytkownikow. po pierwsze iray ma dosc ograniczony jezyk shaderow (bez mozliwosci programowania wlasnych innych niz predefiniowane BRDF'y i BRTF'y) po drugie jego wydajnosc jest zabiegiem marketingowym (na prezentacji iraya obraz generowal 15 kart quadroFX 5800 za bagatela 50000$), testy na 4 takich kartach na dosc skomplikowanej scence 70 area IES'ow - 3 - 4 minuty na klatke - (wg. cgarchitecta) watpie tez zeby udalo sie zintegrowac iraya tak szybko z np maxem do stopnia pozwalajacego na wydanie go natywnie w np maxie 2011 (marzec 2010) za to widze ze chaosi wybrali openCL:
- NVIDIA RealityServer przyśpiesza obliczenia w chmurze z użyciem GPU
-
NVIDIA RealityServer przyśpiesza obliczenia w chmurze z użyciem GPU
hmm... DMA i szyna danych to dwie odrebne rzeczy... to ze pciexpress jest seryjne nic tu nie wnosi... seryjne rozwiazania sa duzo latwiejsze do zaiplementowania niz rownolegle i w praktyce duzo szybsze. DMA to tylko zczytywanie i zapisywanie pamieci poza dzialalnoscia cpu. crossbar na SGI byl mozliwy jedynie przez to ze dzialal ze smieszna na obecne czasy czestotliwoscia i osiagal smieszne na dzisiejsze czasy transfery. gdyby dzis chciec zaimplementowac crossbar z predkoscia oferowana przez pciexpress to podejrzewam ze musialby miec wlasny radiator wentylator i zasilanie jak karta graficzna... bylby chipem o wiele bardziej skomplikowanym i niekoniecznie szybszym. wrong! (napisalem wczesniej ze w r600 byl crossbar) ups... w r600 byl 512 bitowy ringbus, a w r700 jest crossbar ale 256 bitowy ze wzgledu na miejsce jakie musialby zajmowac hub 512 bitow laczacy kazdego z kazdym. edit: crossbar
-
NVIDIA RealityServer przyśpiesza obliczenia w chmurze z użyciem GPU
zaimplementowac raytracer na cpu jest jeszcze latwiej... bo jest rekursja. gpgpu zmaga sie az po dzis z nieumiejetnoscia dobrej obslugi rekursji i tym cholernym SIMD'em... oczywiscie wszyscy to nazywaja MIMD, nvidia ma warpy ati wavefronty... ale to dalej sa watki SIMD w paczkach po 32. dopiero biale papiery larrabee przyblizaja cpu/gpu/apu jak to zwac do prawdziwego MIMD'a... 32 watki MIMD i w nich normalny altivec/sse4/sseX na 256 bitow. po co mi kod pathtracera ktory emuluje MIMD na maszynie SIMD i maksymalna wydajnosc spada 10 krotnie na cpu mam drzewa bsp, mam kd-drzewa, mam stronnicowanie, jasne ze raytracing jest prostym algorytmem ale nikt go nie uzywa bez akceleracji wynikajacej z dodatkowych struktur danych - ktorych na obecnym gpu nie da sie wydajnie zaimplementowac, albo mozna implementowac tracac rzad wielkosci wydajnosci a co do szyny danych to podejrzewam ze larrabee i gpu amd beda podpiete bezposrednio do cpu przez QPI albo hypertransport
-
NVIDIA RealityServer przyśpiesza obliczenia w chmurze z użyciem GPU
yello, pozwole sobie wrzucic moje 3 grosze apropo CUDów i OpenCL. Sterowniki openCL do certyfikacji u khronosow zglosily juz: nvidia (gf 8000 i wzwyz), amd (jednolity sterownik: hd 4000 wzwyz i cpu), apple (wlasny sterownik dla kart intela, amd i nvidii), s3 (tak tak... taka kiedys istniala firma produkujaca karty graficzne i wraca na rynek), i arm ( mowimy o intelu, amd, nvidii a arm produkuje wiecej chipow niz te firmy razem wziete, jesli sie nie myle 15 miliardow urzadzen na swiecie dziala na arm'ach). 3 zostaly juz oficjalnie certyfikowane jako zgodne z openCL: nvidia (gpu), amd (gpu+cpu) i apple (gpu+cpu). dodatkowo directcompute 5 wspierany jest przez nowe karty amd/ati i nie widze mozliwosci aby nvidia sie z niego wycofala (strzal w prawa stope ze strzelby, lewa juz sobie nvidia dawno odstrzelila.. ale o tym za chwile). CUDA niestety (a moze -stety) to dla biznesu martwa technologia "like the dinosaur". To wlasnie w biznesie nikt o zdrowych zmyslach nie zamierza sie laczyc z jednym dostawca sprzetu (nvidia), ktory na dodatek w ostatnich latach ma baardzo slabe relacje ze swoimi inwestorami / partnerami. Przy takim spolecznym poparciu openCL / directcompute CUDA zostanie nisza wlasnie dla: akademii (bo to sa aplikacje pisane pod specyficzny sprzet, aplikacje uruchamiane zazwyczaj w jednej kopii i rynek docelowy jest marginalny) i dla wewnetrznych projektow nvidii vide: reality server, nvidia cloud computing czy co jeszcze wymysla. nie mozemy zapominac o physx, ale powiedzmy sobie szczerze penetracja rynku jest na razie tak mala ze nie jest to powod dla ktorego CUDA mialaby wyprzec openCL. A teraz dlaczego nvidia niby strzelila sobie w stope. Jen Hsun Huang to jest gosc pokroju Johna Romero (pamietacie takiego goscia ktory odszedl z id software i zaczal pisac najza***sza gre na swiecie - daikatane a potem przepalil cala kase na drogie fotele w biurze ze szklanym dachem - to w skrocie, polecam poznanie tego przypadku bo bardzo to wesole - btw.. co za idiota robi szklany dach w teksasie w miejscu gdzie programisci i graficy maja patrzec na monitory). poniewaz nvidia jest troche w dolku to zdecydowal sie pobierac 1 dolara pensji rocznie, ale moim zdaniem i tak jest przeplacony. kiedy zaczal sie kryzys zaczalem drobnymi pieniedzmi grac na gieldzie w stanach wlasnie na firmach hardwarowych (intel, amd, nvidia). intel jest wielki i nieruchawy, ale musi na kazdym kroku uwazac na amerykanskie i europejskie prawo antymonopolowe ktore wiaze mu lapska. amd ma 3 miliardy dolcow w dlugu, ale ostatnio coraz lepiej sobie radzi (akcje mi wzrosly z 2 dolarow na 5.5), a nvidia? nvidia ma miliard dolarow zapasow... to duzo, ale okolo 400 milionow to koszty samego researchu, niech dojdzie do tego jeszcze marketing i ponad 100 milionow na TWIMTBP, niech odpisza sobie caly inwentarz ktorego nie moga sprzedac... na rok wystarczy. nvidia ma zrypane stosunki z akcjonariuszami i partnerami. na poczatku bumpgate (popsute spoiwo chip - socket) - obecnie nvidia odpisala sobie 500 milionow dolcow na reparacje szkod zwiazanych z przegrzewajacymi sie chipami. nie ma sprawy, zdarza sie zrypac proces technologiczny... ale... przez ponad pol roku nvidia ukrywala fakt wypuszczenia milionow chipow z bugiem przed swoimi partnerami (mimo doniesien prasy branzowej), olac kowalskiego ze mu sie laptop przegrzewal... ale della, hp i appla olewac nie mozna. vide. apple ostatnio wykupil 60 dni produkcji pelna para TSMC (tajwanska fabryka naswietlajaca chipy w krzemie na uslugach firm projektujacych chipy) chipow r770 - ati hd 4670, 4850, 4870. dwa miesiace produkcji! wiesc gminna niesie ze kolejna konsola sony bedzie dzialala (od strony gpu) na procesorze powerVR (ktory juz teraz zdobywa sobie rynek posrod urzadzen mobilnych - ajfony, zuny itd...) a na nam blizszym rynku kart graficznych ? pamietacie jak directx 10.1 to byl: 'niepotrzebny nieuzywany' standard ? a jak teraz marketuja sie karty gt210 i 220 : mamy directx 10.1 - najwyzsza jakosc grafiki na swiecie. kiedys Huang kowbojowal: jako niekwestionowany lider technologii nie gadamy o konkurencji, nie gadamy o przyszlosci, nie gadamy o produktach zanim ich nie mamy... a teraz ? Fermi bedzie taki i taki i taki... patrzcie... mamy nawet dokumentacje techniczna... i mamy tez karte GF100... ups... jest zrobiona z drewna. teraz nagle oglaszaja sie: 'we're a software company'. fermii wg branzy pojawi sie w czwartym kwartale 2009... bedzie go w sam raz tyle aby 20 najwiekszych portali technologicznych moglo sobie go ogladnac. analitycy podejrzewaja ze: pojawi sie w masowej ilosci na przelomie Q1/Q2 2010, bedzie duzo drozszy niz r870, bedzie duzo wiekszy niz r870 i troche szybszy. skalowanie w dol (do klasy sredniej) to przy dobrych wiatrach drugi kwartal 2010, do tego czasu nvidia musi sobie radzic 3 letnimi kartami. pozostaja pytania takie jak: jak nvidii idzie z directx 11, (ati praktycznie mialo ta technologie juz w kartach z dx10, tesselator byl w pierwszej wersji dx10, ale go wyrzucono - m.in ze wzgledu na objekcje nvidii), i jak im idzie z nowym procesem tj. 40 nm - gt210, 220 to pierwsze karty w tym procesie. przypomina sie troche sytuacja z roku 2000, kiedy male i tanie chipy nvidii i ati zniszczyly czolg jakim mialo byc voodoo 6000 - co doprowadzilo do przejecia 3dfx przez wlasnie nvidie.... mozliwe ze za jakis czas duzy blue chip jak ibm albo wlasnie jakis apple polakomi sie na nvidie... nvidia ma teraz troche kiepska sytuacje ze wzgledu na brak procesora, amd ma procki i karty graficzne, ma chipsety i praktycznie moze budowac cale komputery - vide fusion. intel ma super procki i kiepskie karty graficzne, ale kolejne iteracje larabee zdaja sie przyblizac intela do jakiejs tam platformy graficznej. nvidia ma tylko gpu stad tez wszystkie te proby CUDA, cGPU itd... tu jest kilka artykulow ktorymi sie posilkowalem: http://www.brightsideofnews.com/news/2009/10/15/jen-hsun-huang-pulls-a-180-degree-turn-in-100-days.aspx http://www.tomsguide.com/us/Intel-Sony-PlayStation-Nvidia,news-3442.html http://www.bit-tech.net/news/hardware/2009/10/03/fermi-card-on-stage-wasn-t-real/1 http://www.semiaccurate.com/2009/09/15/nvidia-gt300-yeilds-under-2/ http://www.theinquirer.net/inquirer/news/1050052/nvidia-chips-show-underfill-problems PS: openCL jest standardem programowania na maszyny rownolegle, nie tylko na karty graficzne (w przeciwienstwie do CUDow), tym samym uderza w duzo wiekszy rynek aplikacji rownoleglych na cpu PS2: hehe... widze koledzy po fachu... prenumeruje CACM'a (tj przysylaja mi z czlonkowstwa w ACM'ie :) )
-
Ram-ecc
ja mam ecc / registered bo opterony socket F z tego korzystaja. Wydaje mi sie ze nie wymienisz zwyklego ddr'a na ddr ecc/reg (jesli do tej pory nie miales, to pewno platforma nie wspierala), bo to sprawa kontrolera pamieci ( w amd i nehalemach w procku ) lub chipsetu ( w starych intelach ). lepiej wymien walnieta kosc, albo sprawdz czy nie da sie stabilnosci podciagnac lepszym ustawieniem napiecia itd... hmm... kilka tysiecy bledow pamieci na minute? nie mylisz z 'bledami stronnicowania' ? czy testowales jakimis memtestami ?
-
3ds Max - Tips & Tricks (Bez zadawania pytań)
Mały trick dla ludzi ktorzy renderując cos na swojej maszynie chcieliby rownoczesnie korzystać z niej interaktywnie. Pomimo zmniejszania priorytetu procesu 3dsmax.exe odczuwamy laga na klawiaturze i na myszy. Spowodowane jest to tym iz przetwarzanie zdarzen GUI w windzie jest jednowatkowe i zamulony proces maxa mimo iz na chlopski rozum nie powinien zajmowac sie gui tylko renderowaniem jest caly czas dla systemu interaktywny. Aby zrzucic maxa calkowicie do tla robimy taki trick, zakladamy nowego uzytkownika na komputerze, switchujemy na niego, odpalamy maxa, renderujemy przelaczamy sie spowrotem (switch to user) na 'interaktywnego' uzytkownika i... voila! 3dsmax jako proces uzytkownika pracujacego w tle nie zamula nam GUI windowsow. Oczywiscie mozemy sobie tez ustawic affinity i priorytety dla procesu maxa dzialajacego w tle (i np odpalic drugiego maxa na ktorym w tym samym czasie modelujemy....)
-
FRYBENCH - render benchmark
2 x opteron 2350 - 2ghz, 8 gb ddr2 667 ecc/reg 9:50
-
Prośba o pomoc w wyborze karty
re: up Ano racja, wiec moze to nie taki zly wybor.
-
Prośba o pomoc w wyborze karty
Caly swiat o tym trabi :) Grubsza sprawa, po prostu zeby konkurowac z nowymi radeonami nvidia musialaby dumpowac swoje ceny (tracic na kazdej sprzedanej sztuce). Poszli wiec po rozum do glowy i wycofali modele do ktorych musieliby doplacac. Do momentu kiedy wyrampuje sie gf100 (czyli to co sie popularnie nazywa gt300) - czyli gdzies po pierwszym kwartale 2010 nvidia nie bedzie miala raczej czym powalczyc w rynkach high i mid-range. Zostaje gtx295 ale on jest drogi, goracy i niewiele sztuk pojawia sie na rynku. gtx 260 niby tak... ale to juz dwie generacje starszy proces... 65nm vs 55nm (gtx275) vs 40 nm (hd5000)... edit, zrodla: http://www.fudzilla.com/content/view/15919/1/ http://www.semiaccurate.com/2009/10/06/nvidia-kills-gtx285-gtx275-gtx260-abandons-mid-and-high-end-market/ male sprostowanie: kanal dystrybucyjny nvidii oglosil... czyli producenci kart, nie sama nvidia
-
Prośba o pomoc w wyborze karty
Polecam radka HD5750, kosztuje okolo 500 zl, najnowszy proces, dx11, opengl 3, ja wlasnie czekam az mi przysla HD5870. Wada... trudno go dostac, no i ma cene z premiery, wiec placi sie troche wiecej. Z drugiej strony 500 zl to troche przesada jesli chcesz robic tylko 2d (i nie grasz w gry komputerowe), choc jesli sie nie myle to adobe w swoim sofcie korzysta z akceleracji na gpu. Z nvidii to jeszcze warto gtx275, spoko karta, ale trzeba sie spieszyc bo wlasnie nvidia oglosila koniec linii: gtx260, gtx275, gtx285... Wada jest niestety cena: kolo 800 zl. Zapomnij o serii 9x00 albo tych niby nowych gts2x0, to pic na wode fotomontaz 3 letnie karty ze zmienionymi nazwami :) 9800/gts250 zupelnie sie nie oplaca - porownujac z hd5750 9600 ma calkiem atrakcyjna cene 300 zl - to moj drugi wybor (z koniecznosci ciecia kosztow) Nvidie pokaze cos ciekawego dopiero jak pojawi sie Fermi IMHO, choc szacujac po rozmiarze kosci i uzysku z wafla :) to moze byc drogi na poczatku.
- Polski konkurs kreatywny Adobe rozstrzygnięty
-
3Ds Max - test FPS kart graficznych.
Czolem, Sorki ze sie wetne ale bez sensu ten test. 3ds max jest aplikacja ograniczona przez cpu a nie gpu i taka scena za ch...iny nie pokaze skalowania gpu. Moja karta (4870 1gb, 8 x 2ghz opteron) miala jakies 130 fpsow w pierwszym tescie na rozdzielczosci: 1920x1200 ... i 1280 x 1024 i 800 x 600... slabo... zrobilem drugi test 1.5 fps ... tez slabo... odpalilem PIX'a (debbuger direct x) i co widze? uzycie karty graficznej na poziomie troche ponizej 2% :) Przepialem kompa do renderowania (zintegrowana na plycie karta radeon 3300 i procek 3.2 ghz) i wyniki: 100 w pierwszym tescie 2.5 fps w drugim tescie. Ale PIX pokazuje 100% uzycia karty graficznej, dopiero przy takiej slabej karcie przy 1900 x 1200 karta byla elementem ograniczajacym wydajnosc wyswietlania w viewporcie. Jaki z tego wniosek ? Max jest aplikacja ograniczona przez cpu (co w sumie jest wiadome od wielu lat), pare slow komentarza: Directx9 vs Directx10 vs opengl Directx jest api duzo lepiej ustandaryzowanym (niestety) i wygodniejszym w obsludze niz opengl (opengl... przynajmniej w wersjach do 2.0 to eklektyczny zbitek standardow, rozszerzen itd wprowadzanych przez rozne firmy - co moim zdaniem odstrasza ceniacych swoj czas programistow m.in. mnie :) ). Oba te interfejsy programistyczne mieszcza sie miedzy aplikacja a sterownikiem karty graficznej. Karta graficzna to takie urzadzenie ktore ma stan. Modyfikacje stanu pozwalaja kontrolowac w jaki sposob wyswietlany jest obraz... przyklad stanu: macierz przeksztalcenia swiata, macierz perspektywy, ustawienia mgly, tekstura w kanale 0, tekstura w kanale n, podpiety bufor wierzcholkow, podpiety bufor indeksow, aktualnie ustawiony pixel shader, aktualnie ustawiony vertex shader, aktualnie ustawiona dziesiata zmienna aktualnie ustawionego pixel shadera.. itd itp... nie sklamie jesli powiem ze na karcie zgodnej z dx9c jest z 500 parametrow kontrolujacych jak wyswietlany ma byc trojkat (choc najczesciej korzysta sie moze z 50 najwazniejszych). Wada dx9 jest to ze zmiany stanow sa... baardzo wolne... opengl w pojedynczych instrukcjach (wywolaniach api) jest do 10 razy szybszy.. jest to po prostu duzo lzejsze api.. byc moze jest to zwiazane z postacia directx (jest to com'owy standard, duzo narzutu na zarzadzanie kodem) a moze po prostu opengl posiada lepsza granulacje swoich funkcji. Dlaczego wiec tak popularne stalo sie directx kosztem opengl? coz... microsoft okazal sie bardzo dobrym graczem na tym rynku i zlapal za morde swoje api. directx rozwijal sie bardzo regularnie (teraz wychodzi 27 rewizja od 1995 roku, czyli praktycznie dwie co rok, nie liczac wydan z bugfixami i niewielkimi poprawkami), jest dobrze ustandaryzowany (co jest bardzo wazne dla developerow) no i przez to ze directx jest wlasnoscia microsoftu i microsoft decyduje co tam sie ma znalezc jest lewar na producentow sprzetu multimedialnego by api bylo jednolite. Po drugiej stronie komitet opengl (khronos) obraduje, obraduje, obraduje... od 1992 roku kiedy SGI zaproponowalo openGL doczekalismy sie z 7 istotnych rewizji standardu (1, 1.1, 1.2, (pierdoly 1.3 1.4), 1.5, 2.0, 2.1, i teraz .3 (3.1, 3.2 sa w planach). A jak wiemy sprzet do 3d rozwija sie od parunastu lat w zastraszajacym tempie, producenci nie czekajac na khronosa zaczeli wydawac swoje rozszerzenia do standardow: obsluge shaderow (ilez lat trzeba bylo czekac aby shadery weszly do openGL), obsluge kompresji obrazu, obsluge vertex bufferow itd itp... aby utrzymac kod ktory: a) oferowal bajery wspierane przez nowe karty, b) obslugiwal wszystkich (lub najwazniejszych) producentow - trzeba bylo niestety korzystac z rozszerzen openGL, co nie bylo ani mile ani latwe (wyobrazacie sobie api tworzone przez x firm rownolegle). Miedzy innymi tak wazna jest teraz w swiecie stacji roboczych i kart graficznych dla stacji roboczych tzw. certyfikacja sprzetu i oprogramowania :) . Dopiero directX 10 wprowadzil instytucje przelaczalnych stanow (tzn definiujemy np 10 stanow ktore szybko mozemy przelaczac) ktora wreszcie dziala jak powinna (we wczesniejszych wersjach tez byly narzedzia do grupowania zmian stanow, ale dzialaly po prostu jako listy wywolan zmian stanow, nie dajac poprawy wydajnosci - po prostu mozna bylo nagrac takie jakby 'makro' i je odpalic). Direct10 jest duzo lzejszy niz 9c co dobrze rokuje na przyszlosc. Ale wrocmy do zagadki dlaczego max jest ograniczony przez cpu. Batching W najprostszym przypadku wyswietlenie 1000 obiektow wyglada tak: dla kazdego obiektu ustaw teksture diff ustaw texture norm ustaw texture ao ... ustaw macierz swiata ustaw w pixel shaderze wartosc zmiennej self illumination na 0.5 ustaw w vertex shaderze wartosc zmiennej macierz swiata na xyzwxyzw... ustaw bleblelbe .... wyrysuj mesha wg. indeksow 1001...2000 z bufora wierzcholkow 1....1000 i zastanowmy sie ile operacji mozna zaoszczedzic odpowiednio grupujac obiekty. np jezeli mamy dwie tekstury A i B to moze sie zdarzyc ze zly porzadek obiektow wymusi czeste zmiany tekstur (tyle ile obiektow): A B A B A B ... grupujac obiekty: A A A A A ... A B B B B B ... B wystarcza nam dwie zmiany tekstur. Oczywiscie w wypadku gdy parametrow jest kilkadziesiat (tekstury, zmienne shaderow, shadery, bufory wierzcholkow itd) takie grupowanie nie jest latwe (czesto grupujac po jednym parametrze, rozgrupowywujemy po drugim) i stanowi nie lada problem algorytmiczny. Przyklad... do jednego projektu tworzonego na bazie napisanego przeze mnie silnika potrzebowalismy szybko skladac 'poziomy' z prefabow... czas gonil (a nie mielismy jeszcze dedykowanego edytora) postanowilismy napisac proste narzedzia jako pluginy do maxa (i to byl blad). Przykladowy poziom 5 milionow trojkatow, 10 tekstur w atlasach, 3000 obiektow zreferencjonowanych z 200 prefabow. Predkosc w maxie z flatem z kamery 2 fps... predkosc w silniku (z ao, dynamicznymi swiatlami i cieniami, z kilkoma oszkieletowanymi postaciami z dziesiatkami tysiecy czasteczkowych zdzbel trawy, dymem i ogniem) - 130 fps. Skad taka roznica ? Zdebugowalem maxa i wlasnie okazalo sie ze zmiany stanow sa wykonywane bez jakiegokolwiek batchowania (grupowania), dodatkowo debug pokazal ze max korzysta z biblioteki D3DX (to jest taka biblioteka pomocnicza) i ich implementacji D3DXMesh itd... ktore moze sa niezle napisane itd... ale to implementacja biblioteczna ktora raczej sluzy szybkiemu prototypowaniu i nauce niz umieszczeniu w programie za 5000$ za licencje. (Gwoli wyjasnienia silnik oczywiscie usuwa niewidziane obiekty (system portali itd.. )tak wiec w grze bylo troche mniej polycountu ale podobnego rzedu (np 1 mln z 5 mln) co nie tlumaczy drastycznego spadku wydajnosci) Polycount Jeden gosc ktory przyszedl do nas pracowac (low poly) bardzo chcial optymalizowac modele (walczyc o kazdy trojkat). Troche sie zdziwil kiedy mu powiedzialem zeby dla modeli ponizej 2000 trojkatow nie myslal polycountem tylko fillratem (czyli jaki duzy bedzie obiekt na ekranie a nie ile ma trojkatow). Skad taka rada ? Otoz, wbrew intuicji, obiekty malutkie (w ilosci trojkatow) i male (w ilosci trojkatow) o takim samym rozmiarze renderuja sie.... tak samo szybko... skad taki paradoks ? Trzeba myslec o komputerze z karta graficzna jako o dwoch rownoleglych procesorach. Komunikuja sie one np. przez api (dx, opengl), sterownik, pozniej przez DMA, po szynie danych (pciE). Karta graficzna ma swoja 'kolejke' zadan do wykonania. Teraz program przy pomocy api wydaje polecenie: wyrysuj obiekt ABC. Co sie dzieje? Zaczyna dzialac implementacja API, ktora komunikuje sie ze sterownikiem karty, laduje dane do pamieci DMA, ta jest kopiowana na karte graficzna do pamieci karty, trafia na kolejke. Jesli karta byla wolna - zaczyna renderowac, jesli nie, zacznie renderowac kiedy wykona poprzednie zadania. I teraz zalozmy ze wydanie polecenia trwa 1/100 sekundy (api, sterownik, pamiec, szyna) co sie dzieje jesli wysylamy paczki danych (zadania) ktorych wykonanie trwa 1/1000 sekundy? Zasymulujmy: wysylamy paczke procesor dziala 1/100 sekundy, paczka trafia na karte graficzna i zaczyna sie rendering. Rownoczesnie procesor zaczyna wysylac kolejna paczke, po 1/1000 karta graficzna skonczyla rysowac wczesniejsza paczke, ale procesor dopiero jest w 10% wysylania drugiej... przez kolejne 9/1000 karta graficzna sie nudzi... 90% czasu! Przetestowalem swoj silnik pod katem pustego przebiegu... Da sie zauwazyc iz ponizej pewnego progu (np dla moich standardowych shaderow diff + ao + norm) nie oplaca mi sie wysylac obiektu mniejszego niz 2000 trojkatow. Jest to norma we wspolczesnych silnikach do gier. w maxie w ktorym narzut na cpu co klatke jest duuuzo wiekszy ( przeciez dziala rownoczesnie piecdziesiat innych systemow ktore buduja maxa ) tym samym granica przy ktorej gpu jest wykorzystane w pelni (i tym samym ogranicza system) jest duuuzo wyzej. 3ds max - cudo architektury Po roku pisania pluginow do maxa moge swiadomie stwierdzic, dawno nie widzialem takiego G! Api maxa wyglada jak narosl na narosli na narosli na narosli. Tworcy maxa wybrali znow przeklety COM i tym samym zapewnili sobie wakacje w piekle programistow, w kodzie 2009 znajduja sie miejsca nie zmienione od maxa 2.5, architektura jest przejrzysta jak spaghetti, a kod narzedzi (czesc narzedzi ktore uzywacie na codzien w maxie jest udostepniona w SDK w postaci kodu zrodlowego - niby dla nauki, a moim zdaniem dla przestrogi) pisany jest przez troglodytow (bez ladu i skladu, copy & paste to najczestszy wzorzec projektowy). System jest archaiczny. Dziwie sie ze autodesk nie zrobil 'resetu' kodu juz jakis czas temu, zwlaszcza patrzac na to jak wylaszczylo sie np XSI. uff... ale tyrada, mam nadzieje ze sie wam spodoba i wyjasni troche mitow ktore narosly w okol maxa, kart graficznych itd...
-
Procek ile bit??
Czolem, Wszystkie Quady Intela sa 64 bitowe. Mozesz sie upewnic uruchamiajac np: http://www.cpuid.com/cpuz.php
-
24' wybór monitora do 3 tys
czolem, mamy nec'e 2470wnx. Swojego uzywam juz poltora roku. Caly czas zero pixeli trzasnietych. Popieram przedmowce, rowno podswietlony ekran, super ostrosc, katy. Pech ze troche ostatnio podrozal, ja go bralem za 2500 brutto teraz jakos ponizej 3000 nie widzialem.
-
zestaw do sprawdzenia
Jak juz bierzesz procka pod AM3, to nie lepiej wydac 200 zl wiecej na plyte AM3 (biorac pod uwage ze to ma byc jeszcze przez jakis czas desktopowa podstawka amd). Ja uzywam m.in. takiej: http://www.asrock.com/mb/overview.asp?Model=M3A790GXH/128M pamiec 2x2gb ddr3 nie powinna byc drozsza niz te ddr2 ktore wybrales. a co do opinii to u nas sprzet spisuje sie w porzadku, pII 955, te (a)sroki, 8gb ddr3. Trzeba bylo jednak przeflashowac bios aby rozpoznal pII955, kwestia tego czy partia plyt jest w miare swieza.
-
Phenom 2 x4 940 widzi tylko 1 rdzen
Czolem, mi phenoma II 955 do momentu aktualizacji biosu system rozpoznawal jako 4 x 800 mhz. na jakiej plycie go montowales ?
-
i7 czy Core2? I nie tylko.
Pamietaj tylko ze zasilacze maja skutecznosc zazwyczaj 75-85%. Czyli z nominalnego 500W robi się skuteczne 375-425W. Rzecz jasna im bardziej ekologiczny zasilacz tym skutecznosc wyzsza.
-
Jaki komputer do maxa do 2700 PLN?
Poprawka, intele mamy q8200 czyli 2.33. Roznica jest duza. Puszcze jutro jakies scenki ale z glowy jak szly porownywalne klatki to zdarzalo sie: 2 x opteron 2350 (8x2ghz) ~ 50 sekund 1 x p2 955 (4x3.2ghz) ~ 55 sekund 1 x q8300 (4x2.33ghz) ~ 80 sekund Farma trudno to nazwac, bo w sumie sa tam 4 kompy. Nie maja grafiki (poza zintegrowana), przez vnc tylko je obslugujemy, bzycza sobie pod biurkiem. Jak masz jakas scenke do testow to wystaw, moge zobaczyc.
-
Jaki komputer do maxa do 2700 PLN?
czolem, Polecam phenoma II 955, mamy teraz pudelka z takim prockiem + 8 gb ddr3, renderuja 24 h na dobe i spisuja sie bardzo dobrze. Jesli dobrze pamitam gdzies juz wklejalem cinebencha wyniki kolo 13000. Renderujemy ostatnio dluzsza animacje i w porownaniu z innymi prockami ktore mamy: q8300, maja miazdzaca przewage. Jeden procek pII 955, wypada prawie tak szybko jak moje dwa opterony 2 x 4 x 2ghz. A przy okazji sprzet byl calkiem tani: pII 955 ~ 1000 zl plyta AM3 asrock M3A790GXH - 420 zl (bardzo fajna plytka, chip 790gx, wbudowana karta graficzna, ddr3 itd...) ram 2 x 2 x 2gb 1333 ddr3 ~ 400 zl hdd jakistam, obudowa, winda dodasz karte za 400 zl - jakies 9600gt, albo radeona 4770 i bedzie git. praktycznie w kazdym sensownym sklepie ci zloza komputer jesli tego zazadasz. ( w Krakowie jak nie mialem czasu to skladali mi w bit'cie, w Apollo i nie bylo problemu )
-
Jaki komp do renderingu
czolem, ostatnio z arturrem kupilismy kompy na koncowki do renderowania, wybralismy: phenom II 955 8 gb ddr3 1333 2x2x2gb kingstony asrock m3a790gxh plytka glowna 790gx + sb750 z wbudowana grafa hdd jakies niewazne 250 gb obudowa + zasilacz 500W cena brutto: 2300 za sztuke + 300 na viste home basic 64 up: na 3.2 ghz - Cinebench single: 3492, multi: 13376 polecam na tania maszynke, dorzucic wystarczy jakas grafike i spoko komp.
-
Poradnik Freelancera - co i jak
no ale uzywajac wbudowanego mentala masz ograniczenie do 8 cpu na satelitach, bez ograniczen jest tylko maxowy scanline.
-
zestaw do grafiki 2d
sprawa jest taka (wbrew powszechnym opiniom), 32 bitowy system jest w stanie zaadresowac 4 gb pamieci, problem jest taki ze pamiec systemowa (wirtualna) jest dzielona na kernel i user space po 2 gb, tak wiec zaden proces nie moze uzywac wiecej niz 2 gb wlasnej wirtualnej przestrzeni adresowej. Zeby sobie z tym poradzic mozna sterowac podzialem kernel/user space (4-GT http://msdn.microsoft.com/en-us/library/bb613473(VS.85).aspx ) albo wlaczyc PAE (physical address extension) ktore wprowadza udawane 64 bitowe adresowanie (http://msdn.microsoft.com/en-us/library/aa366796.aspx)
-
zestaw do grafiki 2d
Czolem, Wziales za malo ramu moim zdaniem, a niepotrzebnie quada - zwlaszcza ze to najslabszy quad, w 2d duzo lepiej wyjdziesz z szybkim dwurdzeniowcem. Zbij z 200 zl na procesorze i wez core duo, zaoszczedzona kase wydaj na 4gb value ramu - kosztuje ze 170 zl. Albo jesli musisz zmiescic sie w tej sumie to sprobuj, jakas plyte na am2+ z chipem 780g (zintegrowany gfx duzo lepszy niz 7050) - 350 zl, procka amd phenom x3 (3 rdzenie, no ale krol predkosci to to nie jest) - 2.3ghz kupisz za 350-400 zl, no i za zaoszczedzona kase 4 gb ramu. Procesorem jestes troche do tylu wydajnosciowo, ale karta graficzna i pamiecia duzo do przodu
-
Farma renderująca
hmm. jesli mnie pamiec nie myli, mental raya standalone sie sprzedaje na watki a nie na cpu (tzn 4 rdzeniowiec potrzebuje 4 licencji).... edit: poprawka, standalone jest na cpu ... a licencja maxa standardowa (max 2009) pozwala renderowac na 8 dodatkowych procesorach (poza 4 ktore maxymalnie mozesz miec w tym 'glownym' kompie). Te procki moga miec badz ile rdzeni... wazne zeby bylo 8 socketow. Tak wiec na 16 jednordzeniowych kompow wystarcza ci 2 maxy, choc to bedzie marnotrawstwo, taniej kupic dobry sprzet i miec 8 mocnych satelitow. Bezdyskowe kompy licza sie jako zwykle kompy z punktu widzenia licencji, ale juz przy kilku mozliwosc scentralizowanego zarzadzania (robisz sobie image startowy na serwerze, na kazdym kompie masz to samo, 'reinstalka' trwa minute - bo nie ma co reinstalowac :) ) no i zysk wydajnosci wynikajacy z wyeliminowania dyskow twardych sa warte zachodu. Jako przyklad, w nowym budynku wydzialu matematyki i informatyki uj jest kolo 350 desktopow dla pracownikow i studentow - zaden nie ma dysku :). w serwerowni siedza z 4 szesnastordzeniowy maszynki, kazda ma 64 gb ramu i podpiete sa do jakiegos duzego SAN'a. wszystkie dane: dyski pracownikow, studentow, poczta, obrazy systemow operacyjnych sa na tych serwerach, kompy sa spiete gigabitowa siecia i bardzo drogimi switchami (no ale tam jest 350 kompow, do domu wystarczy troche lepszy niz najtanszy :) ). kazdy pracownik/student ma swoj dysk i moze bootowac sie na kazdym kompie z systemu jaki sobie wybierze... sa rozne rodzaje linuxow do wyboru do koloru, jakis win/novell. jak ktos chce to moze sobie zrobic nowy image wrzucic go na serwer i bootowac sie z macosa/amigaosa/beosa... czego tam chce w calym budynku, jak user cos spieprzy wybiera sobie standardowy image, jak trzeba zainstalowac nowego firefoxa na calej uczelni, admin musi zmienic jeden obraz na dysku.