Zawartość dodana przez Skoti
-
Blender 2.63
Nie słychać "głosu programisty" tylko "głos matematyka" i byłoby głupotą jeśli by go słychać nie było w programach opierających wszystko o algebrę, geometrię analityczną, matematykę dyskretną i elementy analizy. Ale to nie jest widzimisię programisty i jego język - a przynajmniej nie bardziej niż język grafika pracującego w 3D i zmiana nazw na bardziej przystępne dla osoby nie związanej z grafiką to żaden grafik nie będzie chciał tego używać. Przykładowo zamiast Catmull-Clark nazwijmy "wygładzanie" to jak nazwiemy NURBS? "Wygładzanie 2", a Doo-Sabin wygładzanie 3? Dodatkowo przerzuć to do innego programu czy też renderera, który sam zagęszcza siatkę i inaczej nazywa lub inny algorytm stosuje to się wszystko rozleci. Matematyka (i jej konwencje nazywania rzeczy od nazwiska twórcy rozwiązania) to część grafiki komputerowej, która sama w sobie jest czystą matematyką. Gdyby programista chciał zmienić nazwy Blinn, Phong, Cook–Torrance, Oren–Nayar, Lambert, Fresnel czy Normalna na "bardziej przyjazne" to graficy go za jaja powiesili. Graficy często posługują się bardzo precyzyjnym fachowym językiem opisu problemów przykładowo problem Gimbal lock przy obrotach za pomocą kątów Eulera, a to programiści nie mają pojęcia o co chodzi, chyba, że też zajmują się grafiką i znają Geometria analityczna, a rozwiązanie problemu przychodzi dopiero kiedy znają algebrę i znają kwaterniony, których problem nie dotyczy. PS. Nie rozumiem co tu ma wikipedia do rzeczy?
-
Blender 2.63
@mandragora: czyli proponują po wymodelowaniu select -> by num of vert -> więcej niż 4 -> triangulate faces? Przecież to zepsuje całą siatkę jak i tak trzeba będzie wszystko poprawiać i będzie gorzej niż z samymi ngonami. Ja tam wolę mieć jednak cały czas kontrolę nad siatką w takiej formie jaką chce zostawić ją ostatecznie, a nie robić półśrodek jakim jest ngon, a później tracić wiele więcej czasu na poprawę siatki, OFC nie mam nic przeciwko ngonowi jako płaskiej powierzchni, bo nawet automatyczna triangulacja mu nic nie zepsuje, ale krzywizny i ngony jak dla mnie odpadają. @ikkiz: to mnie zabiłeś tymi przykładami terminologii i przypięcie tego do programistów oraz utrzymywanie, że w innych aplikacjach jest inaczej. To nie jest terminologia programistyczna tylko matematyczna i stosuje ją każdy program do grafiki 3D, bo te programy korzystają z rozwiązań matematycznych. - Subdivision surface to najdokładniejsze określenie czynności jaką wykonuje (podział powierzchni) i odpowiedniki w innych programach prawie zawsze się tak nazywają - zaokrąglanie nie należy do kompetencji Subdivision surface, a już do metody interpolacji podzielonej siatki (ustawisz simple to będzie tak samo kwadratowy jak był tylko podzieli siatki i da nowe wierzchołki na środku dawnych krawędzi). - Catmull-clark to nazwa sposobu interpolacji od nazwisk twórców tego sposobu, i też nigdzie nie jest ukrywana ta nazwa (chyba, że dany program nie ma zaimplementowanej interpolacji powierzchni catmull-clark). Nie zauważyłem też, żeby jakikolwiek program dla marketingu zmieniał inne nazwy interpolacyjnych algorytmów jak B-spline, Béziera, NURBS (Non Uniform Rational B-splines), normalna, tangent, binormalna (Tangent Space - czyli przestrzeń tworzona przez wektory prostopadłe normal, tangent, binormal stosowana przykładowo w normal mapach) to wszystko nazwy stosowane w matematyce i żaden program z nich nie rezygnuje i nikt nawet nie myśli o ukrywaniu takich nazw które są bardzo pomocne.
-
Blender 2.63
Ja mam tak samo jak oglądam filmy promocyjne nowych maxów i ich nowych narzędzi, bo praktycznie wszystkie nowinki w nowych maxach to rzeczy dostępne w blenderze od lat. W bmesh nie masz widzieć nic nadzyczajnego, ani nawet w nim nie są ważne ngony, bo to usprawnienie nie dla grafików, a dla programistów - stary kod był ciężki do utrzymania i rozwoju od strony programistycznej i bmesh zastąpił go po to, żeby można było łatwiej i szybciej robić robić nowe narzędzia w przyszłości. Wydanie 2.63 zostało specjalnie oddzielone od nowych możliwości i narzędzi i skupia się tylko na Bmesh odwlekając wejście gotowych już jakiś czas temu narzędzi na 2.64. Powód jest prosty i polega na maksymalnym skupieniu na nowym jądrze modelowania czyli nowego systemu zarządzania i przechowywania siatki (BMesh to nie nowinka która ma oczarowywać możliwościami, a jest wymianą tego co było, na nowo zaprojektowane, ale funkcjonalnie tożsame), oraz podstawowych narzędziach, żeby każde zgłoszenie o bugu było łatwe do zweryfikowania i było jasne, że to błąd w Bmesh który umknął programistą przez ostatnie miesiące i użytkownikom wersji deweloperskich, testowych i RC, a nie w 10 innych nowinkach. Twórcy blendera wybrali taki rozwój, żeby w kolejnych etapach mieć pewność, że jeden z podstawowych elementów programu jest stabilny tak, żeby można było na tej nowej podstawie robić coś więcej.
-
Wirtualne Muzea Podkarpacia
@ptrojan: Tak BTW, Muzeum Okręgowe w Rzeszowie za chwilę może być nieaktualne (przenoszą się o kilkaset metrów do obecnego budynku Sądu Okręgowego, a obecny budynek Muzeum Okręgowego chce przejąć Kuria Diecezjalna i przenieść tam swoje Muzeum Diecezjalne), więc możliwe, że aktualizacja będzie potrzebna ;p. http://www.nowiny24.pl/apps/pbcs.dll/article?AID=/20120323/RZESZOW/120329861
-
Wirtualne Muzea Podkarpacia
Bardzo mi się podoba, a szczególnie Muzeum Okręgowe w Rzeszowie... bo przypomniałem sobie jak wyglądały niektóre, klasy w moim liceum (1LO w Rzeszowie założone w 1658 (od tego czasu w takim budynku) mieszczące się w bliźniaczym budynku do muzeum). Ba, ja nawet gdzieś mam płytkę z kopią strony z mniej więcej tego okresu (net miałem modemowy, więc nie chciałem spędzać godzin w sieci i zrobiłem kopie za pomocą HTTrack Website Copier ;p).
-
Nowe układy graficzne GeForce oparte na architekturze Kepler
@Matuzalem: Możesz mi powiedzieć gdzie napisałem, że OpenCL nie można użyć z D3D (inna sprawa, że współdzielenie danych z DX weszło dopiero od OpenCL 1.2, a wcześniej były tylko rozszerzenia Nvidii nie wspierane przez AMD). DirectCompute jest częścią DX 11 i według Microsoftu może on działać tylko na kartach kompatybilnych z DX11. Nvidia trochę tu wychodzi przed szereg i daje sterowniki umożliwiające działanie na kartach z DX10 (bo wszystkie karty Nvidii z DX10 czyli od serii 8k wyczerpują wymagania DC). U AMD jest inaczej i możesz korzystać z DX compute tylko na urządzeniach DX11 (częściowo to ze względu na sprzęt, bo karty z DX10 HD2k i HD3k nie pozwalały na obliczenia, a HD4k mają spore ograniczenia jak chociażby brak lokalnej pamięci i emulują ją w globalnej w OpenCL, czego nie mogą robić w DC). @SYmek: Kepler to ma być GK100 tak jak Fermi było GF100, a to co jest w 680 to GK104 czyli następca GF104 który był w Geforce 460. GK104 był przymierzany na 660/670, ale słaba wydajność w grach konkurencji (7970) doprowadziła do zmiany targetu i ze średniego segmentu podniesiono cenę i oznaczenie do hi-endu czyli 680 (bo wolniejszy 7970 to hi-end z wysoką ceną to i 680 może taki być i zarobić więcej na każdej karcie), a pełny kepler który miał być 680 przeniesiony został do 780 w Q3 tego roku (i ma mieć ponad 2 tysiące rdzeni).
-
Nowe układy graficzne GeForce oparte na architekturze Kepler
@scyguo: też uważam, że powinieneś tak zrobić (poczekać na testy), tym bardziej, że szkoda przepłacać za Kepler kiedy zapewne będzie wolniejszy od Fermi w obliczeniach jak rendering (w testach wydajności raw jak sandra będzie kepler lepszy, ale to tak jak Radeon 5k był szybszy - wydajność raw, a poważniejsze obliczenia jak rendering/fizyka to 2 zupełnie odmienne sprawy). PS. właśnie sprawdziłem i jednak (od wczoraj) jest nowe SDK 4.2 w wersji RC, ale z tego co zdążyłem wyczytać to 4.1 z 680 działa (o ile nie próbuje program na siłę wciskać wersji pobranej ze sterowników które mówią o CUDA 3.0 (dziwne, bo na http://developer.nvidia.com/cuda-gpus 680 ma Compute Capability na poziomie 2.1 ;p)), a nowe SDK 4.2 przy kompilacji do CC 3.0 sypie się i nie chce działać (więc lepiej użyć 4.1 i podać karcie wersję CC 2.1 lub poczekać na aktualizację sterowników (bo w tej chwili się nie chwalą obsługą 2.1 i wcześniejszych (mimo, że podobno je łykają i programy w CUDA działają (niefart, że Octane i Cycles sprawdzają obsługiwane wersje jak należy ;p)))).
-
Nowe układy graficzne GeForce oparte na architekturze Kepler
@scyguo: Wątpię, że chodzi o nowe SDK, bo najnowsze wyszło niecałe 2 tygodnie temu, a nowszego nie ma nawet dostępnego w wersji beta dla zarejestrowanych programistów. Tym bardziej nie o to chodzi, bo Kepler wykonuje kod CUDA 2.1 (taki jak w 460/560 i niższych), więc jeśli kod produkowany przez kompilator w SDK działa dla 460 to będzie też dla Keplera. Problemem jest raczej tu nie SDK, a sterowniki i potrzeba po prostu poczekać na nowsze wydanie sterowników (lub przetestować na innych bo dla Windowsa już jest chyba 3x wersje sterowników dla Keplera - 301.10, 300.99 i przynajmniej jedna inna wersja dodawana do kart przedpremierowo, które bardzo możliwe dostali z kartą twórcy Octane)
-
Nowe układy graficzne GeForce oparte na architekturze Kepler
Ciebie, bo zamiast pisać standardowe i nic nie mówiące "dziwne... u mnie działa", wystarczyło napisać jak ma ustawić ;].
-
Nowe układy graficzne GeForce oparte na architekturze Kepler
@comander_barnik: PhysX sam nie powinien - PhysX daje możliwość obliczeń na CPU i GPU, ale to programiści aplikacji (w tym wypadku rayfire) decydują co gdzie i jak się ma liczyć, a na stronie rayfire nie widziałem informacji o wsparciu dla GPU z ich strony, więc wykorzystanie PhysX tu nie pomoże. @Creator: Zamiast dziwić się podaj jak skonfigurowane masz te 2 karty - pod linuksem można ustawić to jako MultiGPU, SLI lub brak obsługi 2giej karty (tu zapewne brak konfiguracji i nie obsługuje 2giej wcale), a zarówno MultiGPU jak i SLI można jeszcze dodatkowo konfigurować (czy klatki w OpenGL mają być renderowane pół na jednej karcie, pół na drugiej, czy jedna klatka na jednej, a kolejna na drugiej, czy ma robić mozaikę, czy ma wybrać automatycznie).
-
Nowe układy graficzne GeForce oparte na architekturze Kepler
@Tomala: Prace trwały zapewne więcej niż 6 lat (tak jak teraz już od jakiegoś czasu trwają pracę nad następcą Maxwella (następcy Keplera)). I nie bardzo można to przeliczyć na osoby, bo na początku pracuje kilkanaście/kilkadziesiąt osób i na kolejnych etapach dochodzą kolejne osoby i pod koniec kilkaset osób pracuje (a jak doliczy się marketing i inne działy to jeszcze więcej).
-
Nowy Geforce 680 i mala wydajnosc w open cl
@jacenty: Odpisałem Ci na pytanie w newsie http://www.max3d.pl/forum/showthread.php?t=82710&p=1093846&viewfull=1#post1093846 Szczególnie dobrze wypadają przepustowość pamięci (nie wydajność obliczeń), DC & OpenCL Benchmark 0.45 w OpenCL (prosty liniowy test FFT) i syntetyczne benchmarki Computemark. W takich zastosowaniach 680 czyli prostych liniowych zadańkach będzie zaskakująco dobry, bo ma 2x większą teoretyczną moc obliczeniową niż 580... problem zaczyna się kiedy będziesz chciał użyć jakiegoś użytecznego programu, jak renderera gdzie program nie jest liniowy i zupełnie bez instrukcji warunkowych (jak jest w tych "niektórych benchmarkach").
-
Nowe układy graficzne GeForce oparte na architekturze Kepler
@jacenty: OpenCL to api do obliczeń na różnych urządzeniach i głównie wykorzystywane do obliczeń na GPU (bo dzisiejsze GPU mają wydajność ponad 3 TFLOPS, a 4x rdzeniowe SandyBridge czy konkurencyjne procki od AMD mają wydajność 0.25 TFLOPS). Nie patrz na testy jak Sandra i podobne, bo dla Ciebie zapewne są one bezsensowne - jedynym który może Cię interesować to pierwszy LuxMark jeśli zamierzasz renderować w LuxRender i uzyskać render wielokrotnie szybciej niż na CPU. Co do Max/Maya to jest tam iRay tworzony przez Nvidię (no dobra, przez Mental Images, który jest własnością Nvidii) i on może renderować na GPU... ale w tym wypadku tylko na kartach Nvidii, jednak prawdopodobnie 580 będzie tu lepszym wyborem. Co do innych programów/rendererów w których powinna Cię obchodzić wydajność CUDA/OpenCL to możesz jeszcze korzystać z Indigo, Arion, Blender (renderer Cycles korzysta z CUDA i OpenCL, a dodatkowo zaraz pojawią się nody liczone w OpenCL), ale poza grafiką również fizyka (PhysX liczy na CUDA czy za niedługo Bullet będzie korzystał z OpenCL, więc przyspieszy to wypiekanie fizyki), a jeśli montujesz animację np. w Sony Vegas to też wydajność OpenCL powinna Cię interesować ;]. A jak się to ma do OpenGL? Oba są rozwijane przez Khronos Group i mogą ze sobą się komunikować i przyspieszać w przyszłych wersjach programów działania w Viewporcie lub renderingu (współdzielenie bufforów i tekstur, oraz operacje na siatce bezpośrednio na karcie, bez blokowania CPU). Alternatywą dla OpenCL jest CUDA czy DirectCompute (razem z Direct3D i innymi elementami tworzy DirectX 11 i nowsze).
-
Nowe układy graficzne GeForce oparte na architekturze Kepler
@Nezumi: Testy CUDA wyjdą podobnie względem 580. Nowa arch po prostu bardzo słaba w obliczeniach (Nvidia zrobiła tu przeciwny ruch do tego co AMD w GCN). Co do pamięci to nie do końca rozumiem o co Ci chodzi - więcej pamięci nie przyspiesza renderingu tylko pozwala na większe tekstury, rozdzielczość i siatki - w testach liczy się co najwyżej przepustowość pamięci (tu 680 ma podobnie jak 580 ze względu na wyższe zegary, ale mniejszą szynę, ale przegrywa bardzo z 7970).
-
Nowe układy graficzne GeForce oparte na architekturze Kepler
@RUNNER18: Niższa częstotliwość o 40%-50%, więcej rdzeni upakowane w SIMD, poobcinane schedulery i jeszcze masa innych spraw sprawia, że 768 to znacznie zawyżony odpowiednik i często będzie ustępować nawet 512 rdzeni z 580 w obliczeniach jak: http://media.bestofmicro.com/I/5/331133/original/luxmark.png Ogólnie ta karta to krok wstecz w obliczeniach i nie zmienia tego nawet to, że to powinno być 660, a 680 miał być trochę lepszy chip GK100, który teraz jest planowany na 780 jesienią, jednak główne cechy z GK104 pełnemu Keplerowi zostaną i będzie miał podobne wady tylko mniej odczuwalne.
-
Ulepszony CryEngine 3
@comander_barnik: Tu zupełnie o coś innego chodzi - CryEngine to głównie renderer, ale gry nie powstają bo cała reszta poza modułem renderującym leży. Co z tego, że CryTek wydał swój silnik na konsolę, kiedy niewiele gier na nim powstanie, bo silnik słabo pomaga przy tworzeniu gry poza samą grafiką która jest sprawą drugorzędną. Z tego powodu producenci gier wolą wybrać UE3, bo ma wszystko na bardzo wysokim, równym poziomie co pozwala łatwiej zrobić grę. OFC nie mówię, że żadnych gier nie będzie, bo nawet jedna z polskich firm ma licencje na CryEngine, ale dopóki wszystkich narzędzi nie poprawią to będzie to dalej silnik który powoduje zachwyt u graczy, a niechęć u twórców gier.
-
Wersje Basic Unity 3D iOS i android za darmo!
Oferujące znacznie więcej dla rozpoczynającego przygodę z grami niekomercyjnie UDK, bo ma prawie wszystko czego chcesz, ale licencja z % od zysku jest niezbyt interesująca jeśli chcesz komercyjnie ;p. Nie mówiłem o FC, a o OC i scenach indoor (patrząc w jednym pokoju bez OC rysuje Ci 5 pokoi za ścianą razem z obiektami w nich).
-
Wersje Basic Unity 3D iOS i android za darmo!
Nie wiem jak to działa w Unity (myślałem, że brak GI wiąże się z tym, że Unity ma jakiś swój VFS i tylko edytor potrafi zapisać w nim lightmapy i/lub jest używany jeden kanał koloru na lightmapę przez co nie ma mowy o GI), ale jeśli jest tak jak mówisz to ok. Faktycznie wersja iOS (co jest dla mnie szokiem, bo na Androidzie w grach jest to praktycznie norma) nie obsługuje DR (na Androidzie jak najbardziej działa). OC każda gra potrzebuje nawet jeśli dzieje się w 4rech ścianach (możesz zrobić więcej obiektów i bardziej szczegółową siatkę, bez spadku wydajności, bo tego co nie widać nie będzie liczył). Co do tej listy to wszystkie 8 o których słyszałem i odniosły sukces ;p. W wypadku mobilnych gier puki co nie mówimy wcale o grach AAA ;p. A czy ja mówię, że to coś złego? Tylko piszę, że "To taka wersja demo, która ma zdobyć klientów na wersję Pro. ". Te które które nie są tymi perełkami technicznymi to praktycznie zawsze porty gier które już zdobyły sławę dzięki wyróżnieniom na IGF, dzięki czemu są promowane. Minecraft wchodził już jako sławna gra i był promowany przez Apple czy Google (wchodził już jako sława bo wygrał nagrodę w IGF (festiwal niezależnych gier - tu faktycznie liczy się świetny pomysł, a nie grafika czy aspekty techniczne) co daje samo w sobie sporą promocję).
-
Wersje Basic Unity 3D iOS i android za darmo!
@Nezumi: pomysł się nie sprzeda bo gry sprzedają screeny i video oraz wspieranie przez Apple, Google, Nvidia (strona główna/polecane w Apple AppStore/Google Play/TegraZone), a tu nie tak łatwo jeśli odstaje technicznie. Nawet bardzo dobra gra nie ma szans, bez promocji ze strony wymienionych firm i efektownego wyglądu... za to jest trochę gier które poza efektami nie oferują nic szczególnego i sporo zarabiają. Unity darmowe bardzo zasysa, i jeśli chcesz coś wydać to kupisz i tak Pro (głównym powodem są olbrzymie zyski wydajności i jakości grafiki, oraz niska cena - 3k USD to jak za darmo za silnik (1.5k za Unity Pro + Unity Android/iOS Pro też 1.5k USD)... i o to chodzi, żeby ludzie robili w darmowej, a jak się zorientują jak bardzo jest poobcinany, żeby kupili (bo drożej jest zmienić silnik i robić wszystko od nowa niż kupić Pro)).
-
Wersje Basic Unity 3D iOS i android za darmo!
@arev: Podaj jedną (słownie jedną) grę na iOS i Androida która nie wykorzystuje rzeczy z Pro. Wywalenie takich rzeczy jak: - Lightmapy z GI (wypalone GI na tekstury przez co mamy świetne efekty za darmo (bez dodatkowej mocy obliczeniowej)), - RTT i efekty postprocess (HDR, radial blur etc to standard w dzisiejszych mobilych grach), - Deferred Rendering... pokaż mi grę mobilną dziś która nie korzysta z oświetlenia postprocess (nawet durne proste benchmarki jak GLBenchmark korzystają z Deferred Rendering), - Occlusion Culling - mój faworyt - wywalenie occlusion culling (optymalizacja sceny w drzewie i rysowanie tylko tego co jest widziane) to zabójca wydajności... czyli wychodzi brzydka gra jak kilka lat temu i w dodatku działająca na nowych prockach wolno.
- Wersje Basic Unity 3D iOS i android za darmo!
-
Animacje – nowości i ciekawostki
W Fox jak i całym News Corporation (wszystkie kanały Fox, 20th Century Fox, cała masa prasy itp.) to znają się na narzędziach politycznej indoktrynacji - Rupert Murdoch ogłasza kogo wspiera w danych wyborach w danym kraju i wszystkie należące do niego spółki wmawiają żeby głosować na danego kandydata (najlepsze są debaty w Fox które przed rozpoczęciem mają uzgodnioną puentę).
-
Podgląd modeli 3d w przeglądarce
Zależy jaka karta - najłatwiej to wymiana karty, zainstalowanie nowszej wersji sterowników (jeśli karta obsługuje shadery) czy wymiana przeglądarki (na przykład, Firefox ma większe wymagania od karty i jej sterowników niż Chrome).
-
Podgląd modeli 3d w przeglądarce
Na Firefox i Chrome działa bardzo fajnie, na Opera Next tnie, ale działa... ważne jest też to, dla niektórych to, że działa pod tabletami/smartfonami z Androidem (testowałem tylko z przeglądarką Firefox - Chrome Beta nie testowałem), a w przyszłości i produktach Apple. @Adek: Nie pisz o WebGL, że nie trzeba wtyczek, bo do IE trzeba (wtyczkę która wymienia cały IE na Chrome ;p). Microsoft nie będzie wspierał WebGL bo to im nie jest na rękę, a warto, żeby zainteresowane osoby wiedziały czy zadziała na jednej z najpopularniejszych przeglądarek internetowych (i ostrzegły klientów, że pod IE tylko po zainstalowaniu Chrome Frame). Da się wyciągnąć dane o modelu zawsze jak rendering odbywa się na Twojej karcie graficznej (wystarczy odpalić gDEBugger i widać buffory czyli pozycję wierzchołków, listę poly, normalne, uv, a nawet dostęp do tekstur) - nie wiem czy jest dostęp do OBJ - raczej wątpię bo za dużo miejsca zajmują i są one chyba przechowywane tylko w postaci binarnej z samymi bufforami dla WebGL (z których cały model można odczytać) i jak najbardziej są one do ściągnięcia (jak chcesz mogę Ci podać na priv link przykładowy, żebyś był tego pewien - publicznie nie podam, bo jeszcze komuś ułatwiłbym zdobywanie plików) - są to pliki *.BIN generowane przez https://github.com/alteredq/three.js/blob/master/utils/exporters/convert_obj_three.py i napisanie importera do jakiegokolwiek programu mając eksporter i importer to dla średnio wprawionego programisty minuty... jeśli ktoś będzie chciał skopiować model to możliwość oglądania go z każdej strony jest najmniejszym zmartwieniem, bo można dosłownie ściągnąć go lub podglądnąć buffory karty (i to dotyczy wszystkiego też Flash, Java (przeglądarki wykorzystujące JOGL), Silverlight...). Jedyna opcja to zrobić własną stronę z dostępem na hasło (lub skorzystać z zaufanej która daje prywatne konta na hasło) i pokazywać klientom osobiście na swoim komputerze/laptopie/tablecie. OFC pozostaje zawsze w wypadku osoby kopiującej droga sądowa, ale nie każdy ma chęci po sądach chodzić, a łatwiej nie stwarzać okazji (bo nie trzeba wielkiej wiedzy, żeby dostać całą siatkę bez żadnej roboty).
-
Problem po dolozeniu RAM
Pytam, bo już bywało tak, że się przez kilka dni próbowało pomagać, a okazywało się, że 32bit system lub 32bit program w 64bit systemie (32bit program na 64bit systemie dalej ma ograniczenie max 2gb wirtualnej przestrzeni adresowej i przy przekroczeniu się wywala niezależnie od fizycznej ilości pamięci).