jefim Napisano 13 Lipiec 2017 Share Napisano 13 Lipiec 2017 [video=youtube;J3pJ_--nf5E] Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
HubertP Napisano 14 Lipiec 2017 Share Napisano 14 Lipiec 2017 Ciekawe czemu "render tile" nie są takie same... Widać, że jakby intel na początku poleciał szybciej, a potem zwolnił path tracingu :P Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
groh Napisano 14 Lipiec 2017 Share Napisano 14 Lipiec 2017 tak z moich doświadczeń to Intel może mieć problemy z utrzymaniem stałej wydajności. Jako realizator dźwięku miałem problemy własnie z platformami intela. Chodź to dość stare doświadczenia, bo pochodzą z czasów core 2 ( wszelakie odmiany), ale podejrzewam ze w tej materii niewiele się zmieniło. Charakter mojej pracy wymaga stabilnego renderu w czasie rzeczywistym ( odsłuch przy pracy ). Nie będę się tu zagłębiał w specyfikę swojej roboty, to nie to forum, ale generalnie chodzi o to ze jak procesor/platforma czegoś nie zdarzy policzyć to pojawia sie w odsłuchu trzask ( drobne, słyszalne tylko na dobrym sprzęcie i to przez wprawne ucho), gdzieś się "zagubi" kilka sampli. W tych czasach kombinowałem z dwoma rożnymi komputerami ale efekt był zawsze ten sam. Sample sie gdzieś gubiły nie zależnie od zastosowanego przetwornika USB czy PCI. Oczywiście materiał końcowy był pozbawiony tych problemów ale to już nie był render w czasie rzeczywistym. Po przejściu na platformę AMD ( wtedy Phenom potem Bulldozer ) wszystko zaczęło działać poprawnie. W tych czasach wyczytałem gdzieś ze to problem z zarządzaniem w przesyle na liniach PCI-e i to może być przyczyną tego "zawahania się" intela jaki widać w tym materiale. Zapewne obecnie platforma intela działała by bez zarzutu w moich zastosowaniach, gdyż takie moce obliczeniowe jakie potrzebuje do pracy, to dla dzisiejszych procesorów "bułka z masłem" ale sam fakt iż dzisiejsze I7 to zmodyfikowany core, to efekty mogą być podobne, przy dużym obciążeniu. Generalnie nie ma to wpływu w pracy programów 3D bo kto tam zobaczy jakieś micro sekundowe opóźnienia.. :D Liczy sie efektywność ogólna Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
keajra Napisano 14 Lipiec 2017 Share Napisano 14 Lipiec 2017 tak z moich doświadczeń to Intel może mieć problemy z utrzymaniem stałej wydajności. Jako realizator dźwięku miałem problemy własnie z platformami intela. Chodź to dość stare doświadczenia, bo pochodzą z czasów core 2 ( wszelakie odmiany), ale podejrzewam ze w tej materii niewiele się zmieniło. Charakter mojej pracy wymaga stabilnego renderu w czasie rzeczywistym ( odsłuch przy pracy ). Nie będę się tu zagłębiał w specyfikę swojej roboty, to nie to forum, ale generalnie chodzi o to ze jak procesor/platforma czegoś nie zdarzy policzyć to pojawia sie w odsłuchu trzask ( drobne, słyszalne tylko na dobrym sprzęcie i to przez wprawne ucho), gdzieś się "zagubi" kilka sampli. W tych czasach kombinowałem z dwoma rożnymi komputerami ale efekt był zawsze ten sam. Sample sie gdzieś gubiły nie zależnie od zastosowanego przetwornika USB czy PCI. Oczywiście materiał końcowy był pozbawiony tych problemów ale to już nie był render w czasie rzeczywistym. Po przejściu na platformę AMD ( wtedy Phenom potem Bulldozer ) wszystko zaczęło działać poprawnie. W tych czasach wyczytałem gdzieś ze to problem z zarządzaniem w przesyle na liniach PCI-e i to może być przyczyną tego "zawahania się" intela jaki widać w tym materiale. Zapewne obecnie platforma intela działała by bez zarzutu w moich zastosowaniach, gdyż takie moce obliczeniowe jakie potrzebuje do pracy, to dla dzisiejszych procesorów "bułka z masłem" ale sam fakt iż dzisiejsze I7 to zmodyfikowany core, to efekty mogą być podobne, przy dużym obciążeniu. Generalnie nie ma to wpływu w pracy programów 3D bo kto tam zobaczy jakieś micro sekundowe opóźnienia.. :D Liczy sie efektywność ogólna I7 to kolejne wcielenie Core 2 itd, masz racje - z tego co mi wiadomo. Po prostu inzynieria CPU doszla do slepego zaulka w ktorym mozna tylko mnozyc ilosc rdzeni, pakowac coraz wiecej w w coraz mniejszych objetosciach (teraz to juz chyba 10 nm jest). Chyba nic naprawde rewolucyjnego sie ostatnio nie zdarzylo w tym segmencie. Ciekawe czy to bedzie juz tak szlo do konca ludzkosci, czy moze krzem zostanie zastapiony... czyms. Stanislaw Lem wiedzialby pewnie co o tym myslec. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
olaf Napisano 14 Lipiec 2017 Share Napisano 14 Lipiec 2017 czy moze krzem zostanie zastapiony... czyms mysle, ze to CPU sa zastepowane w wiekszych firmach. Ciezko sobie wyobrazic, by CPU obsłużyły facebooka czy google, nawet GPU. To pewnie jakies bespoke czipsy, a GP-CPU jest do ogladania youtube'a. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Tomek Kosiorek Napisano 14 Lipiec 2017 Share Napisano 14 Lipiec 2017 Ciekawe czy to bedzie juz tak szlo do konca ludzkosci, czy moze krzem zostanie zastapiony... czyms. Ma być chyba zastąpiony grafenem Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Imperator Napisano 14 Lipiec 2017 Share Napisano 14 Lipiec 2017 http://pclab.pl/news74891.html Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Maciek Jutrzenka Napisano 14 Lipiec 2017 Share Napisano 14 Lipiec 2017 [video=youtube;V-d-6DCFDME] Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
groh Napisano 15 Lipiec 2017 Share Napisano 15 Lipiec 2017 Generalnie problem z CPU to jego archaiczne korzenie. W czasach kiedy się warzyły losy standardów dla komputerów osobistych nikt nie myślał o procesorach wielordzeniowych, potokach wykonawczych równoległych itp. Niestety dla nas IBM wybrał gorszego intela zamiast dobrej Motoroli. Przypominam ze w tych czasach wszystkie kompy chodziły na procesorach Motoroli a intel to była taka mała firemka ... :D. Dzięki temu mamy po dziś dzień standard x86 i jego permutacje. Oczywiście żaden współczesny procesor wewnętrznie nie jest zgodny z architektura x86 i aby zapewnić zgodność z systemami korzystającymi z x86/64 musi posiadać system modułów tłumaczących ( architektura RISC). Już nie będę tutaj udawał ze wszystko rozumiem i wiem... :D Generalnie chodzi o to ze wszyscy wiedzą ze ta architektura to padaka w dzisiejszych czasach i kombinują jak mogą jak to obejść :D Moim zdaniem nadzieja w ARM ale tu znów sie rodzą problemy, cały soft musiał by byc przepisany na nową platformę lub procesory z rdzeniami ARM musiały by posiadać system jednostek tłumaczących. Temu oczywiście sprzeciwia sie intel upupiając każdą firmę która chce takie myki wykonywać (np. Microsoft). W końcu jest właścicielem patentu na x86. Producenci wiedzą ze rynek nie zaakceptuje zmian ( nawet na zasadach optymalizacji ) i starają się kurczowo trzymać standardu x86 i nie wychylać za bardzo, dokładając co najwyżej nowe wyspecjalizowane bloki wykonawcze/instrukcje w konkretnych zadaniach (np. ostatnio modny AVX). Boleśnie się o tym przekonał intel przy Pentium 4 i AMD przy Bulldozerze Tak wiec musimy z tym żyć puki co i liczyć na to ze producenci softu będą optymalizować kod pod nowe procesory. Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Maciek Jutrzenka Napisano 15 Lipiec 2017 Share Napisano 15 Lipiec 2017 rozwiązanie są znane już od dawna.. problemem jest właśnie to co napisałeś... Przepisanie i ogólna przesiadka.. dla tego też max i maya stoją w miejscu. bo osiagneły pewien poziom i potrzebny jest rewrite... Blender ma małą grupe użytkowników.. którzy mają coś do gadania. nie są to gigantyczne studia które wydały masę pieniędzy na licencje czy R&D tooli. i nagle mieli by to wszystko w piach... Dlatego jest jak niestety jest. Zobacz ile jest problemu, z samym pisaniem spraw na wiele rdzeni.. a co dopiero na totalnie nową arch. jak np GPU.. a co dopiero by było jakby zaproponowali rozwiązania z labów... Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
groh Napisano 15 Lipiec 2017 Share Napisano 15 Lipiec 2017 Masz racje, Apple to zrobiło przynajmniej raz( to z doświadczenia wiem ).. Czyli wydało komputery na nowej arch bez kompatybilności wstecznej. Tak naprawdę ruch tutaj jest po stronie Microsoftu, bolesny ale myślę ze w końcu nieunikniony... Oczywiście sam bym cierpiał bardzo bo cały mój soft by sie poszedł paść, ale jest proste pytanie kiedy to wszystko sie załamie. Windows 98 miał około 100 MB a Win 10... nawet nie chce sprawdzać. Kto jest w stanie zapanować nad taką masą kodu. Utrzymywanie kodu 32 bitowego w systemie 64 bitowym to niezła jazda dla deweloperów Microsoftu. Chociaż ogólne moje uczucia względem samej firmy sa raczej mało entuzjastyczne to fakt nie porzucenia 32 bitowych aplikacji należy się szacun :D (aplle to zrobiło) Wtedy wszystkie firmy były by zmuszone do przepisania softu. (Właściwie to by były ciekawe czasy, takie nowe rozdanie :D) Jak juz wspomniałem Microsoft kombinuje z ARM i to możne być nadzieja na miękkie przejście, pod warunkiem ze sie dogada z intelem :D Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Rekomendowane odpowiedzi
Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto
Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.
Zarejestruj nowe konto
Załóż nowe konto. To bardzo proste!
Zarejestruj sięZaloguj się
Posiadasz już konto? Zaloguj się poniżej.
Zaloguj się