Skocz do zawartości

Monio

Members
  • Liczba zawartości

    4 418
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    19

Zawartość dodana przez Monio

  1. Może i macie racje z tą wydajnością w viewportach. Tylko że serie 400 i 500 to karty już nie produkowane, obecne tylko w drugim obiegu albo jako resztki magazynowe. Natomiast serie 600 i 700 są po prosu mniej opłacalne niż ten 970.
  2. Monio

    i7-4770k vs i7-4790k 3dsmax

    Dobre symbole podałeś? W necie te procki kosztują tyle samo. W sumie to jest niemal identyczny czip, tylko jeden jest podkręcony. Bierz 4790k i nie martw się własnoręcznym OC.
  3. Popieram skalpela. Jakbyś się chciał kiedyś pobawić w rendering na GPU to czerwoni odpadają. OpenCL jeszcze długo nie będzie popularny w rendererach GPU, właśnie przez AMD które nie potrafi stworzyć kompilatorów zgodnych ze standardem. BTW. Zbrush nie korzysta z GPU, to software renderer działający na CPU. Mocny procek bardzo wskazany.
  4. W renderze bez znaczenia zupełnie bo to wisi na procku. Podobnie jak import/export wszystkiego bo tutaj bottleneckiem jest python. Zapisy sekwencji klatek mogą się poprawić. Ze wszystkich softów z jakich korzystam SSD blenderowi zrobiło najmniejszą różnicę. Ten program się odpala sekundę więc... ;)
  5. Usprawniłem mój addon. Teraz potrafi zliczać info z wielu zaznaczonych obiektów. :) Obecnie panele PolyInfo wyświetlają się w Object Properties oraz N-Properties widoku 3D. W jak rozwiniecie info o addonie w UserPrefs to możecie ustawić na jak gęstych obiektach ma przeprowadzać kalkulacje i jakie informacje mają być wyświetlane. Enjoy. ------------ Gruby update. Znowu przeorałem pół kodu mojego addona. ;) Od teraz to cudo zowie się Polycounter. :) Funkcjonalność jest taka sama ale dodałem możliwość customizacji. W preferencjach addona można ustalić gdzie i jak mają być wyświetlane panele Polycountera. Najważniejsza opcja to jedno-kolumnowy layout który lepiej pasuje do wąskich bocznych menusów 3Dview. Update: https://www.dropbox.com/s/81dswab9y5l7guh/Polycounter.zip Następne rzeczy w kolejności to uwzględnianie modyfikatora Mirror w kalkulacjach i wyświetlanie statystyk w editmode (kosmetyka bo będę wyświetlał tylko to co i tak jest na info-barze, żeby nie zatłuc wydajności).
  6. Pythonowe pytanie. Mam napisane całe gui w panelu który wyświetla się np w Mesh Data. Chciałbym żeby dokładnie to samo gui wyświetlało się też w innych miejscach, np object properties. Jest na to jakaś sprytniejsza metoda niż copy-paste 100 linijek i podmienienie bl_context? Da się tak po prostu w panelu wywołać funkcje Draw będącą poza klasą panelu? Jeśli tak to jak przekazać do niej parametry? edit: Już wiem. Lol. Łatwiej się nie da. Trzeba przenieś funkcje poza klasę i po prostu ją wywołać. draw = draw_func
  7. No nie powiem. Robota całkiem ciekawa. ;)
  8. Fun-fact: Ubisoft ma z Nvidią od dawna umowę partnerską dzięki której ludzie z NV pomagają implementować rozwiązania graficzne i technologie gameworks we flagowych tytułach. AC:U, FarCry4 i The Crew były grami które reklamowały GPU z serii 900. W okresie świątecznym była promocja PickYourPath dzięki której po zakupie którejś z kart z serii 900 (lub niektórych 700 w biedniejszych krajach jak u nas) dostawało się za darmo jedną wybraną grę. Zgaduj jakie najświeższe technologie z "hi-endów" nvidia pomogła chłopakom z Ubi zaimplementować w tych grach? Dokładnie takie: HBAO+, TXAA, PCSS, HairWorks. Wszystko działa na GTX660 a na niespełna dwu-letnim GTX780 śmiga na max detalach. Te sprzęty to dla ciebie teraz "najlepsze GPU na rynku"? Sorry. Nie mogę poważnie traktować kogoś kto pisze takie rzeczy. EOT z mojej strony. Gratulacje fanklubu. ;)
  9. Skoti- Gratuluje wiedzy o nowinkach technologicznych ale wiedzy o biznesie growym to nie posiadasz. Gry to przede wszystkim produkt dla masowego odbiorcy który ma się sprzedać i wygenerować zysk. Dlatego właśnie jest dokładnie odwrotnie niż piszesz. Developerom zawsze zależało na kompatybilności ze starszymi maszynami, po to są prowadzone testy kompatybilności. Wykorzystanie najnowszych GPU bardzo rzadko owocuje implementacją ich nowatorskich rozwiązań tak jak to opisałeś. Zazwyczaj przekłada się tylko na wyższą rozdzielczość, jakość tekstur, cieni, postprocesów i ilość klatek. Wygląda to lepiej ale bajerów z demek w grach nie ma. Zanim będą mogły być zaimplementowane to hardware który na to pozwala musi stać się sprzętem ze średniej półki. Spoko... poddaje się. Przyjmuję że Gry AAA są robione tyko na najnowsze hi-endy. Wytłumacz mi tylko parę rzeczy. Ile z gier PC korzysta obecnie z Voxel Cone Traceingu do oświetlenia? Obecna i nawet poprzednia generacja pecetowych GPU radzi sobie z tym dobrze, więc wedle twojej logiki większość gier AAA na PC powinno to wykorzystywać. Rajt? Wylistuj tytuły, wystarczy mi 10. ;) Dlaczego większość gier AAA z 2014 roku mają w wymaganiach 4 letnie GPU średniej klasy (GTX560)? Jaki przypadek musiał się zadziać że gry (i ich silniki) powstające w zupełnie rożnym czasie i na bazie innych technologii wcelowały się w takie same wymagania minimalne? Skoro RRT jest tak powszechny na PC to dlaczego w wymaganiach większości obecnych gier piszą o minimum 1GB VRAMu? Dlaczego twórcy AC:U rekomendują 3GB VRAMU? Geometria tyle zajmuje? Czy kilkadziesiąt mega na bufor ramki nie starczy skoro texy i tak są brane z pamięci głównej komputera? Na GPU które kosztuje o tysiąc złotych więcej niż cała konsola? Oh ah. Cóż za osiągnięcie. ;)
  10. Ikkiz- O to mi chodziło w poprzednim poście. Zwykły vertex color na multiresie bedzie miał taką jakość/gęstość jak siatka na levelu 0, wyższe levele podziału tylko go rozmyją. W tym patametrze brana jest pod uwagę wynikowa siatka po zastosowaniu modyfikatorów więc efekt tym lepszy im wyższy level multiresa / subdiva. Oby się zabrali za noda AOColor oraz Curvature z prawdziwego zdażenia. Zupełnie nowe możliwości.
  11. Spoko. ;) Pobawiłem się tym teraz chwilę. Dużo więcej niż dirty vertex color to nie da, do fajnych efektów wymaga dosyć gęstej siatki. Efektowi daleko do prawdziwego Curvature ale spoko, nie obiecywali że to ma działać inaczej. Najważniejsze że można to mieć wreszcie w shaderze, działa z multiresem i innymi modyfikatorami (dirty operował wyłącznie na vertex colorze). Odliczam czas aż ktoś zrobi animacje za pomocą tej opcji i zmieniającego się displacementa. :P
  12. Co ty gadasz. Czekałem na feature tego rodzaju od lat. To jest uproszczona wersja Curvature/Cavity czyli jeden z filarów obecnych softów do teksturowania. To otwiera zupełnie nowe możliwości w robieniu materiałów. Wszelaka organika ale też maski do zarysowań na obiektach hard surface.
  13. Statystyka Steama ma się nijak do 2014 roku bo przedstawia dane wyłącznie ze stycznia 2015. Tak wyglądają obecne kompy pecetowych graczy, wszelkiego rodzaju. Co tutaj ci się kłóci z moim pierwszym postem? Deshu- Wymagania GTA5: http://pclab.pl/news61411.html Minimum to karta grafiki z 2008 roku i o rok starszy procesor.
  14. Skoti- Niedoświadczeni developerzy może tak robią gry. Przy dużych tytułach działa to zupełnie inaczej. Jeśli tworzysz grafikę to wiesz że nie ma żadnego magicznego guzika który ci automatyczne zeskaluje ci wszystko w dół. Możesz podmienić shader, zmniejszyć AA czy wyłączyć jakiś ciężki postproces. Jednak automatycznie nie zmniejszysz ilości i jakości modeli na ekranie, złożoności ich animacji (ilość kości jest mega ważna), nie zmniejszysz zużycia głównej pamięci na tekstury. Na podstawie statystyk grupy docelowej trzeba wybrać minimalną konfiguracje na bazie której będzie się przygotowywało assety. Nie bez powodu istnieją firmy które zajmują się testowaniem gier na różnych konfiguracjach sprzętowych. Ktoś musi przygotować modele LoD i tekstury czasem mocno różniące się od oryginału z hi-endów. Prostsze shadery i postprocesy też trzeba napisać. Zarządzanie zasobami powinno działać na najbardziej antycznym rzęchu. To wszystko jest robota którą trzeba wykonać żeby dopasować się hardwareu odbiorców gry. Twój zestaw jest bardzo naciągany. Jest błąd w tabelce, wrzuciłeś główny RAM razem z GPU? GTX660 za tą cenę posiada 2GB GDDR5. Głównego RAMu powinieneś mieć 8 giga żeby nadrobić unifikacje z pleja (dolicz 3 stówy). Porównujesz 2 rdzeniowy procek z 1MB casheu do 8 rdzeniowego z 4MB tylko na podstawie suchych flopsów? :) Żeby to nazwać działającym kompem to powinieneś jeszcze uwzględnić OS, czyli Windowsa. To w końcu 95% rynku. Nie widzę tego zestawu zupełnie. Na chwile obecną imho potrzebował byś dorzucić minimum jeszcze połowę twojej kwoty żeby to się realnie domknęło w maszynę która będzie miała podobne osiągi co plejak.
  15. Olaf- Cool. Co to ma wspólnego ze specyfikacjami kompów graczy PC? ;) Deshu- Wtedy wydałeś 5 tysięcy. Uważasz że kupisz dzisiaj równie mocnego kompa za 1600 zł (doliczając gamingową myszkę lub pada)? http://www.ceneo.pl/24493469 Niebardzo. Za te 1600 nie dostaniesz desktopa z takimi osiągam jak PS4. Jeszcze nie teraz, może za rok. W początkowych latach życia konsoli producenci zarabiają mało na samym hardwarze, kase przynoszą im gry (dlatego gry na konsole kosztują więcej). Rozumiem że da osiągnąć lepszą grafę na droższej maszynie. To logiczne, tylko nie o chodzi o to że się da. Statystyki na grupie reprezentacyjnej 20 milionów graczy PC jasno pokazują że ogromna większość ludzi nie kupuje PCetów dużo wydajniejszych/droższych niż konsole. Wybierają taniego desktopa z grafiką w okolicach tego co jest w PS4 (np. GTX660) albo średniej klasy laptopa z bardzo (na prawdę bardzo) słabą grafiką. PC o których pisze oraz konsole to jest rynek masowy. To pod takie sprzęty ustala się standardy i wymagania minimalne. Co do grafiki faktycznej z gier które się już ukazały. COD:AW wygląda na PS4 tak samo jak na pececie średnie klasy za trochę ponad 2 tysiące złotych. Może za rok ten pecet będzie kosztował 1600pln. Może i plejak potanieje. Skoti- Optymalizacja, dostosowywanie, wyłączanie, whatever. Chodziło mi o to jakie sprzęty mają gracze PCetowi i że developerzy właśnie pod nie robią swoje gry. Niektórzy mogą uważać takie maszyny za rupiecie a marketingowcy pisać że to sprzęt low-end ale jeśli coś w rzeczywistości jest medianą to żaden trzeźwo myślący developer nie wyskoczy z wymaganiami gry ponad to. PRT to świeżynka. Nie obsługuje tego większość hardwareu i nie jest to jeszcze żaden standard w silnikach gier. Wyszły już w ogóle jakieś gry które to obsługują?
  16. Olaf- Dane nie są mylące tylko po prostu ci nie pasują. ;) Mówiłem o wszystkich komputerach do grania. Gry są optymalizowane pod możliwie największą ilość PC do grania a nie "wybrane" ~20%. To nie soft profesjonalny żeby producent/wydawca mógł sobie na coś takiego pozwolić i wymagać od klienta kupienia stacji roboczej. Dobrym przykładem jest Wiedźmin którego wspomniałeś. Mimo że jest to gra która ma obecnie jedne z najwyższych wymagań minimalnych to nadal nie wykraczają one poza możliwości nextgenów. Taki PC to 4 letnia karta grafiki ze średniej półki, 5 letni procek również mid-range, połowa tego ramu co mają nextgeny. Ten GTX660 jest minimalnie mocniejszy niż to co mają konsolki ale trzeba doliczyć dużo większy overhead na piecu i gorszą przepustowość danych. Tyle o Wiesku z dużymi wymaganiami. Zobacz jakie wymagania ma GTA5. Bardzo mnie ciekawi jak fatalnie ta gra będzie wyglądać na takim piecu. ;) Oczywiście to dobrze że zdecydowali się na takie wymagania bo więcej pecetowców pogra. Krótko mówiąc, PC do grania anno domini 2015 to średniej klasy laptopy (z wykastrowanymi GPU) albo tanie desktopy, z wiekowym prockiem i po jednym upgradzie grafiki do jakiegoś mid-range za ~6 stów. Ludzie po prostu kupują sprzęt na lata i nie bawią się w upgrady co rok. Nieliczne kompy pozwalają na większe osiągi niż obecne konsole ale oczywiście trzeba za nie sporo więcej dopłacić. Tak właśnie wygląda ten rynek. Dobrze by było jeśli wiedziałbyś na jakich zasadach to funkcjonuje jeśli się już wypowiadasz. Azakiel - Byłem prawie pewien że nie powinno być problemów żeby to demko śmigało na pleju, ale nie miałem żadnych danych więc nie komentowałem. Dzięki. Nezumi- Tu nie ma żadnej rewolucji. To sukcesywne przenoszenie tego co znamy od lat z rendererów offline do rendererów realtime. PBR jest już standardem w realistycznych grach i nikt nie będzie wracał do starszych rozwiązań jeśli ma wystarczającą moc obliczeniową. Wiesz... miksowanie AO na diffuse i specularze to trik popularny od dekady lat a fizyczne właściwości materiałów to trik popularny od jakiś 13 miliardów lat. ;)
  17. Ciekawe. O ile ta plota się potwierdzi to ja widzę 2 potencjalne scenariusze. 1. Adobe walczące z ADSK o masowego klienta na rynku softów 3D. Z ich miliardami na marketing Modo mogłoby szybko stać się najpopularniejszym pakietem 3D. Opcja fajna i mało prawdopodobna. 2. Adobe dogada się z ADSK żeby ich softy działały komplementarnie, żeby podzielić tort i sobie nie szkodzić. Czyli Modo umrze a Adobe postawi na Nuke, Mari, Katane i inne. Opcja niefajna i niestety bardziej prawdopodobna.
  18. Nie udźwigną tego konsole... i ponad 80% pecetów do grania. Nie zapominaj jak wygląda ten rynek. ;) http://store.steampowered.com/hwsurvey/
  19. Dlaczego zaskakujące? W każdym bakerze raytraceowym jaki znam ustawia się jakość w samplach. Zjadło ci aż 4 giga przy bakeu 4096x2048? Z ilu hipoly wypalałeś, jaki był ich polycount i jaką masz wersje blendera? Dawno nie robiłem testów bo nie widziałem żadnej aktywności w tym temacie na trackerze. Mam nadzieje że zmiany w samym cyclesie nie spowodowały jeszcze większego zużycia. :/
  20. CPU lub GPU, zależy co wybierzesz w panelu render. Przez jakość masz na myśli szum na AO lub wypalonym oświetleniu? Jakością passów oświetlenia sterujesz samplami z ustawień w panelu render. Na jakość passów które mają "color" w nazwie oraz normal, emit i UV nie ma obecnie wpływu. Będą renderowane tak jakby to był jeden sampel. Bardzo wychodzą ząbki przy proceduralkach. NA razie nie ma AA więc pozostaje renderowanie w dwukrotnie większej rozdziałce i skalowanie. Wszystko zależy od tego co chcesz zrobić. Jeśli zależy ci tylko na AO i normal to połącz obiekty hipoly w jeden duży i bejkuj z niego. To jest obecnie podstawowa metoda polecana przez developerów. Karta grafiki z 2 giga ramu powinna ci spokojnie wystarczyć na wypalenie texy 4k. Jak chcesz bawić się w proceduralne teskturowanie i potrzebujesz koorydnatów wielu obiektów hipoly to pozostaje ci CPU obrzydliwa ilość ramu. Przy bakeu z 6 obiektów i rozdziałce 4k cycles zje ci około spokojnie 8 giga ramu. Każdy obiekt alokuje osobną macierz pikseli które potencjalnie mogą być wypełnione. Bez znaczenia czy to korpus czołgu zajmujący większość texy czy guzik który będzie miał 3 pixele. Mógłbym o tym godzinami ale ci oszczędzę. ;)
  21. MF- Przecież solidne dane masz w raportach od samego Autodesku. Podałem linki do źródeł. Twój scenariusz z upgradem rok w rok opłaci się tylko 1/4 ich klientów. Reszta będzie na tym traciła grube sumy bo będzie zmuszona robić upgrady których wcześniej nie robiła. Duże i średnie studia sobie poradzą jak radziły do tej pory. Jak mówiłem wcześniej, to jest strzał z armaty we freelancerów i małe studia. Reanimator- Niestety to nie jest takie proste. Im większy będzie monopol autodesku tym mniejsza szansa na to że ludzie będą szukali innych rozwiązań. Dlatego że nie mieli szans nauczyć się ich w szkole (regulacje "prawne" w USA oraz "darmowe" licencje). Dlatego że monopol rynku softu tworzy monopoli na rynku pracy. Dlatego że najpopularniejszy format wymiany danych jest zamknięty i w pełni kontrolowany przez ADSK. Problem jest dużo szerszy niż to ile kosztuje dany soft i ile pieniędzy zostanie w kieszeni grafika który będzie z niego korzystał. Działania takich kolosów jak autodesk mają wpływ na całą branże, w tym również osoby które nigdy z ich softu nie korzystały i korzystać nie zamierzają. Nie chciałbym doczekać czasów kiedy będę zmuszony wydawać 10 tysięcy złotych rocznie na eksporter do mojego softu. ;)
  22. Tylko że większość ich klientów nie ma zamiaru brać pod uwagę tej subskrybcji przez lata! O to w tym wszystkim chodzi. Ludzie kupują bardzo drogi soft i przez wiele lat nie wydają grosza na żadne upgrady. To może trochę danych. W 2009 roku ADSK miał 1.7 miliona klientów. Mowa o wszystkich ich produktach a nie tylko dziale Media & Entertainment. W następnych latach: 2010 = 2.2m, 2011 = 2.9m, 2012 = 3.2m. Potem przestali się chwalić ilością klientów w raportach ale analizując dane o przychodach z licencji i subskrypcji można wyliczyć że w 2014 roku mieli około 3.8 miliony użytkowników (górką liczone). Skontrastuj to teraz z informacją jaką rok temu upublicznił vice prezydent Autodesku, Andrew Anagnos. Około 2.9 miliona ich klientów nie robi upgradeów ich softu przez 1 do 5 lat. Źródła: http://phx.corporate-ir.net/phoenix.zhtml?c=117861&p=irol-reportsAnnual http://www.cgchannel.com/2014/10/autodesk-to-go-subscription-only-by-2016/ Reanimator, Traitor - Dokładnie. Nie kupiłem od nich nic więc dowiedziałem się dopiero dzisiaj. ;)
  23. Zauważyliście że Autodesk po cichu usunął możliwość wykupienia UPGRADEU swoich programów?! Jeszcze tydzień temu dało się zrobić Upgrade ze starych wersji, teraz już takiej opcji nie ma. Fajnie sobie pogrywają. ----- STRZYG - Mud jest całkiem opłacalny jako soft do teksturowania ale Mari Indie, nawet mimo okrojenia, jest równie opłacalne.
  24. No popatrz. Ja wydałem łącznie na niego tyle że mógłbym sobie kupić 3Dcoata. Frajer jestem, co nie? ;) Jedzenie dla deweloperów nie jest za darmo.
  25. Czyli mamy oficjalne potwierdzenie najważniejszego newsa ubiegłego roku. Patrząc na tamtą notkę widać że przyśpieszyli proces przejścia w pełni na SaaS o połowę. Ceny dokładnie takie jak zakładano. Koszt pełnej Majki z wieczysta licencją to równowartość 30 miesięcy subskrypcji (w planie rocznym). Co potem? To jest strzał z armaty we freelancerów i małe studia. Mam nadzieje że ten news się przebije równie mocno jak to że ADSK jest "za darmo" dla studentów. Koszta ukryte ludzie. Nic na tym świecie nie jest za darmo. ;)
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności