Skocz do zawartości

Xenox93

Members
  • Liczba zawartości

    12
  • Rejestracja

  • Ostatnia wizyta

Zawartość dodana przez Xenox93

  1. Poczekaj, zależy o jaki typ renderowania pytasz ;) Bo są dwie możliwości: 1. Jeżeli renderowanie standardowe, tradycyjne na CPU to w takim wypadku żadna karta graficzna Ci nie przyśpieszy renderingu. Wtedy tak jak kolega wyżej napisał lepsze CPU 2. Natomiast jeśli renderujesz na GPU, OpenCL, CUDA to lepsze GPU ma większe znaczenie niż procesor. Nie będę się wypowiadał czy różnica między jedną kartą GPU a 2xGPU jest duża i warta zachodu, ale teoretycznie powinna zwiększyć szybkość renderingu(tylko pamiętaj, ma to znaczenie tylko w tym sposobie renderowania) Z kolei większa ilość RAM jak wszędzie jest potrzebna, nie ważne w jaki sposób renderujesz.
  2. Haha, no tak, tu masz rację ;) Ale chodziło mi o samą wydajność ;p A czemu miałby nie dorównać? Wiadomo, nie chodzi mi właśnie o rasteryzacje, ale gdyby CryEngine umożliwiał Ray Tracing lub nawet Path Tracing to byłoby dokładnie to samo, bo technika nie jest inna na różnych urządzeniach, musi być taka sama ;) Nie mylcie rasteryzacji z technikami wysyłającymi promienie ;p Bo to całkiem inna liga. Nie wiem czy CryEngine 3 umożliwia renderowanie klatek i zapisanie ich jako plik graficzny, a później scalenie w celu utworzenia animacji, bo nie bawiłem się tym, ale jeśli umożliwia taką technikę, to już jest dokładnie to o czym wspominałem, ale nie ma to szans z Cycles, bo mogę się założyć, że CryEngine nie wspiera OpenCL lub CUDA :/ Bo pewnie śledzenie promieni o ile jest obliczane jest na CPU, a jedynie rezultat obliczeń jest wyświetlany na ekranie ;) Ale gdyby postarali się o wsparcie CUDA to nie byłoby różnicy pomiędzy nimi ;p
  3. Jedno mnie dziwi, dlaczego tester nie zastosował układów nowszych, tylko słabsze? ;p Tesla użyta do testów zawiera mniej rdzeni CUDA w porównaniu do GeForce GTX 580 ;) Gdyż 580 ma ich ponad 1K, kiedy użyta Tesla ma ledwo ponad 400 ;p Autor powinien zastosować Tesla M2090 lub nowszą wersję na poziomie GeForce GTX 580, czyli Teslę K20, która ma ponad 2k rdzeni ;) Właśnie o chodzi o ten mały szczegół, a właściwie o kilka, pierwszy to liczba rdzeni, to ona ma znaczący wpływ na szybkość renderowania sceny, później magistrala, największa teraz używana to 384-bit(czy jakoś tak), to jest ograniczenie dla grafiki, bo nie jest wstanie zapełnić pamięci ;) A dopiero później ilość pamięci GPU RAM. Tak więc, pomyśl o połączeniu 2x Tesla K20, to wydajność bez porównania ;) Ok, teraz dopiero wezmę się za oglądanie filmiku, bo najpierw musiałem zobaczyć parametry i opisy zastosowanych podzespołów, tak więc, moje obawy zostały uzasadnione, gdyż właśnie spodziewałem się tego, że użyją starszej wersji Tesli ;) Nie wspominam o Titanie, bo on pokonałby na pewno GeForce i Teslę również. @MariushO: Nie, źle mnie zrozumiałeś, układy GPU w niczym mi nie pomogą, nie upiększą ani nie ułatwią, one jedynie szybciej wyrenderują scenę i to jest jedyna zaleta ;) A tak na prawdę nie ma nowej ery w renderingu, bo nadal używany jest path-tracing, który zastąpił ray-tracing, który istnieje od dawna, a był renderowany na CPU i musiało kilka dni trwać wyrenderowanie animacji ;) To jest ta jedna lecz znacząca różnica.
  4. A nie, no tak to masz rację w zupełności. Wiadomo, Viewport to rzecz święta :D Masz rację z tym, że marketingowcy wmawiają nam, że aby być Pro to MUSIMY kupić Quadro lub Teslę, nie no wiadomo, że to jest papka i czcze gadanie, bo nie ma żadnego podłoża. Mi chodziło o sam fakt, że lepiej renderować coś szybciej niż czekać kilka dni ;) Ale nie ma to nic wspólnego z byciem Pro. Bo jeżeli ja kupię teraz Teslę, to logiczne, że nie będę najlepszy na świecie i nagle jak za sprawą magicznego przedmiotu stanę się nagle geniuszem. To jest głupota, bo byciem Pro nie jest to jakie podzespoły się ma, a jedynie talent ;) Bo każdy Pro wyrenderuje scenę na kilku letnim komputerze, ale kosztem czasu ;) Reasumując, błędne jest myślenie, że aby być Pro to trzeba mieć Quadro lub coś innego. Ale jeżeli cenimy czas i nie mamy co zrobić z pieniędzmi to warto zainteresować się słabszą wersją GeForce i najwyżej Teslę. Natomiast to co Ciebie spotkało to nikomu nie życzę, nawet wrogowi :/ - - - Połączono posty - - - Tak, masz rację, że w Octane lub Cycles wymaga dużej ilości GPU RAM ;) W końcu doszliśmy do konsensusu :D Może i masz rację z tym Quadro w to nie wnikam, ale nadal nie jestem pewny co do Tesli, no wiesz, to, że ktoś zrobił testy, a tym bardziej tą osobą jest twórca Blendera to nie można do końca wierzyć ;) Tylko nie zapomnij o tym, że Titan to hybryda GeForce i Tesli ;) Dlatego jest demonem prędkości ;p
  5. Masz rację, AMD/Ati jest słabe, bo ma słabych programistów. Tak więc po raz kolejny muszę się zgodzić. Ale ja nie pisze, że AMD/Ati jest królem GPGPU, tylko wspomniałem, że też wydali coś na po dobę Tesli ;) Czy na pewno z OpenCL jest tak jak piszą? Bo od CUDA wydajniejszy jest już C++ AMP, czyli programowanie GPU ;) Czyli albo ktoś idzie na łatwiznę, bo Nvidia jest skora do pomocy i w ogóle, albo chodzi o marketing i Blender wspiera Nvidię bo mają jakiś układ, dlaczego? Bo wydawcy, programistom Blendera powinno zależeć na obsługiwaniu wszystkich układów GPGPU, a nie tylko jednej, czyli ktoś tu uszukuje i idzie na łatwiznę, bo tak jak wspomniałem, gdyby chodziło o wydajność to istnieje takie coś jak C++ AMP. A to ja wiem, że AMD/Ati ma lepszą wydajność w OpenGL niż konkurencja, ale wytłumacz mi w takim razie: Dlaczego w prezentacji Nvidia szybciej renderuje się jakaś animacja galaktyki, a nawet Path Tracing na Tesli niż na układach GeForce? Przypadek? Wydaje mi się że raczej nie. Pamiętaj, że prawie każdy co wypuszcza, tworzy coś ma jakiś w tym interes i zawsze testy może zaginać, np. mógłby ktoś zrobić samemu test jakieś animacji tej samej sceny, ale na CPU, GeForce, Quadro i Tesla, ale ta oparta na najnowszej architekturze ;)
  6. O niee, na pewno GTX nie jest wydajniejszy od Quadro w renderingu, a tym bardziej Tesla, bo właściwie to ona zasługuje na nazywanie GPGPU wśród układów Nvidi, bo GeForce może liczyć CUDA, ale do pełnego GPGPU jej trochę brakuje. No w końcu masz rację, Titan jest lepszy od Tesli. PLUS się należy dla Ciebie. Ale co to jest Tesla? Otóż, jest to układ, który posiada architekturę GPU, np. GeForce'a ;) Czyli teraz opiszę jak to wszystko powstaje: 1. Powstaje GeForce, nowa architektura lub tylko coś dodano do nowszej wersji i np. wychodzi najpierw taki GeForce GTX 980. 2. Po roku lub półtorej powstaje Tesla mająca architekturę GeForce, w tym wypadku, np. GTX 980. Ale jest jedna, drobna różnica, Tesla nie posiada jednostek, które odpowiadają za wyświetlanie brył, macierzy i w ogóle odpowiedzialnych za wektory. Czyli można stwierdzić, że jest to okrojona wersja GeForce'a i pewnie słabsza. Otóż nie, bo to, że nie posiada tych jednostek jest czymś zbawiennym, czymś pozytywnym, bo ich brak pozwala na zwiększenie liczby rdzeni oraz zwiększenie wykonywania obliczeń, bo nie jest tracony czas na ustawianie wierzchołków, obliczanie i samplowanie tekstury i takie tam. Lecz zdarzyło się tak, że raz Nvidia wydała wersję Titana, który posiada jednostki wektorowe, które z kolei posiada GeForce, czyli jest to hybryda Tesli + GeForce, taki jeden wybryk, który okazał się, czym dobrym, pomyślnym. Teraz już wiesz, że do trójkątów/gier GeForce, natomiast do fizyki to na pewno, a do ray-tracingu Tesla ;) Lub Titan, ale to jedynie będzie wiódł prym aż wyjdzie kolejna Tesla lub GeForce ;)
  7. Rozumiem wasze oburzenie, ale opanujcie się, proszę ;) Może najpierw porozmawiajmy jak cywilizowani ludzie. O jakiej grafice mówimy? Macie na myśli rasteryzowanie? Czyli nawiasem pisząc, ten Viewport? Czy raczej renderowanie klatek? Czy ja wiem czy nie można użyć Radeonów lub FirePro do renderowania klatek? Macie rację, że wszyscy poszli w stronę CUDA, niestety :/ Ale pamiętam, że kiedyś w Blender'ze nie wiem czy to była pomyłka, ale była możliwość wyboru w Cycles: CPU, CUDA lub OpenCL. Tak więc właśnie OpenCL pozwalał na renderowanie klatek na układach AMD/Ati ;) Tak więc, najpierw odpowiedzcie, a właściwie sprecyzujmy co rozumiemy przez słowo grafika, dokładniej chodzi mi o jaką grafikę macie na myśli rasteryzacja czy ray-tracing? ;)
  8. Najpierw muszę przyznać się do tego, że nie jestem zawodowym grafikiem 3D, a raczej interesuję się programowaniem w DirectX jak i OpenGL(tej biblioteki używa Blender ;) W Blenderze bawię się raczej od czasu do czasu. Można byłoby powiedzieć, że mam większą wiedzę teoretyczną niż praktyczną, tzn. wiem jak co działa, czasami sam coś sprawdziłem i niekiedy używam. Natomiast tworzę sobie coś raczej hobbystycznie. Tak więc, mogę teraz dopiero przejść do odpowiadania. Więcej czasu spędzam w Viewporcie i to jest oczywiste, tak więc napisałem wcześniej, że co do samego Viewportu to zgadzam się i dołączam się do twojego ostrzegania innych. Natomiast nie można oskarżać NVIDII za coś czego nie zrobili. Od razu wspomnę, że nie jestem Funboy'em, ale jedynie stwierdzam to co wyczytałem i też uważam ich i nie tylko za marketingowców jakich mało, ale raczej w inny sposób oszukują ;) Nvidia nigdzie nie mówiła, że polecamy Quadro dla gier ;) Co to oznacza? A właśnie to, że nie jest super, hiper, (a nawet ostatnio modne określenie) ultra nowoczesna i ultra szybka w starym renderowaniu grafiki, mam na myśli już od początków istnienia grafiki proces rasteryzacji. Tym samym nie nadaje się do Viewportu, ale do fizyki i Renderingu klatek już owszem i o to właśnie chodziło Nvidii, że na tym poziomie jest szybka. Dodatkowo za kilka lat, a nawet już jeżeli ktoś będzie chciał pisać lub uruchomić grę w ray-tracing'u to powinien zainwestować w Quadro a najlepiej w Teslę ;) Natomiast do renderingu używam GPU. U mnie sytuacja jest inna, bo mam GeForce GTX 460 1 GB, tak więc Viewport chodzi płynnie, a rendering nie jest tragiczny NA RAZIE, bo nie mam skomplikowanych scen jak do tej pory. Ale muszę Ci się przyznać, że kupiłbym z chęcią Quadro lub Teslę tylko do renderowania, bo później mój GeForce nie wyrobi się z renderingiem( ofc, mam na myśli to, że nadal będzie szybszy od CPU, ale scena będzie się renderowała długo w porównaniu z takim Quadro/Teslą/FirePro ), ale niestety nie mam tyle pieniędzy ;/ Tak nawiasem mówiąc, nie chcę się kłócić i postaram się aby do tego nie doszło, bo to nie o to chodzi ;) Po prostu każdy nie lubi jak się kogoś oczernia bez powodu, za nic. Wiem, że jesteś oburzony i rozumiem Ciebie, nawet nie wiem sam jakbym się zachował dlaczego wydałem kupe kasy na coś co okazuje się być do niczego, ale uwierz mi, że nie jest to do końca prawdą. Bo dysk masz super, "ultra" szybki co mogę pozazdrościć, o procku nie wspomnę, może nie użyję wyrazu grafiki, bo to nie jest grafika a raczej układu GPGPU również, bo taki układ wielu osobom się nie śnił ;) Twój GPGPU jest o 10x lub nawet 100x lepszy nawet od twojego CPU, ale tylko w renderingu, tak więc nie pozwól aby Quadro się zakurzyło i w renderingu użyj GPU zamiast CPU ;)
  9. Aha, w takim razie zwracam honor ;) Ale Panowie bez porównania, nie można mówić o porównywaniu grafik GeForce do Quadro bo to tak jakby porównać bolidy F1 do aut hybrydowych ;p Formułą nie pojeździsz po mieście, ale na torze tak i to z jaką prędkością, tak samo odwrotnie auto hybrydowe lub nawet ścigacz nie ma szans z Formułą ;) - - - Połączono posty - - - @MariushO: Czy ja wiem, czy należy ostrzegać i omijać Quadro? Masz rację, jeśli masz na myśli tylko sam Viewport to i ja przyłączam się do ostrzeżeń, ale jeśli masz na myśli rendering, to bez dwóch zdań kupiłbym gorszego procka na rzecz Quadro, a na pewno już Tesli lub FirePro ;) Dodatkowo podaj link, gdzie NVIDIA pisze, że Quadro jest lepsze od GeForce a tym bardziej w grafice 3D(czyt. rasteryzacji, nie ray-tracing'u ).
  10. @Kramon: W twoim wypadku przycięcia są uzasadnione, gdyż wersje dla notebooków są zawsze ograniczone względem tych desktop'owych ;) Tak więc, o ile procesor nie wiele gorszy od tego desktop'owego, to GPU jest już o wiele wolniejsze. Dodatkowo czynnikiem decydującym jest pamięć RAM. Tak coś mi wydaje się, że masz 4 GB DDR3 ;) Do tego zależy jaki system i wersję oprogramowania.
  11. Dziwi mnie jedno, ofc, nie zrozum mnie źle, ale dziwię się, że nie kupiłeś jakiegoś GeForce lub Radeona (obojętnie jakiego),a do renderingu nie kupiłeś Tesli. Odpowiem na twoje pytanie. Masz rację dla GeForce lub Radeona to nie jest dużo, a właściwie jest to śmieszna liczba. Natomiast dla Quadro już gorsza. Dawno czytałem już o Quadro, więc nie chcę namieszać, ale Quadro jeśli już ma jakieś jednostki wektorowe i takie tam, potrzebne do wyświetlenia trójkątów to właśnie ma tak wolne, że przy pewnej granicy już nie wyrabiają. Natomiast powinieneś się ucieszyć, bo jeśli kupiłbyś tylko Teslę to w jeszcze gorsze bagno być wpadł, bo tam na 100 % nie ma takich jednostek, jedynie rdzenie ;p Natomiast jeśli Quadro nie ma owych jednostek, to pewnie trójkąty w viewporcie(bo to cały czas o nim piszę) nie renderuje Quadro a pewnie procesor, który przy pewnej ilości nie wyrabia. Tak więc, Quadro jeśli już nawet renderuje to jedynie geometrię składającą się z niewielkiej ilości poly :/
  12. Przedmówca mnie wyprzedził ;p Dokładnie, do viewportu jedynie zintegrowane GPU, najlepiej Radeony lub GeForce, ale nie koniecznie. Natomiast Quadro lub FirePro do renderingu. Dlaczego? Otóż, GeForce i Radeon wspierają również obliczenia GPGPU, ale również rdzenie muszą obliczyć wektory i takie tam. Natomiast karty wyspecjalizowane na obliczenia GPGPU są pozbawione takiej funkcjonalności, co to oznacza? Otóż, Quadro i FirePro nie nadają się do gier jak i viewportów, natomiast jedynie to przeprowadzania obliczeń typu ray-tracing, path-tracing, fizyka i takie tam. Ale nie grafika, a tym bardziej taka, która wyświetla nie obraz za pomocą pikseli śledząc promień, a za pomocą wektorów i rasteryzacji, wyświetlając prymitywy quady lub trójkąty ;) Reasumując, jeśli masz zintegrowane GPU w CPU lub na płycie głównej to ustaw je jako domyślne dla viewportu(najlepiej GeForce/Radeon(ale to dodatkowy koszt, zważywszy to, że ile już wydałeś na Quadro :/ ) ). Natomiast twoje Quadro jedynie do liczenia klatek(renderowania) i fizyki ;)
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności