Skocz do zawartości

Rekomendowane odpowiedzi

Napisano

A tutaj szerokie testy Maya 2013, czyli dość stare na AMD i NVIDIA, a teraz przecież jest nie gorzej.

 

https://www.pugetsystems.com/labs/articles/AutoDesk-Maya-2013-GPU-Acceleration-166/

 

i jakoś nie widzę żeby takie cudeńka tworzyli jak "ca mel", czytając nieraz o tym jak złe jest AMD to człowiek myśli, że po zainstalowaniu AMD komputer wybuchnie prosto w twarz, a o wyświetleniu viewportu to nie ma mowy, za skomplikowane, wszystko zniknie:), bo ta karta nadaje się tylko do zabijania ufoków i to nie za dużych, bo brakuje cuda :)

  • Odpowiedzi 128
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

Napisano
A tutaj szerokie testy Maya 2013

 

1. To nie są testy tworzenia scen, a wyświetlania bardzo prostej geometrii.

Problem znikających manipulatorów, źle zaznaczanych wierzchołków i inne nieprzyjemne jazdy pojawiają się przy edycji scen.

A forum to zrzesza raczej twórców grafiki 3D, a nie biernych jej obserwatorów.

 

2. W tych testach nie ma openSubdivs, to nowość, a one tworzą ostatnio najwięcej problemów.

 

3. Są karty od AMD Fire, zgodne ze specyfikacją Autodesku i wierzę, że wszystko działa z nimi jak powinno.

Rzecz w tym, że kosztują tyle co cała stacja robocza, więc po co je kupować, skoro 5-10x tańsza nvidia też działa jak powinna ?

 

4. Fajnie jest czasem poużywać trochę iRay, czyli renderera GPU dla Mental Ray, swoją drogą wykupionego przez nVidię.

Na Radeonach się to kaszani.

 

Tu masz pierwszy lepszy przykład, jak pracuje się w Maya z kartą Amd i jak z nVidią

 

Inna sprawa, że w najnowszej 2016 wymienili API i co chwilę pojawia się kolejna masa bugów i niespodzianek.

Napisano
Hejt i spisek zielonych.

 

to raczej kwestia początków, bo jak ktoś napisał swój program na CUDA, a potem przenosi na szybciocha do OCL, to zaczyna narzekać na AMD, jakby odwrócić sytuację to będzie dokładnie tak samo, z tym jednak warunkiem, że kodu OCL2.x nie da się przenieść do CUDA tak żeby zadziałało i dopiero byłby lament na NVIDIA.

 

Face facts- Vulkan jeszcze praktycznie nie istnieje i nic go nie wspiera, nie ma nawet gotowej specyfikacji! To się niedługo zmieni, oczywiście.

 

masz już działający DX12 i jest Mantle, a przecież Vulcan = Mantle 2.0 :)

 

Nvidia + Cuda działa dziś, teraz, w wielu programach. Nie za rok jak AMD wypuści swoją nowatorską architekturę

 

AMD ma już nowatorską archtekturę z ACE zgodą z HSA, teraz musi za tym podążyć soft, a co ma NVIDIA, od 10 lat trzepie te swoje ograniczone mikrordzenie CUDA pod CUDA SDK na tysiąc sposobów, raz lepiej, raz gorzej, tu doda, tam utnie, przytnie, zmieni nazwę i wykastruje itp., i na tym utknęli. W tym czasie AMD zaprezentowało pierwsze na świecie niskopoziomowe API do 3D tj. Mantle, które ekspresem wjechało do DX12 i ustanawia nowy osobny standard Vulkan który będzie wspierany przez wszystkich, AMD pierwsze na świecie zrobiło asynchronicznie działający układ GPU (ACE itp.) i powiązało to z CPU poprzez współdzieloną chronioną pamięć, a na poziomie oprogramowania power zaczyna się od OpenCL 2.x (teraz jest 2.1) z tymi bajerami, gdzie NVIDIA chyba już na dobre utknęła na 1.2, a CUDA dalej trzepie się ze swoim mikrordzeniem i prymitywnym schedulerem zyskując głównie na skoku tech. AMD pierwsze na świecie zaprezentowało pamięć warstwą (HBM) zintegrowaną z rdzeniem GPU co zmniejszyło TDP, rozmiar karty i dało niezły w tej relacji power karcie. Pewnie jeszcze coś pominąłem :), ale widać u AMD jakąś wizję rozwoju, a bez wizji kręcilibyśmy na OGL1.1, pewnie NVIDI by to pasowało:), bo tak to ciągle coś musi podglądać, tak jak będzie to w Pascalu który najpewniej będzie repliką wieloletniej już arch. AMD GCN otoczonej w rdzenie CUDA i wzbogacone rzekomo lepszym HBM.

 

Faktem jest, że CUDA jest i nawet dobrze działa w pewnych małych operacjach, ale faktem jest, że ten model programowania GPGPU już skończył się na dobre i kręci się w kółko, jak pies ogrodnika za swoim ogonem. Od jakiegoś czasu to jakby zastygło, nawet softu nowego na horyzoncie nie widać. Nikt jednak CUDA szybko nie porzuci, za dużo ludzi dało się nabrać na to hasło wierząc w cuda :).

 

---

Co do zarzutów dt. OpenGL w viewport to chciałbym żeby mi ktoś pokazał jak to kula sama jajczeje itp.. Jeszcze chwila i hejt sięgnie absurdów typu na AMD to 2+2 = 5, a trójkąt ma cztery boki itp. Gdybym nie używał kart AMD od 15 lat, podobnie jak NVIDIA, to może dałbym się naciąć na tego typu opinie :)

Napisano
masz już działający DX12 i jest Mantle, a przecież Vulcan = Mantle 2.0 :)
To świetnie. Ile OBECNIE viewportów w programach 3d jest opartych o Mantle/Vulkan?

Siejesz tu dużo kompletnie niepotrzebnych informacji nie związanych z tematem. Sorry ale nie wiem czy Seba mając dzieciaka do nakarmienia powinien się kierować "jakąś wizją rozwoju AMD" która akurat tobie się podoba.

Napisano
1. To nie są testy tworzenia scen, a wyświetlania bardzo prostej geometrii.

 

Ad.1 owszem, ale jest okej. Jeżeli takie coś ma miejsce to wina jest na 100% po stronie twórców Maya, a nie sterowników Radeon. Nigdy nie miałem z tym problemów na innych soft, od kiedy pamiętam.

 

Ad.2 sugerujesz, że Radeon jest zbyt prymitywny do opensubd ?:)

 

Ad.3 Tam nie tylko AMD Fire Pro są w testach, także Radeon 7750 za 200zł:). FirePro poza wyższą wydajnością głównie w dp (double prec.) i SLI nic więcej nie wnoszą względem tych konsumenckich, a wszystko to ten sam GCN..., więc po co kupować 5-10x tańszą NVIDIA, jak 8x-15x tańszy Radeon da to samo ;).

 

Ad.4 iRay to jest właśnie przykład polityki NVIDIA i zamykania wszystkiego na klucz co tylko dotkną. NVIDIA iRay to w ogóle działa na Radeonach, przecież to chyba jest CUDA. To, że się kaszani na Radeonach to wcale mnie nie dziwi, zdziwłbym się gdyby było inaczej, naprawdę :)

 

Troszkę stary i mało wiarygodny ten film; Radeon 5670 vs GTX560Ti, bardziej odpowiedni byłby Radeon HD 69xx.

 

ps. zawsze można sprawdzić demo Maya 2016, ale coś czuję, że wszystko będzie okej tj. kula niezjajczeje itp. i nie chce mi się tej kobyły instalować, ale może jutro sprawdzę żeby zamknąć ten absurdalny hejt na AMD, bo już kiedyś miałem podobny dt. 3dsmax i też miało się sypnąć na amen, a jak na złość wszystko działało normalnie:)

Napisano (edytowane)
To świetnie. Ile OBECNIE viewportów w programach 3d jest opartych o Mantle/Vulkan?

 

wszystkie są oparte na OGL, a od kiedy OGL to jakiś NVIDIowy standard, działa OGL tak samo na NVIDIA i AMD ?. Tak jak kiedyś weszły GLSL, tak pewnie wejdzie kiedyś Vulcan, albo prędzej DX12. Do tego czasu może NVIDIA zaoferuje układ wspierający to natywnie.

 

Seba mając dzieciaka do nakarmienia powinien się kierować "jakąś wizją rozwoju AMD" która akurat tobie się podoba.

 

I karta za 1500 zł ma w tym pomóc, trochę dziwny argument, bo aż takich cudów to po tych CUDAch bym się nie spodziewał :). Szczerze, to przy GTX660 zastanawiałbym się raczej nad sensem tego zakupu, bo lepiej byłoby przenieść kasę na wymianę płyty i procesora (ma Phenom II X6), bo to jest tutaj główny hamulcowy, nawet tego GTX 660.

 

np:

 

http://www.morele.net/procesor-serwerowy-intel-xeon-e3-1231v3-3-4-ghz-lga1150-box-bx80646e31231v3-640233/

 

1139 zł

 

do tego jakaś płyta za 300-400 zł, resztę ma :). Dużo większy zysk to da niż zakup tego co już ma - GTX660 też dostanie powera w viewport i nie tylko.

Edytowane przez materalia
Napisano

Ta. Film mało wiarygodny, dziesiątki bug raportów na trackerze blendera mało wiarygodne, fora supportowe Adobe i Autodesku też mało wiarygodne. Mylą się wszyscy tylko nie twoje kochane AMD. Szkoda tylko że specyfikacje OGL/OCL też się mylą i nie dopasowują do wizji AMD. ;)

Napisano

Słuchajcie potrzebuję dojechać z Afganistanu przez Tadżykistan do Kirgistanu. Jeden kumpel mówi, żebym wybrał Hummera, będzie najszybszy...

Ale przecież Ferrari wyciąga lekko 300km/h, najnowsza technologia, tha best. Więc bierę Ferrarkię, przecież to wina tych wszystkich Talibów, że dróg nie pobudowali. ;P

Napisano
Ta. Film mało wiarygodny

 

akurat ten film jest dużo mniej wiarygodny od tych testów Maya 2013 z linku jaki zapodałem, porównuje się na tym filmiku karty które dzieli przepaść i nie znamy środowiska testowego... A co do forów, to już chyba wyjaśniłem, że to są przepisywacze z CUDA NVIDIA na OCL, gdyby było na odwrót, takie same narzekania leciałyby na NVIDIA. Możesz oczywiście zaprzeczać, ale NVIDIA ze swoją wizją CUDA jest w głębokiej d. w kwestii HSA (OCL2.x, C++ Amp itp. ). Tak czy owak CUDA się kończy w tej formie i będzie wcześniej czy później byebye jak nie będą mieli asynchronicznego GPU ze wsparciem dla spec. HSA/hUMA itd. Nikt nie będzie chciał w to dalej wchodzić jak NVIDIA nie zmieni architektury na coś podobnego do AMD GCN.

Napisano

Materlia wrzuć na luz.Nie patrze na AMD z pnktu widzenia gier tylko programów. Jeżeli programy są zle zimplementowane z ATI to nie mam zmiaru się w niego pakować. Kiedy skladalem komputer ze względów finansowych był oparty na AMD ATI. Karta serii 4xxx juz nie pamiętam. Nie działały marking menu. Dopiero zmiana na 660 pomogła. W pracy ważna jest nie zawodnosc. AMD może sobie być bardziej zaawansowane, ale jak programy będą źle pracować to mi się nie przyda. Patrząc na opinie uztkownikow wole się nie pakować w sytuację gdy musze sprzedać zakipiona kartę i kupować nowa. Jak iray i mentalray mają nie korzystać lepiej z produktów nvidii jak to jest trz jej produkt. Dużo piszesz o technologiach etc. Fsjnie ze madz na to czas ale chyba nie patrzysz na sprawę z pkt widzenia niezawodności. I czekam osobiście na nowe procki AMD.

Napisano

materalia- Dlaczego tak trudno ci zrozumieć że liczy się to jak obecne programy działają na obecnych kartach? Może i AMD ma idealne stery a developerzy programów graficznych się mylą, koniec końców piszą tak a nie inaczej działający soft. Co mają do dyskusji wnieść twoje dywagacje na temat tego co będzie się działo za niewiadomo ile lat z Vulkanem, CUDA, OCL, GCN, C++, HSA, HWDP i WTF?

Napisano
Dlaczego tak trudno ci zrozumieć że liczy się to jak obecne programy działają na obecnych kartach?

 

Owszem, tylko piszecie takie bajki o kartach AMD, że wg. tych słów to moje dwa Radeony (R9 380 i mobilny 7650M) nie powinny w ogóle działać:), bo OpenGL ma trylion niespodziewanych błędów na każdym kroku, także nie da rady z tym żyć i trzeba cieszyć się jak cokolwiek wyświetli, choćby jednego piksela, a nie walnie focha i spali komputer, nie wyświetlając nawet fucka na pożegnanie, bo to zbyt skomplikowane dla Radeona bez cudów:). Dla mnie to jakieś niedorzeczności powielane i narastające przy takich okazjach, bo osobiście nie dostrzegam żadnej jakościowej różnicy w OpenGL między obecnym R9 i GTX, baa, nawet między mobilnym RadeonHD 7650M. W kwestii wydajności viewportu to R9 380 nie jest na pewno słabszy od GTX970, zarówno w FHD i UHD(4K), przynajmniej w programach których używam. Na siłę to ja też znajdę Geforca który coś tam pominie w viewport, mam jeszcze w szafie GF9800, bo nie wiem jak można porównywać kartę Radeon HD 4xxx (znacznie gorszą od IntelHD) do GTX660, przecież to jest zupełnie inna bajka z innej epoki. Nawet porównanie z tego filmiku jest mocno naciągane pod tezy.

 

---

No dobra koniec bajeczek pora na fakty o rzekomo rozkraczającym się viewport na AMD Radeon w Maya. Zaintalowałem Maya 2016 SP4 trial. Nie mam scen, więc wziąłem z tego linku: http://area.autodesk.com/blogs/duncan/scene-files-from-my-maya-2014-unfold-presentation . Są tam zrzuty więc mam pi razy drzwi porównanie jakościowe na oko.

 

No cóż mogę powiedzieć. Maya jest tak samo ciężka jak ostatnio tj. lat temu xx kiedy próbowałem ogarnąć Pixar Rend (wtedy geforce2), ale poddałem się... Wszystko jest jak być powinno na R9 380, wygląda identycznie jak na tych zrzutach. Wszystkie scenki są płynne na maks. ustawieniach viewportu (AA itd.). Pobawiłem się chwilę w prostą edycje tj. vertexy, facy, uv itp. i wsio działa jak należy. Nic nie znika, linie są proste, kule okrągłe, nigdzie się nic nie rozjeżdża...:) No nie wiem co jeszcze dodać, jest stabilnie, nic się nie wywaliło przez godzinę. Co teraz mam pomyśleć, hejt czy nie hejt ?.

 

Dobra, sprawdziłem na laptopie z Radeon HD 7650M (poprzednia generacja AMD VLIW), poza tym, że jest wyraźnie wolniej, bo to układ mobilny, to wszystko okej. Wyłączyłem Radeona i przeszedłem na IntelHD Haswell, tu musi być kicha, nie ma bata, zaskoczenie, jest jeszcze wolniej lecz wszystko okej. W przypadku IntelHD jestem naprawdę zaskoczony poprawnością wyświetlania jak na tak w sumie zaawansowany viewport Maya. W zasadzie można używać Maya 2016 na IntelHD, jak nie ma innych lepszych opcji.

 

Odinstalowałem Maya 2016. Tak to wygląda na szybko z OpenGL i viewport Maya 2016sp4.

 

---

Co do GPGPU to CUDA jest pewną zaletą jak się z tego skorzysta i jest soft CUDA (tego nie ma za wiele) w miarę stabilny, mi na GTX550Ti i 650Ti tak czesto wywalało sterownik i program jednocześnie - poza Octane (najlepszy moim zdaniem), że dałem sobie z tym spokój i w ogóle z renderingiem na GPU, chociaż tak; LuxRender działa całkiem stabilnie na R9 380 i 7650M, podobnie Indigo (choć nie tak wydajnie jak LuxRender), nawet jest już niezbyt stabliny Cycles na AMD który osiąga na R9 380 zawrotną wydajność GTX980 (karty ponad 2x droższej) - tutaj brakuje funkcji do wersji CPU. Postanowiłem jednak pozostać przy CPU dla świętego spokoju, po prostu łatwiej tym zarządzać i raczej można doczekać szczęśliwego końca bez niespodzianek, być może HSA to zmieni i pozwoli dodatkowo renderować CPU&GPU, nie tylko "ograniczone" GPU.

Napisano

trudno żeby luxrender nie działał na AMD kiedy to można by powiedzieć że samo AMD go pisze. to by dopiero była lipa.

 

AMD jest słabe nie ogarniete może ma i 10000000 koni ale co z tego skoro nie potrafi tego przenieść na asfalt. Nvidia potrafi i to się liczy. Get it.

 

co do cudem działającego cyclesa na AMD. Tak jest szybszy bo kernel jest tak okrojony dla ułomności AMD, aby jakoś działało że nie dziwota że liczy baranki szybciej.

Napisano

pochwal się w końcu bo już 7 stron naklepały trolle :D

z tego co na szybko prześledziłem to chyba czerwone msi z największymi zegarami najlepsze?

Napisano

No widzisz masz radeona to testuj szkoda ze marking menu nie sprawdzałeś. Wiesz jak je włączyć? I nie chodzi o samą spacje. Jak możesz zobacz jak chodzi substance painter i designer czy topogun. Mi Maya tez działa ale marking menu nie działało. Chodzi o to ze maja działać wszystkie funkcje a tych możesz nie znać. Dzięki za info ze jest nowy sp4 do Maya.

Napisano

materalia przyhamuj nie bądź fan bojem bo na tym forum nie patrzy sie na to co będzie za x lat tylko aktualnie a równocześnie nie było pytania o kombajny graficzne za kilka lub kilkanaście tysięcy pln. Wtedy twoja pogadanka o "wyższości świat" miała by jakiś sens :)

Sebastiam jeśli posiadasz płytę od gigabyte to jednak bym się zastanowił nad grafika od nich oni słyną z kłopotów typu niekompatybilność z produktami innych producentów i nie że nie będzie działało ale się może wywalać nie ma pełnej wydajności znam sytuacje z autopsji dosyć boleśnie

Napisano
AMD jest słabe nie ogarniete może ma i 10000000 koni ale co z tego skoro nie potrafi tego przenieść na asfalt. Nvidia potrafi i to się liczy. Get it. co do cudem działającego cyclesa na AMD. Tak jest szybszy bo kernel jest tak okrojony dla ułomności AMD, aby jakoś działało że nie dziwota że liczy baranki szybciej.

 

Nie no, skończcie z tym hejtem, bo to jest naprawdę żałosne. Tak źle przeżyć, że wszystko działa okej w viewport Maya 2016sp4 na AMD OpenGL ?:), chociaż miała być straszna kaszana. Dla mnie to żadne zaskoczenie, bo w innych programach jest podobnie na AMD.

 

Główny powód dla którego karty AMD odstają w temacie silników renderujących korzystających z GPU to mniejsze tym zainteresowanie ze strony także AMD i krótszy czas rozwoju... Z OpenCL da się wycisnąć ile fabryka dała tylko tak samo jak w przypadku CUDA wymaga to specjalnego i czasochłonnego optymalizowana. Problem z NVIDIA jest taki, że od wersji 1.1 praktycznie przestali rozwijać OpenCL (1.2 chyba jeszcze nie ma, to zrozumiałe, bo faworyzują zamknięte CUDA) i dzisiaj są tutaj daleko w tyle za AMD (OpenCL 2.1) i także Intelem (OpenCL 2.0) - także innymi (OCL2 mają nawet już niektóre mobilniaki), także optymalny silnik OpenCL dla AMD nie ruszy na NVIDIA GPU, raczej na Intel GPU, bo na CPU to wiadomo.

 

Myślisz, że dodanie tego co brakuje w Cycles OCL spowoduje znaczny spadek wydajności na karcie AMD w tym benchmarku ?:). Nie sadzę, bo ten benchmark tego nie używa:). Poprawki dla AMD nie korzystają z dobrodziejstw OpenCL 2.x, tylko zoptymalizowano sam kernel pod goły rdzeń GCN.

 

Kernel dla Cyclesa jest okrojony na AMD, bo to wymaga czasu i pracy, ale dla CUDA pomimo niemal równego parcia z CPU też jest okrojony, bo musi być przykrojony do rdzeni CUDA (niektóre rzeczy działają, ale są nadal nieużywalne w praktyce), sęk w tym, że to już tak zostanie, bo GPU zawsze będzie mieć "ograniczony" rdzeń i pewne bariery zostaną na zawsze, a OpenCL nie jest tymi barierami ograniczony, szczególnie przy wersji 2.1 ze wsparciem HSA. Mówiąc prostym językiem, kończy się era specjalnie krojonych silników tylko i wyłącznie pod GPU. Kernele OCL mogą być wykonywane zarówno na CPU i GPU, to było. W zależności od możliwości sprzętu lub skali danych są wykonywane na CPU i GPU, to faktycznie działa dobrze dopiero od 2.0. HSA rozwiązuje tutaj problem dzielenia zasobów danych (SVM) - dodaje też ochronę zasobów, poprawia znacznie rozdział zasobów - asynchroniczność, out-of-order itd., integruje wszystko w SPIR-V (OCL/OGL/Vulcan/DX12, praktycznie dowolny język programowania) i jeszcze kilka innych istotnych "drobiazgów" doszło. Oczywiście dalej trzeba mocno optymalizować kernel żeby wycisnąć najwięcej z małego rdzenia GPU, bo CPU poradzi sobie z "każdym" kodem i wielkością danych. Nie zmienia to faktu, że takie podejście pozwala pisać pełne silniki renderujące dotychczas dostępne tylko dla CPU, które zależnie od sytuacji skorzystają z dobrodziejstw GPU lub wykonają się na CPU. Wiem, że obecnie takich silników renderujących nie ma i trochę wody upłynie nim będą, ale przykładowy LuxRender czy Indigo, a także Octane 3.x mogą zacząć z tej możliwości kiedyś korzystać i przestać być ograniczone barierami rdzenia GPU, wtedy na kartach NVIDIA coś nie ruszy wcale lub w bardzo ogr. zakresie dla mniejszego zbioru danych. Do tego czasu może NVIDIA dopracuje arch. Pascal lub Volta i naprawią ułomności swojej przestarzałej architektury CUDA :)

 

Inną sprawą jest wydajność operacji na samych rdzeniach NVIDIA vs Intel vs AMD. Tu wszystko zależy od zadania i jakości kompilatora (ostatecznie jest asm), bo nie ma tak, że rdzeń GPU na NVIDIA lub AMD lub Intel... będzie lepszy we wszystkim od pozostałych.

Napisano
No widzisz masz radeona to testuj szkoda ze marking menu nie sprawdzałeś.

 

napisz co i jak to sprawdzę, nie chce mi się wertować dokumentacji obsługi Maya :). Marking Menu działa, jeżeli to to samo co myślę jest w C4D, zarówno na AMD R9 380/HD 7650M i IntelHD Haswell.

 

Chodzi o to ze maja działać wszystkie funkcje a tych możesz nie znać.

 

Funkcje to działają raczej wszystkie, te sceny nie wyglądają na proste dla viewportu http://area.autodesk.com/blogs/duncan/scene-files-from-my-maya-2014-unfold-presentation - to nie jest sama tylko kulka z uv i teksturką, jest tam także smoke, shadery itp. i jest okej, ale mogę sprawdzić jeszcze tekstury hdr. Nie mam punktu odniesienia do wydajności viewportu, bo nie używam Maya, ale o ile Maya jest sama w sobie ciężka (od zawsze) to viewport działa nadzwyczaj lekko.

 

Sprawdzę jeszcze któryś z kolejnych tych programów, ale to dziś lub jutro wieczór.

Napisano

Miło, że zadałeś sobie tyle trudu i przetestowałeś Mayę z Radeonem.

Teraz wiemy, skąd biorą się testerzy w Autodesku. Albo ludzie zatwierdzający sterowniki w AMD.

 

Wszystko się odpala? Super, po co psuć coś, co działa, no nie?

To fajny i szybki, przez co na pewno oszczędny sposób - włączyć program na godzinę i sprawdzić, czy kule są okrągłe i czy wszystko widać :)

 

Zadałeś sobie trochę trudu z bardziej skomplikowaną edycją jakiejś geometrii? Po jakimś czasie na niektórych kartach pojawiają się zacięcia viewportu, zamiast np dwóch ścianek zaznaczają się wszystkie.

 

Sprawdziłeś te openSubdivs? Nie wystają z nich jakieś dziwne trójkąty czy krawędzie przy edycji? Wiesz chociaż JAK je sprawdzić ?

 

Czy przy cięższych scenach, po godzinnej pracy manipulatory nie zaczęły się zacinać ?

Tak, że po szybkim wybraniu opcji spod np W, menu zostaje na ekranie. Rozumiem, że sprawdziłeś sceny z przykładów, z kilkoma paintFXsami.

A co z wizualizacjami, co z wczytanymi referencjami, jak wygląda praca ze scenami ważącymi dajmy na to 15GB na Twoim nowym Radeonie?

 

Przetestowałeś jakieś przesuwanie uv w cięższym obiekcie z multi mapowaniem uv z warstwową teksturą większą niż 4k? Jak się z tym pracuje? Pytam, bo swego czasu Radki nie dawały sobie z tym rady.

 

Sprawdziłeś iloma światłami da się jednocześnie oświetlać scenę? Implementacja openGL miała problem z większą ilością niż 4-8.

 

Posprawdzałeś wyświetlanie double side materials, poprawnie wyświetlanych normalnych ?

 

Jak wyglądają rozmiary cloud particles w viewport 2.0? Dobrze są teraz odwzorowane? Pytam, bo swego czasu pod radeonem rozjeżdzały się na cały ekran.

 

Nie wiem co Ty właściwie w tym czasie posprawdzałeś, wierzę, że po pokręceniu sceną przez parę minut nic się nie skrzaczyło, bo co niby miało? Litości, sprawdziłeś jakieś podstawowe sceny, bodaj z helpa i po tym wnosisz, że sprzęt jest sprawdzony i gotowy do poważnej pracy?

 

Jeszcze raz powtarzam, że to forum dla twórców 3d, szukających praktycznych i sprawdzonych rozwiązań.

A nie ludzi oglądających obiekty i gdybających jak im pójdzie wiedźmin gdy zmienią directX, powielających echo jakiegoś bełkotu AMD o nowej lepszej przyszłości.

To co zacząłeś wyczyniać tym wątku od jakiegoś czasu, to jakaś kuriozalna farsa. Tyle ode mnie.

Napisano (edytowane)
Myślisz, że dodanie tego co brakuje w Cycles OCL spowoduje znaczny spadek wydajności na karcie AMD w tym benchmarku ?:)
Raczej nie kumasz rozwoju oprogramowania z tego co widzę. Krótko mówiąc- absolutnie tak. To jest zasada programowania a nie opinia. Nawet masz w oficjalnej dokumentacji wyjaśnione dlaczego wcześniejsze wersje cyclesa mogą kalkulować pojedynczy sampel szybciej (tyczy się każdego sprzętu). Bardziej złożona instrukcja = więcej obliczeń = dłuższy czas renderu i zużycie pamięci. To ostatnie jest powodem dlaczego jeszcze długo na AMD nie będzie wszystkich featuresów Cyclesa a na CUDA są. Przyszłościowa architektura my ass.

 

Dzięki za super rzetelny test. Pokręcenie viewportem 5 minut mi wystarcza. Teraz już wiem że przy wielogodzinnej godzinnej sesji modelowania nie nie będę miał kompletnie żadnych problemów na Radeonie. Lol.

Edytowane przez Monio
Napisano

Ale się porobiło...

 

Materalia: Jaki masz system operacyjny? U mnie max się zawodowo wywala na W10, przy czym jest lepiej jak przełączę viewport na starszą wersję directX. Czytałem, że problemy z wywalającymi się programami Autodesku na Radeonach dotyczą tylko w10.

 

Ale i tak możecie sobie te swoje gieforce zatknąć na płocie za stodołą :P

CZERWONI GÓRA! :PPPPP

Napisano
Miło, że zadałeś sobie tyle trudu i przetestowałeś Mayę z Radeonem.

Teraz wiemy, skąd biorą się testerzy w Autodesku. Albo ludzie zatwierdzający sterowniki w AMD.

 

Dzięki za docenienie trudu, bo nie używam Maya, ale w programach które używam godzinami nie mam takich "problemów" jakie wymyślasz. Ludzie zatwierdzający sterowniki w NVIDIA robią dokładnie tak samo jak w AMD, więc nie bardzo rozumiem do czego zmierzasz. NVIDIA naprawdę nie jest nieomylna i też robi nie mniej bugów od AMD lub podąża drogą skazaną na porażkę. Tak czy owak na końcu o jakości implementacji viewportu OGL na różnych GPU decydują głównie twórcy samego softu i to do nich należy kierować ew. zarzuty z przykładami bugów.

 

Sprawdziłeś te openSubdivs? Nie wystają z nich jakieś dziwne trójkąty czy krawędzie przy edycji? Wiesz chociaż JAK je sprawdzić ?

 

napisz jak sprawdzić to sprawdzę i zob. czy wystają w takim przypadku jak opiszesz.

 

Czy przy cięższych scenach, po godzinnej pracy manipulatory nie zaczęły się zacinać ?

 

zacięcia zdarzają się też na NVIDIA, czasami programy tak mają i nie jest to najczęściej wina sterowników.

 

Resztę postaram się sprawdzić przy kolejnej sesji z Maya2016, chociaż nie wiem czy znajdę scenę 15GB. Nie przesadzasz, czy ktoś tu robi takie sceny ?. :)

 

Litości, sprawdziłeś jakieś podstawowe sceny, bodaj z helpa

 

nie wiem czy to z helpa, ale wszystko okej (na w/w GPU od AMD i Intel): http://area.autodesk.com/blogs/duncan/scene-files-from-my-maya-2014-unfold-presentation

 

To co zacząłeś wyczyniać tym wątku od jakiegoś czasu, to jakaś kuriozalna farsa.

 

Kuriozalna farsa to jest hejtowanie na AMD Radeon poparte, no nie wiem czym właśnie poparte, chyba plotkami. Miałem problemy z AMD i NVIDIA, średnio takie same na przestrzeni lat, więc w tym kontekście nie widzę powodów żeby którąkolwiek firmę faworyzować. Wolę AMD, ale używałem wielu kart NVIDIA, bo akurat tanio mi się trafiła i było okej, poczynając od Riva128ZX/TNT, podobnie jak inni dałem się zrobić w CUDA, które są przereklamowane w użytku... Każdej z tych firm zdarzają się lepsze i gorsze momenty. Nie będę ich wymieniał. Tak było i jest.

Napisano
Teraz już wiem że przy wielogodzinnej godzinnej sesji modelowania nie nie będę miał kompletnie żadnych problemów na Radeonie.

 

na jakiej podstawie sądzisz, że będą problemy ?. Czyli teraz viewport na Radeon będzie się psuł po określonym czasie :)

 

Raczej nie kumasz rozwoju oprogramowania z tego co widzę. Krótko mówiąc- absolutnie tak. To jest zasada programowania a nie opinia. Nawet masz w oficjalnej dokumentacji wyjaśnione dlaczego wcześniejsze wersje cyclesa mogą kalkulować pojedynczy sampel szybciej (tyczy się każdego sprzętu). Bardziej złożona instrukcja = więcej obliczeń = dłuższy czas renderu i zużycie pamięci.

 

owszem, przy założeniu, że zostanie to wykorzystane, więc nie sadzę żeby to dało jakiś duży narzut czasowy na końcowy rendering sceny benchmarka, który tej funkcjonalności nie wykorzysta.

 

To ostatnie jest powodem dlaczego jeszcze długo na AMD nie będzie wszystkich featuresów Cyclesa a na CUDA są.

 

nie decydują o tym powody technologiczne tylko ramy czas/praca/ludzie itp. np: brak obsługi hdr w cycles ocl nie wynika z braków technologicznych kart AMD:), tylko nie ma kto tego zrobić itd. jest z resztą cyclesa. PS. nadal jest to OCL1.1 i poprawki na samym kodzie kernela, które są ważne i przechodzi wyżej, ale dopiero przepisanie na OCL2.x pozwoli zrównać funkcjonalność z wersją CPU przy dalszym wykorzystaniu GPU. CUDA cycles nigdy nie zrówna się z wersją CPU tak żeby nadawało się do finala.

 

https://www.blender.org/manual/render/cycles/features.html

Tu masz pobieżnie porównanie po tym pierwszym patchu OCL(GCN). Experimental można odłożyć na półkę, bo to prędzej rozwali sterownik niż zadziała, transparent shadows w kolejnym patchu OCL, potem branched path integrator, coś jeszcze ma sens na małych rdzeniach GPU ?. Noo, jest Volume, ale to takie jest, bo ma duże wymagania.

 

PS. jest alternatywna w postaci obecnie Luxrender 1.5... do Blendera i nie tylko :)

Napisano (edytowane)
napisz jak sprawdzić to sprawdzę i zob.
Pracować normalnie w programie przez kilka tygodni a nie pokręcić chwile viewportem na prostej scenie...

 

Widzę że nie testowałeś eksperymentalnych ficzerów na CUDA i wolisz zaklinać rzeczywistość. ;) Działają, tylko po prostu wolno jak na CPU.

 

I'm out. Wole zaufać ludziom którzy tworzą oprogramowanie lub z niego korzystają, zamiast osobie która fantazjuje na temat jeszcze nieistniejących technologii i za rzetelny test stabilności uznaje odpalenie prostej sceny testowej.

Edytowane przez Monio
Napisano (edytowane)
Materalia: Jaki masz system operacyjny? U mnie max się zawodowo wywala na W10

 

Windows 7. W Windows 10 na razie nie będę wchodził, bo problemy są chyba nie tylko z Autodesk, nawet program do faktur mi się wywalał he:). Używam jeszcze Linux na drugim kompie - szkoda kasy na kolejną licencje. Na laptopie też Win7. Testowałem Win 8.1 i nie było fajnie, nie chodzi o sterownik, tylko sam system.

Edytowane przez materalia
Napisano
Pracować normalnie w programie przez kilka tygodni a nie pokręcić chwile viewportem na prostej scenie...

 

NVIDIA też kręci chwilę, potem wypuszcza i poprawia, nie sądzisz chyba, że ktoś tam tygodniami testuje każdy program przy każdej kolejnej wersji sterownika.

 

Wole zaufać ludziom którzy tworzą oprogramowanie lub z niego korzystają, zamiast osobie która fantazjuje

 

Wiesz, ja wolę sprawdzić niż fantazjować nt. nieistniejących bugów na podstawie plotek, bo kiedyś gdzieś coś tam było to tak musi być itd. Waszym zdaniem to ja ponoć od razu miałem przekonać się o tych bugach na tym Radeonie, niestety nic na razie nie wykryłem z tego co piszecie, teraz wygląda na to, że musiałbym pokręcić kilka tygodni, no super podejście :). Kręcę w innych programach niż Maya na Radeonie i tam bugów nie ma. Jeszcze pokręcę czasami, chociaż Maya to nie mój target - za drogo, może coś znajdę to będziecie hepi :)

Napisano
Wiesz, ja wolę sprawdzić niż fantazjować

Do you? Podsumujmy:

1. Nie testowałeś Maya na Win10.

2. Nie pracowałeś w tym programie tylko odpaliłeś kilka prostych scen.

4. Nie testowałeś funkcji o których pisze Camel.

5. Mówisz że Camel zmyśla że są bugi w podczas Pracy w Maya na Win10.

 

Serio uważasz że twoje, niepoparte niczym zaklinanie rzeczywistości jest rzetelne a opinia osoby która miała z tym do czynienia to bajki i hejt?

Napisano (edytowane)

A możecie wreszcie skończyć watek ma już 8 stron i zasadniczo jest na temat wyższości świat bożego narodzenia nad wielkanocny :) Niech każdy używa tego co mu dobrze działa i co spełnia jego wymogi

I darujcie sobie teksty na temat win 10 przesiedliście się na niego z własnej nieprzymuszonej woli to nie jęczcie ze to dziurawe gówno nikt wam nie kazał. Microsoft jak zawsze zawalił sprawę a teraz zwal na producentów innych softów, czy sprzętu odpowiedzialność za kłopoty. Dwa skończcie z ta przepychanka co u kogo działa lub nie działa bo to tez nie ma 100% czy winę za to ponosi soft czy może macie kiepska konfiguracje komputera

Edytowane przez skalpel3d
Napisano
Jak możesz zobacz jak chodzi substance painter

 

Działa bezproblemowo na R9 380, także HD 7650M i Intel Haswell (choć tu wolno przy większych proj. - brak własnego VRAM). Pobawiłem się tym modelem Hans. PBR działa elegancko, idealnie. Aplikacja jednak dość specyficzna. Mocno obciąża RAM i szynę PCIx kiedy zaczyna brakować VRAM (dlatego PCIx 3.0 by się przydało), potrzebuje naprawdę sporo VRAM (mi zjadło na dzień dobry w tym projekcie 1.5GB na karcie graf., a bez problemu dobiłem do 3GB, jako amator tej aplikacji, przypominam, że GTX970 ma realnie szybkiego VRAM tylko 3.5GB). Dużo mieli też CPU (nie są typowo ciężkie obliczenia)... Pewnie na VRAM i wolniejszej PCIx (masz 2.0 na Phenomie X6 - to jednak 2x wolniej niż 3.0) ten GTX 660 2GB tak niedomaga w tym programie najbardziej.

Napisano
Od Nvidi której używają wszyscy i jest supportowana przez wszystkich

 

Autodesk supportuje AMD https://knowledge.autodesk.com/support/maya/troubleshooting/caas/sfdcarticles/sfdcarticles/System-requirements-for-Autodesk-Maya-2016.html

 

Co prawda na listach są AMD FirePro i NVIDIA Quadro, ale odpowiedniki low-budget oferują jakościowo to samo. Autodesk naprawdę nie ogranicza się do only NVIDIA, także wspiera AMD i działa. IntelHD nie wspiera, a też działa, chociaż może działałoby wydajniej gdyby wspierał :). Na różnych forach ludzie piszą, że jeżeli chodzi o Maya to karty AMD są zazwyczaj wydajniejsze w viewport. Testy z tego linku wcześniej generalnie jakby to potwierdzają: https://www.pugetsystems.com/labs/articles/AutoDesk-Maya-2013-GPU-Acceleration-166/

 

Karty NV najbardziej nadrabiają na fizyce, bo Maya używa tam NVIDIA PhysX (NVIDIA jak wiadomo wszystko co dorwie lub zrobi to od razu zamyka tylko dla siebie), ale bez szału.

Napisano (edytowane)
1. Nie testowałeś Maya na Win10

 

nie

 

2. Nie pracowałeś w tym programie tylko odpaliłeś kilka prostych scen.

 

ponoć miało się od razu wywalić i wykrzywić :)

 

4. Nie testowałeś funkcji o których pisze Camel.

 

niektóre tak, zaraz sprawdzę subd, ale 15GB scen nie sprawdzę, już widzę jak NVIDIA sprawdza z każdym wydaniem sterów hehe:)

 

5. Mówisz że Camel zmyśla że są bugi w podczas Pracy w Maya na Win10.

 

patrz odp. ad. 1., ale chętnie wykonam procedurę wg. której zobaczę jednego z bugów o którym w całym tym wątku wspomniano.

 

Serio uważasz że twoje, niepoparte niczym zaklinanie rzeczywistości jest rzetelne

 

dużo bardziej niż plotkowanie i nie sprawdzam na konfiguracji tej osoby tylko swojej. Powiedz mi, czemu wierzysz w nieomylność NVIDIA skoro jej stery też się wywalają w różnych sytuacjach, produkują bugi, miewają swoje humory itd. podobnie jak konkurencji. Uważam takie podejście do kart AMD za zwykły hejt.

Edytowane przez materalia
Napisano

Nigdzie nie pisałem o nieomylności Nvidii i wiem że u nich też zdarzają się problemy. Kwestia taka że jest ich rząd wielkości mniej niż w przypadku AMD i bynajmniej nie jest to, jak ci się wydaje, wyłącznie wina developerów wielu aplikacji. Poddaje się. ;)

Napisano
chociaż nie wiem czy znajdę scenę 15GB. Nie przesadzasz, czy ktoś tu robi takie sceny ?. :)

No zdarzają się niestety.

 

Do you? Podsumujmy:

5. Mówisz że Camel zmyśla że są bugi w podczas Pracy w Maya na Win10.

?

 

Nie chcę już dorzucać do pieca, ale przyznam się, że nie testowałem na win10. Win 7 only, być może pod 10 AMD magicznie rozwiązało te problemy :)

Napisano
Kwestia taka że jest ich rząd wielkości mniej

 

tak tak, od razu rząd wielkości, pewnie o rząd wielkości to nie są tak hejtowane jak tu przez Ciebie owe wirtualne bugi AMD jakie widzisz chyba oczami wyobraźni he:). Wystarczy pierwszy rzut oka na devtalk.nvidia i community.amd żeby się z tego hejtu wyleczyć.

 

Subd działa okej, nic nie wyjeżdża na boki, nic nie znika itp. PS. zauważyłem przy okazji, że w wielu miejscach jest OpenCL, coś Autodesk nie wierzy w Cuda ;)

Napisano

[quote=materalia;1253408

Subd działa okej, nic nie wyjeżdża na boki, nic nie znika itp.

 

W takim razie kupuję AMD, potrafisz namówić !

:)

Napisano

Kupuj co chcesz:). Nie namawiam tak jak niektórzy do GTX970 za 1.5 tyś na zasadzie TINA "There is no alternative". Zwracam tylko uwagę na istnienie takich kart grafiki jak AMD, bo naprawdę świat3D nie kręci się tylko dookoła NVIDIA jak niektórym się wydaje. Osobiście zupełnie płynnie niedawno przeszedłem z GTX650Ti 2GB(wcześniej 550Ti 1GB) na R9 380 4GB - najlepszy 4GBajtowiec do 1000 zł, moim zdaniem. Przez wszystkie lata miałem mniej więcej tyle samo dziwnych problemów z produktami obu firm. Nie czuję przywiązania do marki tylko technologii i wolę raczej otwarte standardy.

 

W zasadzie dla mnie najważniejszy jest OGL i DX(to tylko czasami do gier), wincyj rdzeniuf CPU i Ghz, dużo RAM, a GPGPU to nadal tylko ciekawostka która przydaje się w niewielu czynnościach i musiałbym się jeszcze mocno zastanowić jakich. Nadzieję na poprawę środowiska pracy w przyszłości wiąże raczej z OGL Vulkanem i async shaders/compute niż samym gołym OpenCL.

Napisano (edytowane)

Nie wracajac do łutni AMD vs Nvidia. Po 10 kupuję. Sklep X-kom lub komputronik. Odbiore sobie osobiscie w Reducie w Wawie.

Ostatecznie mam 4 karty sklaniajac sie ku Ausus Strix ze wzgledu na backplate i dlugosć.

 

Asus STRIX-GTX970-DC2-4GD5 vs Gigabyte GV-N970WF3OC-4GD vs Asus Turbo - GTX970-OC-4GD5 vs EVGA GeForce GTX 970 4GB SC GAMING ACX 2.0

 

http://www.komputronik.pl/product/244276/Elektronika/Cz%C4%99%C5%9Bci_PC/EVGA_GeForce_GTX_970_4GB_SC_GAMING_ACX_2_0.html?utm_source=Ceneo&utm_medium=link&utm_campaign=NiePromo

 

http://www.komputronik.pl/product/269535/Elektronika/Cz%C4%99%C5%9Bci_PC/ASUS_GeForce_GTX_970_4GB_Turbo.html

 

http://www.x-kom.pl/p/237343-karta-graficzna-pci-e-asus-geforce-gtx970-4096mb-256bit-directcu-ii-strix.html

 

http://www.x-kom.pl/p/209776-karta-graficzna-pci-e-gigabyte-geforce-gtx970-4096mb-256bit-windforce-iii-oc.html

 

Gigabyte jest najdluzszy ponad 310mm.

Edytowane przez Sebazx6r
Napisano

Bierz najtańszą sensowną GTX970 4GB jaką znajdziesz na warunkach jakie akceptujesz, bo GTX970 w relacji możliwości/wydajność/cena nie powinien kosztować więcej jak 1100zł maks. 1200zł, z tymi niepełnymi 4GB - jeden z kluczowych parametrów w pracy 3D (4K tekstury 32b float swoje zajmują, a tu nie używa się kompresji tekstur jak w grach, szczególnie w malunku). EVGA robi dobre GTX. Zobacz czy ma backplate, a jak nie, to czy można dostać. Jak jest okazja to bym brał.

Napisano

Chyba tylko ten strix ma ale filmikach jest wersja OC a ta troszkę się rozni. Ten backplate to właściwie po co? Do Evga nie wiem czy jest dostępny ale patrzyłem ceny tych backplate'ow to Chyba po około 80pln chodza wiec wychodzi różnica w cenie. Zaraz popatrzę. A jak jest z tymi gwarancjami door to door?

Napisano

Wzialem Strixa z X-kom odbiore sobie w reducie.

Dokładnie ten model więc nie OC. Asus STRIX-GTX970-DC2-4GD5 Myslalem nad EVGA ale poczytalem i akurat ten model mial problem z umiejscowienim chlodzenia na Heatpipe'ach. Czesto bywalo ze siedzial tylko na 2 z 3.

 

Jeszce dokładniej ujmując to tego.

http://allegro.pl/karta-asus-strix-gtx970-4gb-gddr5-256bit-hdmi-gra-i5761126671.html

 

Tak wiec pewnie za dzień 2 odbieram i zobaczymy.

 

Czym to najlpeij sprawdzic przed i po? 3d mark jakiś? Zobacze jak roznica i powoli bede sie do nowych podzespolow na rok 2016 szykowac.

Napisano

Ściągnij jakąś scenkę z animowanym characterem, nawrzucaj dużo obiektów w tło i zobacz ile masz FPSów na różnych trybach wyświetlania. Najlepszy benchmark imho. Od biedy jakiś przelot kamery zamiast charactera.

Napisano

;) super. Szkoda ze ja nie korzystam z 3dMax i nie na jednym programie jadę, a jakoś do AMD mam obawy hoc te 8GB RAM jest kuszące ;). No nic klamka zapadła.Z drugiej strony substance designer integruje IRAYA.

Napisano

Już zintegrowali, spoko śmiga. CUDA jest wszędzie. W majce to już w ogóle. Gęste geo, transformacja kości na GPU liczona dziesiątki razy szybciej niż na CPU, Open Subdiv... I będzie tego co raz więcej.

Napisano
Czym to najlpeij sprawdzic przed i po? 3d mark jakiś?

 

3dmarki nie mają żadnego odniesienia do viewport w programach 3D, tylko trochę do gier, więc ten test możesz sobie całkowicie darować i traktować tylko jako ciekawostkę, bo niewiele się z tego dowiesz.

 

Oprócz wrzucania obiektów nie zapomnij nawrzucać tekstur, najlepiej 4K.exr 32b float :).

 

akurat ten model mial problem z umiejscowienim chlodzenia na Heatpipe'ach

 

raczej nie, tam są 2 heatpipe, ten trzeci jest mniejszy, lepsze chłodzenie mają wersje SSC, dlatego pytałem o tego backplate, bo EVGA mają często pamięci po drugiej stronie, więc na okrojonym chłodzenia byłyby gołe kostki vram. Sam GTX970 nie jest jakimś wielkim grzejnikiem. Tak czy owak to chłodzenie Asus Strix nie prezentuje się najlepiej, bo tam powinna być płytka po obu stronach, także +100 zł trochę wywalone niepotrzebnie.

 

PS. Sapphire Nitro (R9 380...) ma lepiej przemyślane chłodzenie niż Asus Strix, chociaż nie ma backplate, bo nie potrzeba, dlaczego to widać na tych fotkach. http://cdn.reviewstudio.net/images/stories/hardware/video-cards/sapphire-r9-380-nitro/Sapphire_R9_380_Nitro_heatsink.jpg

http://cdn.reviewstudio.net/images/stories/hardware/video-cards/sapphire-r9-380-nitro/Sapphire_R9_380_Nitro_naked.jpg

Napisano
CUDA jest wszędzie. W majce to już w ogóle.

 

W Majce jest używany OpenCL (także kości), więc nie przesadzaj z tym cudowaniem:), choć sam opensubdiv od pixara ma oczywiście porty na wszelkie akcel., w tym także CUDA, to przynajmniej u mnie w Mayce dało się wł. tylko OpenCL.

Napisano

80zł ;) jak juz. Jakoś to przeżyje. Ten EVGA jest tylko 1 i na stanie jakiegoś ich sklepu. Pewnie fizycznie go nie znajdą xD. Zniechecil mnie taki oto widok zdjetego radiatora z tego właśnie modelu. Fot na forum zagranicznym było więcej.

acvOFnY.jpg

Heatpipe jeden nie tyka procka. Na pewno trochę ciepła przeniesie ale już sam nie wiem.

Cinemabench zobaczę i pędzle w painterze i prace na wastwach. Reszta wyjdzie praktyce.

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności