Skocz do zawartości

Maxwell - testy - rendery testowe


Hindus

Rekomendowane odpowiedzi

tomik8on69

Nie wiem co to za obsesja, aby się koniecznie wypowiadać na tematy o których ma się małe pojęcie dodam tylko że 3D to dla mnie temat poboczny raczej pasja. Przy okazji.. taką powierzchnię określa się jako radełkowaną lub moletowaną.

Zdeno

Unibased.. sprzęt zaczął hamować i nie ma już podwajania wydajności co rok czy dwa lata, ostatnie 2 lata to jakieś 15% u Intela biorąc pod uwagę flagowe modele. Ale żałuję, że teraz nie mam większego romansu z Maxwellem, bo trzeba się było jednak napocić startując na Q6600, a tym którzy to pchali wcześniej na jednym lub dwóch rdzeniach pomniki się należą.

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 979
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

tomik8on69

To że wszyscy narzekają to normalka i nie ma co na to zwracać uwagi, bo to taki lamentujący i mało konstruktywny naród z natury. Traktując sprawę pragmatycznie to dla mnie szok i lekko szczęka mi opadła, ja sam mam Intela, ale obecnie nie działam intensywnie w Maxwellu i jestem nieco znudzony bez większej motywacji. Należało by jakoś ustalić czy rzeczywiście Maxwell tak wymiata na FX… jeśli tak, to trzeba się poważnie zastanowić nad zmianą systemu bo różnica jest jednak zbyt drastyczna. Bólu nie ma bo wyznawcy boskiej marki wezmą 2600K bez większych strat.

Odnośnik do komentarza
Udostępnij na innych stronach

Witam wszystkich. Próbowałem ostatnio wyrenderować coś w Maxwellu i zrobiłem sobie taką małą prostą scenkę. Na wstępie mój sprzęt: i5-2500k 3.3 GHz, 12GB RAM 1600MHz

Liczyło się 37 godzin. Doszło do SL 23.02 (do następnego SL trzeba by aż około 15 godzin obliczeń). Rozdzielczość 1400x787. Oświetlenie tylko Sky i Sun, użyłem Multilight.

 

01jpg_rpsaxhx.jpg

 

A poniżej to samo z większą intensywnością słońca:

 

02jpg_rpsaxhn.jpg

 

I niżej bez SUN (świeci tylko SKY)

 

03jpg_rpsaxea.jpg

 

 

 

Biorąc pod uwagę długość renderingu mogę stwierdzić że Maxwell raczej nie jest pod mój procesor.

 

Nie jestem pewien czy dobrze zrobiłem dając w Color Space: "AdobeRGB" (a nie domyślne "sRGB") ponieważ textury przygotowywałem w tym profilu (skonwertowałem z sRGB na AdobeRGB w Photoshopie i dalej korygowałem już w AdobeRGB) na monitorze AdobeRGB (Eizo szerokogamutowy wyświetlający 95% przestrzeni AdobeRGB). Może ktoś się zna w tym temacie i mnie oświeci czy dobrze robię renderując w tej przestrzeni, bo zauważyłem że powyższe rendery wyświetlane przez przeglądarkę internetową mają znacznie więcej niebieskości niż oryginalne (które wyświetlam u siebie prosto z dysku w Picassie), więc coś jest nie tak. Niebieskość widać zwłaszcza na trzecim obrazku. Może powinienem oryginalne rendery (które wyszły prosto z Maxwella) skonwertować w Photoshopie na inną przestrzeń rgb przed wrzuceniem na stronkę? Pozdrawiam.

Edytowane przez GustavJoseph
Odnośnik do komentarza
Udostępnij na innych stronach

masz podobny problem co ja tyle że na mniejszą skalę.

Maxwellowi brakuje narzędzia sky portal / exit portal dlatego sceny z małym wejściem dla światła renderują się bardzo wolno.

 

http://www.max3d.pl/forum/showthread.php?t=26478&page=87&p=1063566&viewfull=1#post1063566

 

co do kolorów to sam nie wiem :(

 

zdaje się ,że Paweł Podwojewski mógłby coś powiedzieć w tym temacie.

Odnośnik do komentarza
Udostępnij na innych stronach

Maxwellowi brakuje narzędzia sky portal / exit portal dlatego sceny z małym wejściem dla światła renderują się bardzo wolno.

 

Nie będę udawać specjalisty w Maxwellu, ale coś takiego jak portale światła environment to już jest zagrywka czysto ala biased, a więc jeśli Ci tego brakuje to lepiej przejść do czegoś ala mental ray :) Z takim podejściem jak Twoje, można by cały czas wymienieniać czego maxwellowi brakuje: np. wielkości i gęstości fotonów hehe. Pozdrawiam!

Odnośnik do komentarza
Udostępnij na innych stronach

"tomik8on69" a jeśli można spytać jak to robisz że masz ustawiony taki ładny balans bieli na swoich renderach

 

http://www.max3d.pl/forum/showthread.php?t=26478&p=1063563&viewfull=1#post1063563

 

http://www.max3d.pl/forum/showthread.php?t=26478&p=1060669&viewfull=1#post1060669

 

Moje rendery jak widać są albo za ciepłe (żółte) albo za zimne (niebieskie), w zależności od intensywności SUN lub SKY. Nie widziałem w MAXWELLu ustawień do regulacji temperatury barwowej, a powinna być chyba tak jak jest to np. w prawdziwych lustrzankach cyfrowych. Również w Vray i Mentalu mamy kontrolę ekspozycji z regulacją temperatury (znam te silniki dość dobrze, zresztą dużo w nich czasu spędziłem i często do nich wracam). Maxwell jako silnik unbiasowy zachęcił mnie dużym realizmem że tak się wyrażę "fizycznym" (poprawność fizyczną silnika), wszystko prawie jak w rzeczywistości i bez "przekrętów" typu "portale" (zniechęca mnie jedynie trochę czas renderingu). Jednak nie widziałem żeby można było regulować temperaturę barwową z "camery" czy gdzieś indziej (zresztą ten brak też zauważyłem we Fryrenderze który również jest unbiasem).

Edytowane przez GustavJoseph
Odnośnik do komentarza
Udostępnij na innych stronach

GustavJoseph

Możesz wybrać miejsce na globie, porę roku i godzinę, a wszystko pod kątem szukania odpowiedniej temperatury barwowej światła itd. Najlepiej wejdź w Maxwell Studio i pooglądaj wszystkie możliwe ustawienia Environment. Jeśli wspomniałeś o aparatach, to Maxwell idzie za obiektywem w sposób bezkompromisowy i to nastręcza pewnych problemów oraz zniechęca, bowiem nie można szybko zakombinować aby wyszło ładnie i trzeba uważać aby się nie wpakować w takie chore SL jak Ty. Co do sprzętu to zobacz do wątku Benchwell, który założyłem parę dni temu - tam możesz porównać sprzęt i wykonać test.

 

PS. Oczywiście możesz ustawić temperaturę i siłę Sun.. ale co to za dywagacje że masz zimne lub ciepłe i chcesz to koniecznie zbalansować, przecież wszystko zależy od tego jakie REALNIE światło dostaje się z zewnątrz, bo inne będzie zimą w południe, a inne jesienią po południu itd. więc to że jest zimno lub ciepło niekoniecznie kłóci się z realizmem.

Edytowane przez Spyra
Odnośnik do komentarza
Udostępnij na innych stronach

"Spyra" no dobra, ale przecież realnie człowiek tak nie widzi na kolorowo:) jak na tych renderach, a ja np. mam kaprys żeby zrobić render z mojego rzeczywistego położenia geograficznego i o określonej porze dnia i roku (i tak też zrobiłem). Standardowo temperatura barwowa światła dziennego w południe wynosi ok. 6500K czyli lekko niebieskie, ale czy człowiek postrzega wówczas wszystko na lekko niebiesko? Nie, wszystko dla nas jest naturalne bo ludzki mózg się dostosowuje do tego (lub inaczej interpretuje czy coś w tym stylu nie znam się na tym) abyśmy widzieli w sposób naturalny a nie jak na tych renderach. A dlaczego w cyfrówkach wprowadzono balans bieli? Żeby temperaturę światła korygować do wartości takiej aby zdjęcie wyszło dla nas "naturalne" a nie za niebieskie zimą czy za pomarańczowe latem po południu. Więc jak chcę zrobić render z oświetleniem symulującym np. późnie popołudnie lub zachód słońca to jestem skazany na pomarańczowy "render" z Maxwella bo nie można w nim skorygować balansu bieli jak w każdym normalnym aparacie? I muszę kombinować intensywnością Sun lub Sky albo wprowadzać inne sztuczne oświetlenie (lub bawić się balansem w Photoshopie)?

 

Co do wątku Benchwell który założyłeś czytałem go wcześniej, rzeczywiście mój procek to raczej za szybki nie jest ale cóż, jak będę zajmował się zawodowo renderingiem i grafiką 3d (bo teraz zawodowo robię jako grafik 2d) to i sprzęt odpowiedni będzie. Teraz zajmuję się tym wyłącznie dla własnej satysfakcji.

Edytowane przez GustavJoseph
Odnośnik do komentarza
Udostępnij na innych stronach

Kurcze przeoczyłem w tym wszystkim jeden ważny szczegół, że w Maxwellu można przecież ustawiać temperaturę barwową -ale Słońca. Standardowo jest na neutralnie białą czyli 5777K. Cholera sorry jak mogłem to przeoczyć, więc jakoś można wpływać na temperaturę. Tylko trochę dla mnie dziwne że ustawia się ją na Słońcu a nie w aparacie. W powyższych renderach miałem właśnie ustawioną taką temperaturę, i SunPower na 0.3, Physical Sky Intensity 1.0. Czas jest ustawiony na początek sierpnia - godzina 15.00, okolice trójmiasta. Może tak dziko wyszło też bo dałem Ozone 3.4 (standardowo 0.4), dzięki temu niebo świeci bardziej niebieskim światłem przez co cała ekspozycja nie wpadała tak w żółć (za to bez Suna temperatura jest zbyt przesunięta w drugą stronę). Trochę dziwne że zamiast w "camera" człowiek musi balans ustawiać w parametrach Sky i Sun.

Edytowane przez GustavJoseph
Odnośnik do komentarza
Udostępnij na innych stronach

Napisałem iż Maxwell idzie za obiektywem (czy też kamerą) co oznacza dokładnie różnicę pomiędzy postrzeganiem obrazu przez

oko, które ma nieporównywalne zdolności adaptacyjne. W praktyce należy dokonać odpowiedniej korekty na linii kamera oko i jeśli chodzi o Maxwella musisz tego dokonać wcześniej lub też ewentualnie kombinować z multilight color. Jesteś już prawdopodobnie dzieckiem ery cyfrowej i z nieodłączną funkcją balansu bieli, ale analog musiał tu sobie radzić na różne sposoby tak co do błon jak i światła, a przypomnę iż filmy są nadal w dużej części kręcone na taśmie filmowej.

Odnośnik do komentarza
Udostępnij na innych stronach

Problem dotyczył bardziej zaawansowanej techniki analogowej co do kontrolowanego zbalansowania błony, ale na pewno zauważyłeś, że były bardziej ciepłe i zimne filmy oraz różnice co do całościowego klimatu od danego producenta… do dzisiaj są ludzie nie mogący zerwać z analogiem właśnie ze względu na klimat i pewną „magię” analogu, co nie zawsze odzwierciadla pełny realizm co do reprodukcji barw.

Odnośnik do komentarza
Udostępnij na innych stronach

Z takim podejściem jak Twoje, można by cały czas wymienieniać czego maxwellowi brakuje: np. wielkości i gęstości fotonów hehe.

 

exit portal to żaden przekręt . to tylko wskazówka dla silnika którędy wpada światło żeby nie emitować zbędnych fotonów ,które pójdą do kosza - czysta oszczędność czasu bez oszczędności na jakości.

 

JEST potrzebne maxwellowi.

Odnośnik do komentarza
Udostępnij na innych stronach

@GustavJoseph

dodawaj linki do obrazków o których mówisz .

w moich postach zamieszczam czasem zdjęcia.

 

Chodziło mi o to:

http://www.woonkerkxl.nl/images/woonkerkxl_04_uk.jpg

http://www.frankhanswijk.nl/media/cont_originals/__1275090681.jpg

http://img804.imageshack.us/img804/7670/20111002ps1.jpg

http://img809.imageshack.us/img809/3195/20111012ps2.jpg

 

No chyba że się pomyliłem i te pierwsze wnętrza to oryginalne zdjęcia -trudno na pierwszy rzut oka stwierdzić jednoznacznie. Pewne szczegóły mogłyby świadczyć o tym że to jednak prawdziwe zdjęcia, trochę są niewyraźne i "brudne" ale mógł być to również zabieg celowy. Niestety nie czytałem wszystkiego dokładnie.

Edytowane przez GustavJoseph
Odnośnik do komentarza
Udostępnij na innych stronach

Nie obraź się ale jako osoba mająca kontakt z fotografią natychmiast powinieneś bez problemu poradzić sobie z odpowiednim „balansem bieli”. W wirtualnych warunkach robisz co chcesz z temperaturą barwową światła niczym Bóg tworzysz warunki - szczególnie w Maxwellu.. popatrz nawet dziewczyna się śmieje…

 

My Macbeth Color Checker Tattoo

Odnośnik do komentarza
Udostępnij na innych stronach

o dawno mnie nie było ... więcej niż jeden post !

 

balans bieli w maxwellu ustawiony jest na 6500 Kelwinów tak też 5777 standardowego słońca jest żółte bo takie ma być.

Czyli jeżeli chcemy to zrobić na chama to można ustawić słonko na 6500 i będzie białe jak zęby kalego, i jedyne z czym będzie trzeba zawalczyć to zaniebieszczenie od samego nieboskonu, ale ... jest to bardzo kiepski pomysł. Światło samo w sobie powinno mieć barwę jak najbliższą naturalnej aby nie zakłamywać rozwiązania GI. Żółte światło odbije się od niebieskiego koca z zupełnie inną intensywnością niż białe światło, a stąd tylko krok do "VRAY look". Fakt że przy białych emiterach łatwiej o kontrolę i szybkość ustawień , ale finalna solucja rozkładu energii będzie wydmuszką i surogatem.

 

bo

 

balans bieli w aparatach jest POSTPRODUKCJĄ za którą w świecie CG odpowiadać powinny programy typu photoshop.

 

to co wypluwa buffor mawella w wielkich bólach i z morza ziarna to jest coś podobnego do RAWa aparatowego. tak też nie ma się co dziwić, że kolory śmiszne. Trzeba to po prostu obrobić w postprodukcji tak jak to robią za nas procesorki w aparacie.

 

portale byłby zajebistym ficzerem i rozwiązałyby morze problemów z interiorami, w zasadzie ich brak jest jednym z bardziej irytujących faili tego softu.

Robią jakieś śmieszne włosy a takiego ułatwienia dla GI nie ma, widać wyraźnie że nie architekci są ich targetem tylko Ci od renderowania golarek i głośników w studiach pełnych światła .

Odnośnik do komentarza
Udostępnij na innych stronach

Oj zdeno ale mieszasz.. żadne „śmiszne” kolorki nie wychodzą, ale wychodzą dokładnie takie jak powinny wychodzić. Balans bieli to przeciwdziałanie „błędom” matrycy czyli wychodzi nam tak jak byśmy fotografowali przez niebieską albo pomarańczową szybkę i potem trza to ratować balansując. Natomiast barwy światła…to barwy światła i mogą one mieszać i odbijać się tak jak powinny. W Maxwellu jesteśmy wolni od całej masy praktycznych problemów z jakimi mamy do czynienia w fotografii, bo biała kartka to pół biedy ale odpowiednie odwzorowanie całej palety barw to już nie takie proste. Generalnie trzeba się przyłożyć przed, a nie po, bo po może być już masakra obrazu w poszukiwaniu równowagi.

Odnośnik do komentarza
Udostępnij na innych stronach

 

@tomik8on69 - Muszę przyznać że te rendery które są z Maxwella też wyglądają bardzo realistycznie.

 

@zdeno i @Spyra - właśnie tego się chciałem dowiedzieć, dzięki za odpowiedzi i wyjaśnienia. Teraz już wiem jak ustawia się odpowiedni WB w Maxwellu ponieważ dopiero w nim raczkuję. Większość czasu jednak spędzam w Mentalu i Vrayu. Chciałem po długim czasie obcowania z Mentalem i Vray-em spróbować czegoś innego, osiągnąć coś bardziej "fotograficznego". Jednak to nie jest na mój procesor. Przyznaję że faktycznie Maxwellowi są potrzebne te portale co znacznie przyspieszyłoby rendering.

Wiem że to nie dział Vray, więc podaję poniżej tylko linka do mojego ostatniego rendera w Vray (jak ktoś chce to może luknąć) wygenerowanego wczoraj w nocy, podobnej rozdzielczości co moje wcześniejsze rendery z Maxwella (1400x764). Scenka jest ta sama, bez żadnego postpro w Photoshopie (czysty render) tylko trochę bardziej rozbudowana i z innego ujęcia, oświetlenie tylko Sky i Sun, oczywiście portale w otworach, i PhysicalCamera z balansem ustawionym na 4400K. Czas renderingu około 10,5 godzin (na procesorze i5-2500K 3,3Ghz).

http://s2.ifotos.pl/img/testjpg_rpqnnhs.jpg

Edytowane przez GustavJoseph
Odnośnik do komentarza
Udostępnij na innych stronach

Jak na tego „demona szybkości”, to czas długi i ja osiągnę bez problemu taki efekt w Maxwellu na podobnym poziomie czasowym albo szybciej. Oczywiście będę oszukiwał, ale oszustwo musi nastąpić ponieważ nie ma zgody pomiędzy okiem i kamerą… to ma wyglądać tak jak bym tam stał a jeśli tak to czy moje oko zobaczy tak silne przepalenie na dywanie.. na pewno nie, mój wzrok zaadaptuje się do warunków i będzie to widział jednak nieco inaczej…

Odnośnik do komentarza
Udostępnij na innych stronach

Jak na tego „demona szybkości”, to czas długi i ja osiągnę bez problemu taki efekt w Maxwellu na podobnym poziomie czasowym albo szybciej. Oczywiście będę oszukiwał, ale oszustwo musi nastąpić ponieważ nie ma zgody pomiędzy okiem i kamerą… to ma wyglądać tak jak bym tam stał a jeśli tak to czy moje oko zobaczy tak silne przepalenie na dywanie.. na pewno nie, mój wzrok zaadaptuje się do warunków i będzie to widział jednak nieco inaczej…

 

Czas długi bo lubię używać "wyżyłowanych parametrów", ale np to w tej samej rozdziałce generowało się zaledwie 3,5h (większy szum i bez DOF)

http://s4.ifotos.pl/img/dsfsjpg_rpqnape.jpg

 

Przepalenia są, ale po zrobieniu zdjęcia prawdziwym aparatem też są (nawet robiłem fotki lustrzanką Nikona żeby sprawdzić jak rozkładają się cienie, i owszem przepalenia w słoneczny dzień są na zdjęciach aż diabli:)). Mogłem usunąć przepalenia jednak rendery straciłyby na kontraście i realiźmie, a miało wyglądać jak zdjęcie.

Edytowane przez GustavJoseph
Odnośnik do komentarza
Udostępnij na innych stronach

Ale zawodowiec od profesjonalnej fotografii nie poprzestał by na postawieniu aparatu i kliknięciu zdjęcia ale szukał naturalności w odniesieniu do wzroku i naturalnych odczuć.. stop, nie wchodzę dalej w temat… co jest a co nie jest foto-realizmem.

Odnośnik do komentarza
Udostępnij na innych stronach

Ale zawodowiec od profesjonalnej fotografii nie poprzestał by na postawieniu aparatu i kliknięciu zdjęcia ale szukał naturalności w odniesieniu do wzroku i naturalnych odczuć.. stop, nie wchodzę dalej w temat… co jest a co nie jest foto-realizmem.

 

@Spyra na pewno masz rację. Ja nie jestem jednak zawodowym fotografem tylko fotografem amatorem. A zawodowo pracuję jako grafik 2D (niestety - co już mnie bardzo męczy, i po pracy robię sobie w 3D dla relaksu bo zawsze lubiłem w tym grzebać). Robię sobie rendery dla własnej satysfakcji próbując zrobić coś zbliżonego do fotorealizmu, stąd miałem taki przypływ aby spróbować coś w słynącym z fotorealizmu Maxwellu. Niestety pasuję ze względu na brak odpowiedniego sprzętu (bo sam widzisz że na i5-2500K się nie da)

Odnośnik do komentarza
Udostępnij na innych stronach

Da radę.. ja rozpocząłem mordęgę na Q6600, a Ty jesteś chyba 2-razy szybszy. Nie daj się zbić z tropu takim ekscentrykom jak ja czy też „przegranym” jak Zdeno. Maxwell jest OK, bo jest bezkompromisowy - stara dobra szkoła.. nie lituj się nad sobą jak chcesz coś osiągnąć, więc nie zwalaj na sprzęt, tylko do dzieła, duchowa walka wbrew oponentom, ogólnemu marazmowi i wyrachowaniu.. ale mowa.. idę spać.

Odnośnik do komentarza
Udostępnij na innych stronach

właśnie ,

ja pracowałem długo na sprzęcie mającym 0,49 pkt w cinebench 11.5 R . renderowałem proste sceny po kilka dni. te sceny do których linki zostały zamieszczone parę postów wstecz powstawały właśnie na takim sprzęcie. Dopiero niedawno tj. w czerwcu pozwoliłem sobie na odrobinę luksusu i wydałem 4700 PLN na sprzęt do renderingu - obecnie 8.13 pkt

a że stęskniłem się za długimi czasami to renderuje ciemne kościoły albo coś przy użyciu oprogramowania beta

Odnośnik do komentarza
Udostępnij na innych stronach

Co do sprzętu to trzeba skończyć z tym Cinebench (skrojonym pod Intela) szczególnie w dziale Maxwella. Tu można pobrać test wydajności - http://visualim2.o2switch.net/benchwell/index.php?option=com_content&view=article&id=46&Itemid=49

Wychodzi na to że Maxwell potrafi jakimś cudem wykorzystać dobrze architekturę Bulldozera i jeśli wyniki są wiarygodne to trzeba je porównać i wyciągnąć odpowiednie wnioski.

Odnośnik do komentarza
Udostępnij na innych stronach

http://www.max3d.pl/forum/showthread.php?t=75550&page=3&p=1021307&highlight=#post1021307

już wcześniej o tym myślałem bo jednak cinebench to jakby nie było benchmark

 

co do testów na nowej stronie benchwella.

 

scena nie pasuje już do obecnych możliwości maxwella

1.) nie ma sss

2.) niska rozdzielczość

3.) brak displace

4.) brak IOR

5.) brak IES

6.) brak hair

 

a teraz latarka leżąca pod ławką w parku w cieniu w pluszowym plecaku

mamy hair ( plecak )

mamy IES ( rozblyski z latarki )

mamy displace ( raczka latarki , ew. grunt )

mamy IOR ( materiał metalu )

mamy HDR ( otoczenie parku )

dajemy duża rozdzielczość

mamy SSS ( liście )

 

to taki głupi przykład , możemy zrobić konkurs na nową scenę testową maxwella z głosowaniem w wątku i potem zrobimy kolejny wątek na same testy.

Odnośnik do komentarza
Udostępnij na innych stronach

Bez sensu ta twoja propozycja chyba że przepchniesz to na forum międzynarodowym. Chodzi o to aby ludzie publikowali wyniki na konkretnym sprzęcie, a nie kilku tańszych prockach Intela i AMD. Generalni chodzi o to, jak dany silnik podchodzi do sprawy i raczej wątpię czy po zastosowaniu twoich propozycji, proporcje co do wydajności poszczególnych konfiguracji ulegną zmianie. Tu chodzi o porównanie sprzętu i nie wydaje mi się aby komplikowanie sceny miało większy wpływ na proporcje w dobrym porównaniu sprzętu chyba że chodzi o RAM a nie wydajność procesora.

Odnośnik do komentarza
Udostępnij na innych stronach

po prostu inaczej do tego podchodzisz.

 

dla mnie taka scena ma pokazywać także rozwój maxwella ( promo ) a nie tylko kalkulacje.

inaczej można i puste pomieszczenie renderować - skróci się tylko czas.

 

a przepchnąć na forum international zawsze można jak scena będzie fajna.

Odnośnik do komentarza
Udostępnij na innych stronach

Test musi być wyważony i możliwie szybki, bo aby go dobrze wykonać trzeba wszystko powyłączać i zająć procesor tym co należy, więc jeśli wymyślisz taką wypasioną scenę i ktoś to będzie chciał przetestować na laptopie, to na pewno pochwali cię za inwencję. Benchwell jest cholernie cenny bo można znaleźć testy na różnych konfiguracjach łącznie z farmami, jak widać. Szkoda że w pewnym momencie strona przestała działać, bo ładnie się to rozwijało, a Maxwell potrafi przetestować na co realnie stać sprzęt do liczenia he he he.

Odnośnik do komentarza
Udostępnij na innych stronach

na rodzimym forum maxwella właśnie trwa coś na kształt "konkursu" na nową scenę do benchwella która ma spełniać wszystkie postulaty podniesione przez tomik8on69. Spyra kolejny raz podążył jakąś archaiczną ścieżką ;)

 

na rodzimym forum maxwella jest też bardzo ciekawy wątek pokazujący, że na procesorach amd sceny w których wykorzystano przełącznik R2 w materiałach renderują się 25% wolniej a to przecież tylko dwie czy trzy instrukcje więcej.

 

Ogólnie bardzo polecam zainstalowanie się tam na stałe.

Odnośnik do komentarza
Udostępnij na innych stronach

Tak Zdeno dawałeś sygnały o nowych inicjatywach co do Benchwella pewnie ze dwa lata temu.. i jak widać kończy się na konkursach i pomysłach i dalej nie bardzo jest się do czego odnosić, a jako punkt odniesienia rządzi niepodzielnie Cinebench… po zbóju miarodajny.

 

PS. Co do R2, to nic prostszego niż zastosować to w tych 5 materiałach,które są w Benchwell i zobaczyć czy na Intelu jest szybciej .. no niestety wyraźnie wolniej, więc nie ma co powtarzać tych typowych „niebieskich” wyrzutek i najlepiej testować samemu.

Edytowane przez Spyra
Odnośnik do komentarza
Udostępnij na innych stronach

nie chce mi się dwa razy tłumaczyć Spyrze, bo i tak tradycyjnie zostanie w swoim betonowym pudełku.

 

Dla zainteresowanych polecam rodzime forum maxwellrendera, bo chyba tylko tam jeszcze cokolwiek się dzieje.

 

Request o nową scenę do benchwella jest świeży, bo NL obgoniło najważniejsze updaty jakie chcieli i teraz chcą pocisnąć z tym benchwellem na nowo. Tak też jak ktoś ma jakiś fajny pomysł na nową scenkę wykorzystującą większość ficzerów z maxwella 2.6 to może partycypować.

 

co do R2 to koleś przeprowadził srogie test na temat różnic pomiędzy różnymi rodzajami procesorów i ich sposobie liczenia materiałów o różnych ustawieniach, różnice są kolosalne i warto to prześledzić, ale nie będę przecież tu wklejał 40 nie swoich postów i to jeszcze w barbarzyńskiej mowie sasów ;)

 

W sumie to dziwię się, że Ty Spyra taki zawsze wiertłowo-drążący detalista nie spijasz z samego źródła wiedzy na maxwellrender.com tylko latasz opłotkami na forum gdzie może z 6 ludzi wie o czym piszesz ;) wracaj do źródła!

Odnośnik do komentarza
Udostępnij na innych stronach

Jestem, jestem na różnych forach, ale „betonowe pudełko” czyli sprawdź to sam mnie raczej nie zawodzi, to wszystko nie takie proste, bo masa rzeczy się nie pokrywa, gdybym ludzi słuchał bez wiercenia i porównań nic bym nie zrobił popadając w zniechęcenie na starcie.. albo po pewnym czasie ;)

 

PS. 4-procki na płycie to wyższa szkoła jazdy i trzeba się raczej odczepić od Widowsa, bo robi brzydkie kawały ma na przykład problemy z wykorzystaniem więcej niż 64 wątków co akurat nie jest obecnie problemem AMD ale Intela serii E-7. Gość morduje 4x 8439SE i porównuje do 2600k… no nie wiadomo czy śmiać się czy płakać, bo kto dzisiaj przy zdrowych zmysłach kupi do renderingu procek 6-rdzeniowy za 2500USD z 2009r. Potem była seria 6100, a teraz jest 6200 (Bulldozer) gdzie 16rdzeniowy (lub wątkowy) procek 2.1 Ghz można kupić już za 525 USD czyli 4-procki za 2100USD. Test kompletnie bez sensu i kompletnie nie na czasie inna architektura inne instrukcje… więc szkoda się nawet wdawać w dyskusję.

 

Ps.Ps Zdeno jeszcze tego brakuje żeby się dwóch Polaków boksowało na zachodnich forach.. nie pogłębiajmy opinii pieniaczy, lepiej pogadajmy sobie u siebie… ale jak widzę te Twoje podziękowania za ten durny test, to wierz mi, że moje ciśnienie nie pozostaje na normalnym poziomie.

Edytowane przez Spyra
Odnośnik do komentarza
Udostępnij na innych stronach

Jaki drapieżniku… jeszcze wylazłeś z jamy.. no może troszkę mnie wkurza ten marazm i konformistyczna aura pozbawiona precyzji.. i pojawia się jeden z grzechów głównych.. gniew.. trzeba się wyciszyć i z powrotem do jamy, do jamy…

Odnośnik do komentarza
Udostępnij na innych stronach

… ale jak widzę te Twoje podziękowania za ten durny test, to wierz mi, że moje ciśnienie nie pozostaje na normalnym poziomie.

 

zawsze podejrzewałem, że zamiast czytać ze zrozumieniem. Twoje gałki oczne zaledwie ślizgają się zdawkowo po literach, bo i tak wiesz już swoje i nie chcesz burzyć status quo w swojej głowie.

Teraz to już mam pewność ;)

Ten test nad którym się wyzłośliwiasz z kompletnie nie miał na celu porównania wydajności procesorów z różnych stajni, a jedynie zwracał uwagę na arcy-ciekawy fakt, że jednym ustawieniem w materiale można położyć wydajnośc procesora AMD spać, gdy tymczasem na procesorze Intela nie robiło to kompletnie wrażenia.

 

Spróbuję też to spuentować z innej mańki to może tym razem zaskoczysz.

Przy tworzeniu sceny można ustawieniami materiału wpływać na wydajność obliczeń w stopniu jakiego nawet nikt nie podejrzewał. Z pewnością jest to bug i pozwoli developerowi usunąć ten crap z kodu, który stawiał rozwiązanie AMD w niekorzystnym świetle.

 

zaskoczyło ? jest zielona lampeczka ? wdech-wydech ... i daruj sobie te obiegowe opinie o polakach-pieniaczach. Znajdą się pieniacze i w innych nacjach, bo to nie zależy od narodu tylko od człowieka, takie uogólnianie w trendzie gazety wyborczej to żenua!

Odnośnik do komentarza
Udostępnij na innych stronach

Oj Zdeno.. test pozostaje dla mnie bez sensu bo pojawia się hasło AMD, ale jego publikacja jest po pojawieniu się Bulldozera no i możemy mieć do czynienia z kompletnie innym zwierzęciem, a spore podejrzenia mam już co do Magny-Cours które było wcześniej ale po serii 8….. Owszem mogą być różnice absolutnie nie przeczę ale diabli wiedzą jakie w odniesieniu do Bulldozera i dlatego trzeba poddać powtórnej analizie.. kto tu czyta po łebkach…a tak swoją drogą nie prowokuj.

 

Gwoli wytłumaczenia – gość wyskoczył z tym całym ultra-precyzyjnym testem w odniesieniu do lekko przestarzałego procesora oraz na Windows Server,któremu za grosz nie ufam. Nowsza platforma AMD 4xOpteron 6174 2.2 Ghz pod Windows Serwer osiąga 2min.11sek w Benchwell, natomiast pod Linuksem ok. 80 sek. Tak przynajmniejmi wyszło po przeliczeniu wyniku pliku wzorcowego z jednej z farm używających AMD pod Linuksem, a oni raczej się starają zoptymalizować na maksa sprzęt i jak wiesz kręcą się namiętnie po forum Maxwella.. ciekawe dlaczego he he. Jednym słowem Linux i nowsze procki, a potem wiercenie przynajmniej dla tak zaawansowanych konfiguracji. Ten Linux nie dotyczy tylko Maxwella tu inny przykład Blender…

http://www.anandtech.com/show/2978/amd-s-12-core-magny-cours-opteron-6174-vs-intel-s-6-core-xeon/7

Edytowane przez Spyra
Odnośnik do komentarza
Udostępnij na innych stronach

Już po tym poście o balansie bieli miałem coś cierpkiego napisać, ale mi się nie chciało pochylać ;)

 

Oj zdeno ale mieszasz.. żadne „śmiszne” kolorki nie wychodzą, ale wychodzą dokładnie takie jak powinny wychodzić. Balans bieli to przeciwdziałanie „błędom” matrycy czyli wychodzi nam tak jak byśmy fotografowali przez niebieską albo pomarańczową szybkę i potem trza to ratować balansując. Natomiast barwy światła…to barwy światła i mogą one mieszać i odbijać się tak jak powinny. W Maxwellu jesteśmy wolni od całej masy praktycznych problemów z jakimi mamy do czynienia w fotografii, bo biała kartka to pół biedy ale odpowiednie odwzorowanie całej palety barw to już nie takie proste. Generalnie trzeba się przyłożyć przed, a nie po, bo po może być już masakra obrazu w poszukiwaniu równowagi.

 

Jak zawsze dużo komunałów i mnóstwo słów o niczym podlane mentorskim tonem lekko poklepującym maluczkich po plecach.

Balans bieli to w cyfrowych aparatach jest robiony PO zrobieniu zdjęcia jako postprodukcja. Dlatego dzięki temu przy zapisaniu pliku RAW możemy balans bieli zmieniać jak nam się żywnie podoba.

Dlatego napisałem, że z niepożądanymi barwami odbitego światła nie powinno się walczyć W SCENIE za pomocą materiałów czy kolorów samych świateł, ale aby być zgodnym z fizyką balans bieli musi być przeprowadzony PO renderze w programie do tego przeznaczonym. np. fotosklep.

Czasami przy ostrym słońcu kolorki wychodzą śmiszne w .mxi ale przy umiejętnym balansie w fotoszopie można uzyskać piękne i czyste kolory tak samo stuningowane jak wychodzą z każdej lustrzanki. Matryca nie robi błędów, tylko ludzi mózg generalizuje sobie kolory z reala i zawsze szuka jakiejś bieli aby mieć odnośnik. Dlatego porównywanie renderu nie ma sensu z tym co widzimy własnymi oczami. Sens jest jedynie porównując render ze ZDJĘCIEM co też już Ci ktoś tu wytknął.

 

Co do ostatniego posta o tym teście AMD vs R2 w materiała oraz Intel vs R2 w materiałach to oczywiście udajesz, że nie widzisz swojej pomyłki co do intencji autora i snujesz zasłonę dymną rzucając mnóstwo jakiś nazw kodowych oraz kolejnych rewizji procków. Ma się to do istoty rzeczy jak pięść do nosa, ale przecież nie możesz po prostu napisać, że nie doczytałeś, albo nie pojąłeś o co tam biega.

 

To że test nie jest przeprowadzony na najnowszym AMD nie ma tu znaczenia koniec i kropka. Temat jest ciekway bo coś jest spierdzielone w kodzie i może z każdą nową rewizją powrócić. Jak widać sprzętowo jesteś wyśmienity. Wizki w maxwellu robisz pyszne jak mało kto z polaków, ale brak Ci odrobiny samokrytycyzmu i dystansu do własnej wielkości.

 

ale po za tym to Cieszę się , że się wątek trochę rozruszał. Pisz pisz Spyrka, tylko z sensem z sensem...

Odnośnik do komentarza
Udostępnij na innych stronach

K.. Zdeno nie obraź się, ale mam z lekka dość tych wycieczek osobistych.. Co to za pierdzielenie o własnej wielkości .. koncentruj się kolego na faktach. Zadam ci prostą zagadkę jak sobie radzili goście prze długie lata „balansując” obraz dla tego co widzisz w kinie bez RAW i balansu bieli w post-produkcji.. ile razy mam napisać że kamera widzi inaczej a Maxwell idzie za kamerą. Wzrok człowieka ma kompletnie inne zdolności adaptacyjne i na planie trzeba to uwzględnić , bo chodzi o to aby na ekranie człowiek widział, tak jak by tam był. Muszę być nieukiem i matołem aby mając wpływ na tyle parametrów spierdzielić plan i nie uzyskać tego czego chcę i to bez żadnej zasranej post produkcji .. choćby z szacunku, bo goście robili piękne zdjęcia nie mając wpływu na niebo, temperaturę słońca itd. a film nigdy nie widział tak jak oko a raczej mózg. Może to co mówię Cię obraża ale jak mam to powiedzieć byś nie poczuł się urażony. Ja z natury wszedłem w Maxwella z pewnym bagażem doświadczeń i dlatego mi spasował, nie rozumiem tych jęków aby wyłączyć to lub tamto, byle było trochę szybciej, może po prostu mówimy innymi językami i nie ma tu miejsca na kompromis, bo nie zlansowałem sobie mózgu grami, ale filmami Ridleya Scotta.

Co do sprzętu to są BARDZO duże różnice choćby w instrukcjach co widać na zachowaniu Bulldozera w poszczególnych silnikach, w stosunku do starszej architektury o tej „skamielinie” nie wspominając. Może ten Kolumb zanalizuje Pentium II a ty mu przyklaśniesz. Spadam z tego forum.. bo jestem tak wielki że się tu nie mieszczę.. zadowolony?

Odnośnik do komentarza
Udostępnij na innych stronach

Zdeno to są dosyć złożone aspekty obejmujące generalnie fotografię i ja wcale nie czuję się tu aż takim ekspertem, ale być może ta dyskusja jest fundamentalna jeśli chodzi o filozofię pracy z Maxwellem. I może RAW to dobry przykład bo właśnie w Maxwellu nie ma RAW czymś na kształt RAW jest dopiero funkcja color w multilight. RAW zawiera „nadinformację” i pozwala skorygować błąd który polega na tym że jeśli strzelisz zdjęcie przy 3000k bez przygotowania w JPEG, to będzie żółto ale plik Maxwella nie ma nic wspólnego z RAW bo jak strzelisz to posprzątane jak na błonie filmowej. Błony są specjalnie robione pod światło dzienne i sztuczne a potem jeszcze różne filtry zakładane na lampy itd. aby na ekranie było „normalnie”. Stoimy pomiędzy płaską adaptacją kamery (błony) do warunków i zdolnościami adaptacyjnymi człowieka które sa bez porównania większe. W praktyce w Maxwellu nie musimy posiadać takiej wiedzy jak oświetleniowiec czy facet od zdjęć na planie filmowym bo tam inaczej świeci na planie a inaczej wychodzi na filmie, my mamy podgląd i ogromny wpływ na warunki oświetleniowe tak co do temperatury jak i siły światła. Liczy się efekt końcowy ale to nie oznacza że nie musimy paru spraw uwzględnić i bezczelnie doświetlić wnętrze z ukrycia nie czekając aż nam to zrobi słoneczko przez firankę bo będziemy czekać 60h i oglądać ziarno. Nie jest tez dobrą filozofią uwzględnianie z góry post produkcji, ale próba odpowiedniego zbalansowania wszystkiego wcześniej. Być może błąd i rozczarowanie polega na tym że klienci rozumieją poprawność Maxwella jako pełną zgodę ze zdolnościami adaptacyjnymi człowieka do określonych warunków oświetleniowych i stąd potworne czasy i chore SL.

Odnośnik do komentarza
Udostępnij na innych stronach

.... I może RAW to dobry przykład bo właśnie w Maxwellu nie ma RAW czymś na kształt RAW jest dopiero funkcja color w multilight. RAW zawiera „nadinformację” i pozwala skorygować błąd który polega na tym że jeśli strzelisz zdjęcie przy 3000k bez przygotowania w JPEG, to będzie żółto ale plik Maxwella nie ma nic wspólnego z RAW bo jak strzelisz to posprzątane jak na błonie filmowej....

 

no to może ja czegoś nie rozumiem, bo moim zdaniem plik .mxi czy inny 32 bitowy .HDR lub .exr jest dla mnie jak RAW z lustrzanki. Ma olbrzymi zapas rozpiętości tonalnej i bogatą informację o kolorze, dzięki czemu można w fotoszpie tą przysłowiowa żółtość od slonca czy cyjan z nieba skorygować jakby "bezstratnie". Zapisywanie od razu do .jpga jest oczywiście zbrodnią i tu się zgadzamy pełnej rozciągłości.

 

Cała dyskusja się zaczęła od tego, że dla uzyskania szybkich efektów walki z żółcia słońca mozna ustawić je jako 6500 K i po sprawie, jest idealnie białe, ale jednocześnie sam nie polecam tego sposobu renderowania bo przekłamuje to kolory pozostałych elementów w scenie. Bo inaczej będzie się rozkładała energia światła odbita, jeżeli na początku jest pełna bielą, niż obciętym żółtym.

 

Tak to jest, że po skończonym renderze w maxwellu obrazek wcale nie musi być ładny, ma by poprawny. Żółte światło od niebieskiego koca da nam mało ciekawy kolor odbity, ale po color balansie w postprodukcji nagle koc stanie się niebieski a światło podąży ku bieli, tak samo jak mózg robi to w locie za nas. jezeli siedzicie teraz w wnętrzu oświetlonym żarówkami to biała kartka papieru wcale nie jest biała. To mózg wam sciemnie, ze to biel. Dopiero po zrobieni zdjęcia i odpaleniu na monitorze kompa widać, że papier zółty jak siuśki niemowlaka.

 

i jeszcze nie pojmuję jak opcja kolor multilighth ma się do RAWa ?

multilight to w zasadzie mieszaniem RAWów , tylu ile jest świateł unikalnych w scenie.

Odnośnik do komentarza
Udostępnij na innych stronach

Rozpiętość tonalna to różnica pomiędzy światłem i cieniem a konkretnie zdolność rozpoznania szczegółów w najjaśniejszych i najciemniejszych miejscach. Zdolności poszczególnych matryc do rejestrowania określonej rozpiętości tonalnej i informacji o kolorze to osobny temat. Ty mówisz w zasadzie o kosmetyce, którą można skutecznie wykonać na każdym pliku. Powiem szczerze że nie wykonywałem eksperymentów z Maxwellem bo nie przyszło mi do głowy aby poniewierać scenę innym światłem i potem eksperymentować jak to można wyprowadzić na prostą ale z odpowiednią równowagą i odwzorowaniem całej palety barw będą chyba spore problemy. Należy pamiętać że prawie każda firma ma swój RAW i tu są też pewne różnice o czym świadczy ciężar plików dla tych samych rozdzielczości. Trochę nie mogę się przestawić na Twoje myślenie, bo robiąc zdjęcie nie mam w praktyce wpływu na światło, natomiast w Maxwellu robię co chcę i biała ściana to najmniejszy problem. Przyznaję nie eksperymentowałem ale mam pewne nawyki i dlatego dla mnie post-produkcja na kolorze to zawsze raczej ostateczność . Po prostu zasugerowałeś że wychodzą jakieś śmieszne kolorki i nie ma się co dziwić bo to coś w rodzaju RAW - otóż otwierając RAW można zobaczyć zarejestrowany błąd czyli zdjęcie wykonane bez balansu bieli… potem pyk i mamy równowagę. Nie wiem…można tak w Maxwellu ???

Ale generalnie wspominałem kiedyś że jestem zniechęcony, bo nie mam zabawek i chodziło mi właśnie o profesjonalny sprzęt fotograficzny jak i odpowiedni monitor i jeszcze parę innych rzeczy żeby Maxwella odpowiednio pomordować.. właśnie w kwestiach jego realnych zdolności...

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności