Skocz do zawartości

adek

Administrators
  • Liczba zawartości

    12 391
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    33

Odpowiedzi dodane przez adek

  1. 11 minut temu, Destroyer napisał:

    Zapracowany @adek pisze na szybko newsa zgodnie z mainstremową narracją

     

    Raczej napisałbym to tak, że pisze tytuł celowo zachowując mainstreamową narrację, a w środku wyjaśniam i wrzucam nawet wątki autora. Ale cóż, czy tutaj też naprawdę tylko tytuły czytacie?

    Swoją drogą, przyznaje rację @Nezumi. Jakie to ma znaczenie. Super projekt, sukces. W sumie nie sądziłem, że ten bait tutaj zadziała w taki sposób. 

  2. @Nezumi on nie miał marketingu i ponieważ grę budował sam - przez długi czas tak było - media podchwyciły to. I jak widać to się chwyta. Jest pewnym uproszczeniem, ale moim zdaniem OK. Natomiast jeszcze raz to napiszę - on niczego nie ukrywa, creditsy są. Ta wersja, którą dzisiaj widzisz na steamie to już efekt rośnięcia tego projektu. 

    Na pewno nie można zarzucić autorowi, że ukrywa coś. Media tak o tym pisza. 

    Wrzuciłem w artykule jego tweety - gdzie on tłumaczy skąd to się wzięło i przy zerowej kasie na marketingu - jak zgłaszał się do mediów - to uproszczenie działało. Natomiast weź pod uwagę, że wszędzie wpisuje, że za projektem stoi studio - które przez długi czas liczyło tylko jego. 

    Natomiast jeszcze raz - całe sterowanie projektem to jedna osoba. I jak dla mnie to jest duże wow. 

     

    • +1 1
  3. 23 minuty temu, michalo napisał:

    Kiedyś narzekaliśmy że w branży nie ma umów o prace. Teraz narzekamy że są i brak takich umów to lekarstwo na zwolnienia 🙂

     

    Co do Manor Lords. Wygląda super. Szkoda trochę, że nie interesują mnie takie gry i pewnie nie sprawdzę o co ten pozytywny szum.

    Co do solo devu.. jak dla mnie solo to jest solo, więc całej gry sam nie zrobił. Jest to spore nadużycie i mnie by wkurzyło, gdybym przy tym pracował. Ale też nie ma co wariować na tym punkcie. 

    Fajnie, że taka produkcja ma sukces. Zawsze jak coś co w jakiś sposób przełamuje dzisiejsze trendy i standardy w gamingu to super pozytyw. 

     

     

    Ale on tego nie ukrywa? Ktoś tutaj nawet wkleił creditsy. 

    W skrócie - lata temu był to projekt solo dev, który chwycił i stał się czymś większym. Autor miał pieniądze na ludzi. 

    • Like 2
  4. No trochę odlecieliście.

    @Nezumi porównanie z maratonem moim zdaniem słabe. Jeśli już to to widzę to tak - Grzegorz jest organizatorem maratonu, zaczął robić w mniejszewj skali, bieg na 10km, półmaraton, aż doszedł do organizacji maratonu gdzie musiał szukać pomocy. Nadal bez niego maraton nie istnieje 😀

    Więc nie wiem czy to pułapka informacyjna w tym przypadku - wg. mnie wszystko się zgadza i wiadomo, że celowo jest to podkreślone. Celowo tak też napisałem i byłem ciekawy czy dyskusja będzie właśnie wokół tego czy o samym projekcie.

    Jest to skrót - jedna osoba zaczęła 6 lat temu robić, grę, powolutku, jego MVP spodobało się, autor mógł zacząć inwestować w projekt. Proste. Dzisiaj to nie jest projekt jednej osoby, ale był i bez niego projekt nie może istnieć. Nie ma inwestorów, która go wymieni, bez niego nie ma projektu. 

    Moim zdaniem to co pokazał to trochę lekarstwo na sytuację, którą mamy w tej chwili - potężne zwolnienia, duże firmy zamrażają rekrutację, ograniczają koszty. 

    Swój projekt jest ratunkiem, dla samego autora jak i podwykonawców. Być może właśnie też obserwujemy powstawanie nowego studia gier.

     

  5. 2 minuty temu, michalz00 napisał:

    Dzięki. Już powinien być publiczny.

    Wrzuciłem go właśnie na główną do promowania i jutro wątek pojawi się w socialach. Gratuluję ukończenia. Takie wrzutki (to szczególnie ostatnio rzadkość) więc dzięki, że podzieliłeś się tym również u nas.

    BTW. Dodaj sobie w opisie informacje o filmie, najlepiej po angielsku, możesz nawet napisać o festiwalach. Będzie łatwiej też wyszukiwalny jeśli ktoś np. go kojarzy z któregoś z tych festiwali. 

    • Like 1
  6. Przyznam szczerze, że nie śledziłem kulisów powstawania tej produkcji. Genialna historia, która pokazuje, że nadal w tym świecie mogą liczyć się nie tylko najwięksi gracze i ogromne teamy. Niesamowita produkcja moim zdaniem.

    "Manor Lords" to strategiczna gra ekonomiczna, która zdobywa uznanie zarówno graczy, jak i krytyków na całym świecie. Tworzenie i zarządzanie średniowieczną osadą to główna esencja gry, którą opracował Slavic Magic, czyli studio prowadzone przez jedną osobę.

    Sukces gry "Manor Lords" jest zdumiewający. W zaledwie jeden dzień po premierze (26 kwietnia 2024), produkcja sprzedała się w ponad milionie egzemplarzy. Co więcej, w niedzielę po premierze w grę grało jednocześnie ponad 170 tysięcy osób, co jest wynikiem porównywalnym z największymi produkcjami na rynku.

    Oprawa graficzna gry otrzymuje pochwały za detal i realizm, co jest nie lada osiągnięciem, biorąc pod uwagę, że za całą produkcję odpowiada jedna osoba. 

    Premiera gry odbiega od standardowych schematów. Wypuszczenie gry z wczesnym dostępem tylko spotęgowało zainteresowanie, które przekłada się na realne wyniki sprzedażowe. Poza tym, zanim gra trafiła na rynek, zgromadziła już ponad 3 miliony zapisów na "wishlistę".

    Sukces "Manor Lords" to dowód na to, że nawet małe studia mogą rywalizować z gigantami branży gier, oferując produkty, które nie tylko zachwycają rozgrywką, ale też oprawą graficzną i innowacyjnością mechanik.

    Studio odpowiedzialne za grę to tak naprawdę Grzegorz Styczeń. To on odpowiada za projekt i kod gry, złączenie wszystkiego ze sobą. Grzegorz oczywiście wspomagał się w kilku aspektach pomocą z zewnątrz zlecając pewne kwestie (w tym graficzne), ale chyba nie ma tutaj nic w tym dziwnego.

    Grafikę główną wykonał np. Wojciech Fus (myślę, że starszej społeczności max3d.pl dobrze znana postać, aktywny użytkownik max3d.pl sprzed wielu lat). 

    Zachęcam do rzucenia okiem na material Mestre poświęcony tej grze.

    Czy to faktycznie produkcja jednej osoby?

    Po sukcesie gry i świetnych recenzjach w ostatnim tygodniu autor musi bronić trochę tej narracji, ale ja przyznaję mu rację. Uważam, że nadal ten projekt można tak nazywać i to nie jest spijanie całych creditsów dla swojej osoby. 

    Warto dodatkowo zerknąć jak odnosi się do tego autor (ciekawa nitka dotycząca produkcji):

     

    Link do gry na Steam: https://store.steampowered.com/app/1363080/Manor_Lords/


    Zobacz cały news

    • Like 1
  7. Reality Capture to zaawansowane rozwiązanie fotogrametryczne dla systemu Windows, które umożliwia tworzenie ultra-realistycznych modeli 3d. Użytkownicy mogą generować te modele na podstawie zestawów zdjęć oraz skanów laserowych. To potężne narzędzie znajduje zastosowanie w wielu dziedzinach, od archeologii po projektowanie gier i filmów, oferując niesamowitą dokładność i szczegółowość odwzorowania rzeczywistych obiektów.

    Cennik Reality Capture został niedawno zaktualizowany, co ma na celu dostosowanie kosztów do potrzeb różnych użytkowników:

    • Plan Podstawowy - idealny dla początkujących użytkowników, którzy chcą eksperymentować z fotogrametrią.
    • Plan Profesjonalny - rozszerzone funkcje i wyższe limity generacji dla profesjonalistów i firm potrzebujących zaawansowanych narzędzi.
    • Plan Korporacyjny - dostosowany do potrzeb dużych przedsiębiorstw, zapewniający dedykowane wsparcie oraz niestandardowe możliwości integracji.

    Dzięki Reality Capture, przekształcenie zdjęć i skanów laserowych w trójwymiarowe modele, które wierne odzwierciedlają rzeczywiste obiekty, jest szybsze i bardziej efektywne niż kiedykolwiek wcześniej.

     

    Oficjalna informacja z bloga RealityCapture:

    Dzisiaj ogłaszamy zmiany w cenniku RealityCapture jako część nowej, szerszej oferty, którą wprowadzimy pod koniec kwietnia. Łączymy narzędzia RealityCapture, Unreal Engine i Twinmotion w ramach nowej subskrypcji, aby pomóc zespołom z różnych branż efektywnie tworzyć wysokiej jakości doświadczenia 3D. Naszym celem jest pełna integracja RealityCapture i Twinmotion z Unreal Engine.

    Rozpoczynając od wydania RealityCapture 1.4 i Unreal Engine 5.4, wprowadzamy nową subskrypcję Unreal, która obejmuje Unreal Engine, RealityCapture i Twinmotion za 1850 USD za miejsce na rok. Oferta ta jest przeznaczona dla twórców produktów niezwiązanych z grami (takich jak filmy i programy telewizyjne, wizualizacje architektoniczne oraz grafika do transmisji i wydarzeń na żywo), którzy generują więcej niż 1 milion USD rocznych przychodów. Więcej szczegółów na temat subskrypcji Unreal i jej odbiorców można znaleźć na tym blogu.

    Jeśli nie potrzebujesz używać Unreal Engine lub Twinmotion, lub jeśli podlegasz modelowi tantiem Unreal Engine, ponieważ używasz go do tworzenia gier lub aplikacji, które w czasie rzeczywistym korzystają z kodu Unreal Engine i są licencjonowane osobom trzecim, nadal możesz kupić RealityCapture jako oddzielną subskrypcję. Indywidualne miejsca w RealityCapture będą wycenione na 1250 USD za miejsce na rok, co obejmuje wszystkie aktualizacje wydane w okresie subskrypcji.

    Te ceny będą dotyczyć tylko firm generujących ponad 1 milion USD rocznych brutto przychodów. Z tymi aktualizacjami, RealityCapture stanie się darmowy, jeśli twoja firma zarabia mniej niż 1 milion USD rocznych przychodów. RealityCapture będzie również darmowy dla studentów, nauczycieli i hobbystów.

    Jeśli obecnie używasz RealityCapture 1.3.2 lub innej wcześniejszej wersji, zmiany cen i licencji nie będą miały zastosowania do ciebie, dopóki nie zdecydujesz się na aktualizację do wersji późniejszej niż 1.4. Jeśli masz wieczyste licencje na RealityCapture, możesz nadal z nich korzystać, bez względu na roczne przychody. Ponadto, gdy wydamy wersję 1.4, otrzymasz również dwanaście miesięcy aktualizacji, po których zakup subskrypcji będzie wymagany, aby uzyskać kolejne nowe wydania (jeśli nie kwalifikujesz się do darmowej wersji).

    Nie będziemy już oferować modelu płatności za dane wejściowe (PPI) od momentu wydania RealityCapture 1.4. Istniejący klienci z niewykorzystanymi kredytami PPI będą mogli wykorzystać je przez 12 miesięcy od tego czasu. Jeśli korzystałeś z modelu licencjonowania PPI, będziesz mógł otworzyć i kontynuować prace nad swoimi istniejącymi projektami PPI za pomocą RealityCapture 1.4, pod warunkiem, że masz dostęp do Internetu.

    Wsparcie oparte na społeczności i materiały edukacyjne pozostaną otwarte i darmowe dla wszystkich, tak jak jest to dziś. Możesz uzyskać do nich dostęp na Epic Developer Community.

    Blog firmy: https://www.capturingreality.com/realitycapture-14


    Zobacz cały news

    • Like 2
  8. W dniu 11.04.2024 o 00:02, Lemur napisał:


    Czyli zwolnić, usadzić się na dupce i nie wariować. Ciągle zapominam o tym. OK OK. Słyszę, rozumiem o czym mowa. Widzę gdzie leży problem. Skupić się na robieniu swojego i dać sobie przestrzeń na bycie człowiekiem. Z wadami i zaletami.  Akceptacja tych znielubianych porażek.
    A podejście w stylu "To jest moje dziecko, jest tutaj ładne, tu parchate, ale jest moje i je kocham"?

    Całkiem niezłe podsumowanie. 

    Zakładaj teczkę, umiejętność przyjmowania i puszczania pewnej krytyki bokiem też wydaje mi się, że jest mocno potrzebna. Każdy kiedyś zaczynał. Umiejętność poddania się ocenie to też jest po części część tego zawodu. Trochę niepisana, ale nie da się inaczej. 

    Zobacz kto może skomentować Twoją pracę 🙂
    (patrz @SebastianSz : 

    )

    • Like 1
  9. 10 minut temu, kengi napisał:

    Generalnie tak. Ale to pokazuje kolejny problem z ai... bo się okazuje, że możesz chcieć być ethical, ale nie będziesz bo to całe 💩 zjada własny ogon. Z resztą, mj najpierw zassał cały stock adobe do nauki 😜 Więc gdzie jest teraz to ethical a gdzie copy rights infringement? Nikt nie wie... więc pewnie będą cisnąć legislację, że się nie da tego wykryć czy coś jest legitne czy nie, więc nikt nie może odpowiadać, a zwłaszcza wielkie biedne korporacje, co chcą przecież creativity for everyone... jakby miało być ethical to nie będzie ai wcale... a senatorzy poważni ludzie na to pozwolić nie mogą, żeby ludzie wszyscy nie mięli creativity w zasięgu 20$ za subskrajbera 😜 

    Płacili za licencje ludziom, w ten sposób etyczne. Natomiast sam to napisałeś - nie ma regulacji więc siłą rzeczy mogli tego nie robić i pójść po najmniejszej linii oporu. 

    Tutaj akurat pod tym względem oceniam to za dobry ruch z ich strony (który może zaprocentować w przyszłości). 

     

  10. 4 minuty temu, kengi napisał:

    Nie widze całego artykułu - ale chodzi o to, że oni zapłącili, ale ktoś im sprzedawał obrazy jako wykonane przez niego, a generował w Midjourney? Sprytne 🙂
    Natomiast nie zmienia to faktu, że dzisiaj to chyba "najzdrowszy" model AI (co pewnie tez idzie w parze z tym, że może być gorszy od midjourney).

    Natomiast od ilustracji, czy tych uzupełniej w PS daje rade.

  11. Wczoraj odbyła się konferencja w Londynie Adobe MAX 2024 na której Adobe zaprezentowała szereg nowości, które zobaczymy w ich produktach.

    Jeśli ktoś jest zainteresowany (całość do obejrzenia tutaj) (10 godzin).

    Polecam keynote'a (chociaż tylko na niego potrzebujecie ok. 2h czasu). 

    Najważniejsze punkty:

    • AI? 😀

    Cóż, chyba tutaj raczej nikt nie spodziewał się niczego innego. Wszystko dzisiaj idzie w kierunku rozwoju i coraz to lepszych modeli generatywnej sztucznej inteligencji. 

    Zachęcam jednak na rzucenie okiem na (krótki tym razem film) poświęcony Photoshopowi. Zobaczycie w wielkim skrócie co nowego.

    Natomiast tutaj chyba największym newsem jest Firefly 3. To model Adobe używany w ich pakiecie. 

    Jeśli ktoś nie ma pakietu Adobe - tutaj też mało osób wie, ale możecie sobie posprawdzać jak to działa w wersji webowej (na razie dostępnej za darmo): https://www.adobe.com/pl/products/firefly.html 🔥

    Adobe Firefly Image 3

    Skrót informacji prasowej Adobe poświęconej nowej wersji modelu gen-AI Adobe Firefly 3.

    Podczas konferencji MAX London, Adobe zaprezentowało najnowszą wersję swojego narzędzia generatywnej sztucznej inteligencji - Adobe Firefly Image 3 Foundation Model (beta). Model ten, dostępny już dziś zarówno w aplikacji Photoshop, jak i na stronie internetowej Firefly, wprowadza znaczące innowacje w jakości i kontroli generowanych obrazów. Użytkownicy mogą teraz korzystać z nowych poziomów wyrażania twórczości dzięki funkcjom takim jak auto-stylizacja, które zapewniają wyższą jakość obrazów i większą różnorodność.

    Firefly Image 3 umożliwia tworzenie wysokiej jakości zdjęć z lepszym oświetleniem, pozycjonowaniem oraz większą dokładnością w generowaniu szczegółów i scen na podstawie skomplikowanych opisów. Znaczące postępy w prędkości generacji obrazów przyczyniają się do zwiększenia produktywności i efektywności procesu twórczego.

    Od momentu swojego debiutu w marcu 2023 roku, Firefly zostało wykorzystane do stworzenia ponad 7 miliardów obrazów na całym świecie. Najnowszy model jest dostępny w wersji beta, aby społeczność kreatywna mogła testować i dostarczać informacje zwrotne, które pomagają w dalszym rozwoju technologii.

    Bez wątpienia Adobe tutaj podejmuje rękawicę i chce rywalizować z Midjourney (moim zdaniem - temu ma też służyć udostępnienie szerokiej publiczności wersji przeglądarkowej). 

    Warto dodać, że faktycznie na ten moment wyróżnikiem Firefly jest fakt, że działa na obrazach licencjonowanych. I tutaj Adobe też to podkreśla. 

     


    Zobacz cały news

    • Like 1
  12.  

    VideoGigaGAN to projekt naukowców University of Maryland, College Park oraz Adobe Research. Przyznam szczerze, że to jeden z projektów, który zrobił na mnie największe wrażenie w ostatnich miesiącach.

    Czym jest VideoGigaGAN? W skrócie jest to technologia pozwalająca na poprawę jakości wideo. Ale no właśnie, w jaki sposób.

    Tutaj posłużę się tym co zostało zamieszczone na stronie projektu:

    Cytat

     

    Niedawno wprowadzony model VideoGigaGAN to krok naprzód w technologii super-rozdzielczości wideo (VSR), który pozwala na znaczne poprawienie jakości wideo poprzez dodanie bogatych w detale wysokich częstotliwości przy zachowaniu spójności czasowej. Model ten bazuje na zaawansowanym algorytmie GigaGAN, pierwotnie stworzonym do zwiększania rozdzielczości obrazów.

    Tradycyjne metody VSR często prowadziły do tworzenia obrazów wideo, które, choć większe, były mniej ostre i nieco rozmazane w porównaniu z ich odpowiednikami w statycznych obrazach. Głównym wyzwaniem było zachowanie spójności czasowej, co oznacza, że wszystkie klatki w sekwencji wideo muszą być konsekwentnie i równomiernie przetworzone, aby uniknąć efektów migotania czy niespójności.

    VideoGigaGAN rozwiązuje te problemy, wykorzystując architekturę asymetrycznych sieci neuronowych U-Net, na których opiera się upsampler GigaGAN. Aby zapewnić spójność czasową, wprowadzono do modelu warstwy uwagi czasowej w blokach dekodera. Dodatkowo, by jeszcze bardziej zwiększyć konsekwencję wizualną, zintegrowano cechy z modułu propagacji prowadzonej przez przepływ. Zastosowanie bloków antyaliasingowych w warstwach zmniejszających rozmiar próbkowania pozwala na redukcję artefaktów aliasingu, a bezpośrednie przesyłanie funkcji o wysokiej częstotliwości za pomocą połączeń pomijających do warstw dekodera kompensuje utratę detali podczas procesu BlurPool.

    W przeprowadzonych testach VideoGigaGAN wykazał znacznie lepszą spójność czasową i detale wizualne w porównaniu do innych nowoczesnych modeli VSR, co zostało potwierdzone poprzez porównania z najnowszymi modelami na publicznych zestawach danych oraz prezentacje wyników wideo z super-rozdzielczością 8x.

    Dzięki VideoGigaGAN, profesjonaliści z branży wideo mogą teraz oczekiwać lepszej jakości wizualnej przy jednoczesnym zachowaniu naturalnego ruchu i płynności wideo, otwierając nowe możliwości w produkcji i postprodukcji filmowej.

     

    Brzmi skomplikowanie, ale zachęcam jednak do rzucenia okiem na stronę projektu. Znajdziecie tam świetną dokumentację i masę przykładów, której pokazują efekty tych algorytmów.

    Strona projektu: https://videogigagan.github.io/

    Nie wiadomo jeszcze kiedy będziemy mogli korzystać z tych algorytmów, ale biorąc pod uwagę, że konferencja Adobe MAX odbędzie się w ciągu kilku godzin od pisania tego tekstu - kto wie, być może właśnie jutro dowiemy się czy VideoGigaGAN zostanie dodany do któregoś z produktów z pakietu Adobe Cloud.

     


    Zobacz cały news

  13. 5 minut temu, maciek123a napisał:

    Przecieś SORA zapowiada, że jeszcze w tym roku ma być dla zwykłych szaraczków. Pewnie bezpłatna wersja da mniejsze możliwości, ale za model subskrybcji będzie można już poszaleć.

    No ja słyszalem co innego, ale zobaczymy. Może też w mocno ograniczonej formie. Jeśli to byłaby ta forma, którą pokazywali to subskrypcja będzie ultra droga. W momencie gdy brakuje GPU na świecie do przeliczania tych ich innych modeli podobno to nie jest jakiś super priorytet. 

    Ale to się zmienia co chwilę.  

  14. Rewolucja to modele językowe i możliwość wydawania poleceń właśnie w języku naturalnym. 
    Tutaj rewolucja odbywa się np. programowaniu. Możesz tworzyć programy, którym polecenia możesz podawać w sposób naturalny i tutaj uruchamiać konkretne akcje.

    Nic tak w historii jeszcze nie przyspieszyło automatyzacji jak właśnie te modele. 

    W tym sensie mi chodziło, że to nie sam generator obrazków czy chat gpt. Samo GPT jest już rewolucją. Dzisiaj naprawdę ciężko bez niego pracować w projektach programistycznych. I nie, nie piszą ad A do Z za ciebie wszystkiego. 

    Natomiast prowadzą za rękę, przyspieszą pracę x10. 

    Co do grafiki - cały szereg algorytmów przetwarzających obrazy (których trochę efektem ubocznym są te generatory obrazów). Ale same algorytmy upscalingu, edycji w locie. 

    Jeśli chodzi o SORĘ - też źle chyba zostałem zrozumiany. Owszem, to jest rewolucja, ale to nie jest jeszcze coś co może zostać oddane jako produkt dla ludzi. Po prostu koszt generowania tych filmów dzisiaj jest ogromny i tyle. 

    Machine Learning - owszem, to jest coś co było od lat. Ale lata temu nie mogliśmy nauczyć modeli większości tych tych rzeczy. 

    Myślę, że każdy tutaj może mieć inny punkt odniesienia i OK. 

    To co daje Adobe czy niektóre popularne programy to faktycznie są "zabawki" (chociaż w Photoshopie widziałem całkiem niezłe efekty tych zabawek).

    Jak znajdę chwilę to opiszę w newsie nowy model Adobe Research właśnie do upscalingu wideo, który jest wg mnie dużym wow (chyba, że jutro go na konferencji przedstawią).

    Ja mam wrażenie, że w programach typu Adobe Photoshop, telefonach - widzimy faktycznie pewne wodotryski - użyteczne, ale nie są to rzeczy, które zmieniają jakoś życie.

    Natomiast w IT - na poziomie tworzenia i pracy z modelami LLM. Uważam, że to jest rewolucja. 

    • Like 1
    • +1 2
  15. Mały update odnośnie SORA. Raczej małe są szanse, że my ją zobaczymy. 

    Na ten moment - generowanie tych próbek, który były pokazywane jest olbrzymim obciążeniem obliczeniowym. Średnio dzisiaj nadaje się to na produkt dla użytkowników taki jak Chat GPT4.

    W momencie gdyby SORA została udostępniona - będzie to wtedy ultra drogi produkt. Natomiast właśnie, nigdy nie wiecie też czy z efektu działania będziecie zadowoleni.

    • Like 1
  16. W 2017 roku, czyli krótko po premierze pierwszej generacji procesorów AMD Ryzen Threadripper, Platige Image zakupiła kilkadziesiąt maszyn napędzanych przez te przełomowe wówczas układy. Komputery szybko stały się wymarzoną platformą dla części zadań realizowanych przez farmę obliczeniową, a także pod biurkami artystów, którzy dzięki temu mogli pracować znacznie bardziej efektywnie. Współpraca z AMD otworzyła nowy rozdział rozwoju systemów obliczeniowych firmy, dodatkowo przyspieszając, gdy zainwestowano w systemy z nowymi generacjami procesorów z rodziny Threadripper, a następnie w 2020 roku, gdy pojawiły się  pierwsze serwery z AMD EPYC.

    Moc obliczeniowa jest w Platige Image o tyle istotna, że jedną z kluczowych składowych procesu tworzenia grafiki jest rendering. W zależności od stopnia skomplikowania sceny, rozdzielczości, zadanych parametrów pojedyncza klatka może się renderować od kilku minut do nawet kilkunastu godzin. Każda sekunda materiału może mieć takich klatek od 24 do 60, a nawet więcej w przypadku niektórych projektów. Proces renderingu jest też procesem iteracyjnym, czyli każda klatka może wymagać nawet kilkudziesięciu przeliczeń, aby efekt był najwyższej jakości.

    platige-amd2.thumb.jpg.82606fb1f6dd7684d295c335382b896a.jpg

    Platige Image dysponuje własnym centrum danych, które od 2020 roku zaczęło modernizować o maszyny napędzane procesorami AMD EPYC. Maszyny te zajmują się przede wszystkim procesem renderingu, ale również wykorzystywane są jako serwery usług, centra danych czy do wirtualizacji. Obecnie większość mocy obliczeniowej jakim dysponuje centrum danych opiera się na 64 rdzeniowych układach AMD EPYC 7H12 oraz AMD EPYC 7763. Zdecydowano się zatem na modele o największej gęstości rdzeni, jaka była dostępna, uzyskując maszyny o niezwykłym wówczas stosunku mocy do zajmowanej przestrzeni. Wydajność zastosowanych procesorów przełożyła się też na oszczędności w zakresie licencjonowania oprogramowania, z którego korzysta Platige Image w procesie renderingu.

    „Zastosowanie procesorów z rodziny EPYC pozwoliło nam zwiększyć jednostkową wydajność obliczeniową względem dotychczas stosowanych platform od 50% (wzgl. poprzedniej generacji) do ok. 120% (względem najstarszej aktualnie używanej generacji) przy zachowaniu porównywalnego poboru prądu. Warto także wspomnieć jak istotną kwestią w zakresie rozbudowy czy utrzymania centrum danych jest optymalizacja kosztowa i energetyczna. Platforma EPYC świetnie wpisuje się te wymagania.” –  powiedział Tomasz Kruszona, dyrektor ds. technologii w Platige Image.

    platige-amd.thumb.jpg.5090b8ef9fb7a51a5e52fa17e461c6f9.jpg


    Platige Image to jedno z najbardziej rozpoznawalnych na świecie polskich studiów produkcyjnych. Spółka specjalizuje się w grafice komputerowej, animacji 3D i ma na swoim koncie współpracę z najbardziej znaczącymi wydawcami gier. Platige jest szczególnie cenione za animacje graficzne tworzone dla nawet najbardziej znanych twórców gier wideo. Jest to więc firma, której wizja rozwoju nie ustępuje niesamowitym projektom artystycznym, a stosowana przez nią technologia ma niebagatelne znaczenie w osiąganiu coraz bardziej imponujących efektów, które są wyznacznikiem w branży. Dzięki swoim inwestycjom i pogłębiającej się współpracy z AMD to polskie studio jest dziś znakomicie przygotowane na to, co przyniesie przyszłość.

    [źródło: Material prasowy AMD]
     


    Zobacz cały news

    • Like 1
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności