Skocz do zawartości
  • News

    Artykuły redakcji

    Oscary 2024 rozdane!

    Za nami ceremonia rozdania Oscarów 2024. My jak co roku przyglądamy się trzem najważniejszym kategoriom związanym z CGI: Najlepszy animowany film krótkometrażowy (Best Animated Short Film), Najlepsze efekty specjalne (Best Visual Effects) oraz Najlepszy film animowany (Best Animated Feature).
    Best Animated Feature (Najlepszy film animowany)
    The Boy and the Heron (Hayao Miyazaki and Toshio Suzuki) (WINNER)
    Elemental (Peter Sohn and Denise Ream)
    Nimona (Nick Bruno, Troy Quane, Karen Ryan and Julie Zackary)
    Robot Dreams (Pablo Berger, Ibon Cormenzana, Ignasi Estapé and Sandra Tapia Díaz)
    Spider-Man: Across the Spider-Verse (Kemp Powers, Justin K. Thompson, Phil Lord, Christopher Miller and Amy Pascal)
    W kategorii najlepszy film animowany zwyciężył Chłopiec i Czapla (The Boy and the Heron). 
     
    Best Animated Short Film
    Letter to a Pig (Tal Kantor and Amit R. Gicelter)
    Ninety-Five Senses (Jerusha Hess and Jared Hess)
    Our Uniform (Yegane Moghaddam)
    Pachyderme (Stéphanie Clément and Marc Rius)
    War Is Over! Inspired by the Music of John & Yoko (Dave Mullins and Brad Booker) (WINNER)
    W kategorii najlepszy krótkometrażowy film animowany zwyciężył film War Is Over!
    Best Visual Effects
    The Creator (Jay Cooper, Ian Comley, Andrew Roberts and Neil Corbould)
    Godzilla: Minus One (Takashi Yamazaki, Kiyoko Shibuya, Masaki Takahashi and Tatsuji Nojima) (WINNER)
    Guardians of the Galaxy Vol. 3 (Stephane Ceretti, Alexis Wajsbrot, Guy Williams and Theo Bialek)
    Mission: Impossible — Dead Reckoning, Part One (Alex Wuttke, Simone Coco, Jeff Sutherland and Neil Corbould)
    Napoleon (Charley Henley, Luc-Ewen Martin-Fenouillet, Simone Coco and Neil Corbould)
    W kategorii najlepsze efekty specjalne zwyciężył film: Godzilla Minus One
     
     

    7 komentarzy

    Sora od OpenAI - generowanie wideo (text to video)

    OpenAI właśnie zapowiedziało zupełnie nową usługę generatywnej sztucznej inteligencji - Sora. 
    Jest to zaawansowany model sztucznej inteligencji, który potrafi tworzyć realistyczne i pełne wyobraźni sceny wideo na podstawie pisemnych instrukcji. Sora zapowiada nową erę w generowaniu treści wideo, umożliwiając tworzenie klipów trwających do minuty, zachowując przy tym wysoką jakość wizualną i ścisłą zgodność z wytycznymi użytkownika.
    Od dzisiaj, Sora jest udostępniana w ograniczonym stopniu do oceny krytycznych obszarów pod kątem potencjalnych szkód czy ryzyk. Dostęp do modelu otrzymali również artyści wizualni, projektanci i filmowcy, aby zebrać opinie na temat sposobów rozwijania modelu, by był jak najbardziej pomocny dla profesjonalistów z branży kreatywnej.
    OpenAI dzieli się postępami w badaniach na wczesnym etapie, aby rozpocząć współpracę i zbierać opinie od osób spoza organizacji, dając publiczności poczucie nadchodzących możliwości SI.
    Sora potrafi generować złożone sceny z wieloma postaciami, specyficznymi rodzajami ruchu i dokładnymi szczegółami przedmiotu oraz tła. Model nie tylko rozumie, czego użytkownik oczekuje w podpowiedzi, ale również jak te elementy istnieją w fizycznym świecie.
    Obecny model ma swoje słabości, takie jak trudności z dokładnym symulowaniem fizyki skomplikowanej sceny czy rozumieniem konkretnych przypadków przyczyny i skutku. Jednak wygenerowane i udostępnione przykłady od OpenAI robią wrażenie.
    Firma rozwija również narzędzia do wykrywania wprowadzających w błąd treści, takie jak klasyfikator wykrywający, czy wideo zostało wygenerowane przez Sorę. Planowane jest również włączenie metadanych C2PA w przyszłości, jeśli model zostanie wdrożony w produkcie OpenAI.
    Bezpieczeństwo / etyka
    OpenAI zamieściło na swojej stronie również informacje, że angażuje decydentów, edukatorów i artystów z całego świata, aby zrozumieć ich obawy i zidentyfikować pozytywne przypadki użycia tej nowej technologii. Mimo obszernych badań i testów, nie można przewidzieć wszystkich korzystnych sposobów wykorzystania tej technologii ani wszystkich sposobów jej nadużywania. Dlatego OpenAI uważa, że uczenie się z rzeczywistego użytkowania jest kluczowym elementem tworzenia i wypuszczania coraz bezpieczniejszych systemów SI z czasem.
    Przeczytaj więcej: https://openai.com/sora
     
     

    10 komentarzy

    InstaMAT - nowy program od twórców IstaLOD

    InstaMAT nowy program twórców IstaLOD, tworzony przez ostatnie 5 lat, który rzuca wyzwanie pakietowi Adobe Substance, łączy funkcje Substance Designera, Paintera i Samplera oraz dodaje dużo dodatkowych funkcjonalności.
    Recenzja @Destroyer:
    Pozwala użytkownikom na wgląd, edycję i utworzenie od zera każdego noda do przetwarzania danych jakich używa się w programie do pracy, nic nie jest czarną skrzynką, wszytko można otworzyć, zobaczyć jak zostało zbudowane z atom nodów i modyfikować podobnie jek to jest zrobione w programie SIdeFX Houdini.
    Dodatkowo obsługuje chmury punktów, dużo operacji na geometrii od woxelizowania, tworzenia obiektów LOD, optymalizowania geometrii co bazuje na rozwiązanach instaLOD rozwijanych przez lata, scaterowania obiektów, operacje logiczne, tworzenia proceduralnych obiektów, na automatycznym tworzeniu UV i wypalaniu map z Hipoly na Low poly. Wszystko jest tak przemyślane żeby łatwo można było tworzyć gotowe procedury które niemal automatycznie będą się dostosowywały do odpowiedni przygotowanych assetów np maski bazujące na części nazwy obiektów a nie ręczenie malowanej masce IDmap. InstaMAT Pipeline wraz z C++ SDK umożliwia pełną automatyzację  tego procesu i integrowanie w wewnętrzny pipleine i indywidualne potrzeby.
    Ręczne malowanie tekstur wspiera UDIM, ale samo malowanie jest rejestrowanie w przestrzeni 3D a nie bazuje na UV więc przy zamianie geometrii na taką z innym mapowaniem czy nawet zamiana na zupełnie inny obiekt niż pierwotnie wszystkie pociągnięcia pędzlem, naklejki czy tekstury automatycznie się dostosują do nowego obiektu bazując na jego bounding box. To też pozwala szybciej pracować na niższej rozdzielczości a finalny eksport wykonać w wyższej, program oferuje eksport tekstur aż do 16k jeśli tylko sprzęt na to pozwoli.
    Można jednocześnie pracować nad grafem materiału proceduralnego a w drugiej zakładce malować asset używając tego materiału. Można stworzyć instancje materiału tak żeby zmiana w jednym zmieniała go i innych projektach automatycznie i to nie przeszkadza żeby w innym projekcie dodać kolejne unikalne warstwy na wierzchu.
    Można stworzyć render assetu i nawet turn table strip bezpośrednio w instaMAT.
    InstaMAT pozwala też na generowanie tekstur PBR na podstawie grafik czy zdjęć tak jak substance sampler. Oferuje pracę w linear workflow czy prace w przestrzeni ACES (Academy Color Encoding System) a także pozwala zaimplementować swoje własne modele cieniowania.
    Dodatkowo InstaMat ma nawet symulacje fizyki, można geometrię zrzucić na płaszczyznę żeby się naturalnie ułożyła, następnie zapętlić obiekty 3d na krawędziach przyszłej tekstury, wypalić potrzebne mapy i kontynuować prace nad proceduralną teksturą. 
    Program umożliwia też animowanie parametrów, ma wbudowane profilowanie nodów do wykrycia tych które potencjalnie najbardziej spowalniają liczenie całego grafu.
    Ma integracje z Mayą, 3dsMaxem, Blenderem Unreal Engine i Unity w których można bezpośrednio modyfikować każdy z określonych wcześniej parametrów.
    A teraz najważniejsze InstaMat kosztuje połowę tego co pakiet Substance w subskrybcji, ma też licencję wieczystą a dla ludzi i małych firm z zarobkami poniżej 100k$ jest całkowicie za darmo nawet do użytku komercyjnego. Na dzień dobry program oferuje dostęp do biblioteki 1000 materiałów w których wszystko jest otwarte więc można zobaczyć jak zostały stworzone i przekopiować część rozwiązań wedle potrzeby.
    Oficjalna strona InstaMAT: https://instamaterial.com/
    Więcej informacji znajdziecie w wątku z newsami gdzie podobne ciekawostki pojawiają się co kilka dni i można dać "suba" na wątku (dzieki czemu nie ominą Was żadne posty)
     

    4 komentarze

    Nightshade - skuteczne narzędzie do ochrony prac artystów przed AI?

    Nightshade to narzędzie zapobiegające nieautoryzowanemu wykorzystaniu obrazów w treningu AI poprzez zamianę ich w "zatrute" próbki. W przeciwieństwie do defensywnego Glaze, Nightshade działa ofensywnie, zakłócając rozpoznawanie obrazów przez AI. Modyfikacje są trwałe, nawet przy zmianach obrazu. Nightshade jest bardziej widoczny na sztuce o płaskich kolorach, ale oferuje ustawienie niskiej intensywności. Obecnie samodzielny, planuje się jego integrację z Webglaze. Celem Nightshade jest zwiększenie kosztów treningu na nieautoryzowanych danych, promując licencjonowanie od twórców.
    Nightshade to projektu naukowców z Uniwersytetu w Chicago i program został własnie udostępniony. Można go pobrać ze strony: nightshade.cs.uchicago.edu
    Jak działa Nightshade?
    Nightshade działa podobnie jak inne narzędzie do utrudniania AI pracy o nazwie Glaze, ale zamiast obrony przed naśladowaniem stylu, jest zaprojektowany jako narzędzie ofensywne do zakłócania reprezentacji cech wewnątrz generatywnych modeli obrazów AI. Podobnie jak Glaze, Nightshade jest obliczany jako optymalizacja, która minimalizuje widoczne zmiany w oryginalnym obrazie. Podczas gdy ludzkie oczy widzą ocieniony obraz, który jest w dużej mierze niezmieniony w stosunku do oryginału, model AI widzi dramatycznie inną kompozycję na obrazie. Na przykład ludzkie oczy mogą zobaczyć ocieniony obraz krowy na zielonej łące, który jest w dużej mierze niezmieniony, ale model AI może zobaczyć dużą skórzaną torebkę leżącą na trawie. Trenowany na wystarczającej liczbie ocienionych obrazów zawierających krowę, model stanie się coraz bardziej przekonany, że krowy mają ładne brązowe skórzane uchwyty i gładkie boczne kieszenie na zamek, a być może także piękne logo marki.
    Podobnie jak w przypadku Glaze, efekty Nightshade są odporne na typowe zmiany, które można zastosować do obrazu, takie jak przycinanie, przeskalowanie, kompresowanie, wygładzanie pikseli czy dodawanie szumów. Efekty te pozostają nawet po wykonaniu zrzutów ekranu czy fotografii obrazu wyświetlanego na monitorze. Jest to możliwe, ponieważ Nightshade nie polega na znakach wodnych ani ukrytych wiadomościach i nie jest łamliwy.
    Nightshade vs Glaze
    Nightshade różni się od Glaze tym, że jest narzędziem ofensywnym, a nie obronnym. Glaze chroni indywidualnych artystów przed atakami naśladującymi styl, podczas gdy Nightshade jest używany przez grupę artystów do zakłócania modeli, które bez zgody pobierają ich obrazy. Zmiany wprowadzone przez Nightshade są bardziej widoczne na sztuce o płaskich kolorach i gładkich tłach, ale narzędzie zawiera ustawienie niskiej intensywności dla tych, którzy chcą zachować wizualną jakość oryginalnego obrazu.
    Nightshade działa bez połączenia sieciowego, więc żadne dane ani sztuka nie są wysyłane z powrotem do twórców narzędzia.
    Ograniczenia
    Nightshade w wersji 1.0 jest narzędziem samodzielnym, nie zapewnia ochrony przed naśladowaniem jak Glaze. Należy zachować ostrożność przy jego użyciu, aby uniknąć problemów z naśladowaniem stylu. Trwają testy współistnienia Nightshade z Glaze, a w przyszłości planowane jest wydanie Nightshade jako dodatku do Webglaze, umożliwiającego stosowanie obu narzędzi jednocześnie.
    Pobierz Nightshade
    FAST link for Windows Nightshade v1.0 FAST link for Mac Nightshade v1.0 Nightshade 1.0, Windows GPU/CPU Version, for Windows 10/11 (2.6GB w/PyTorch GPU libraries included) Nightshade 1.0, MacOS (CPU Only) - Apple Silicon, M1/M2/M3 processors (255MB) Źródło: https://nightshade.cs.uchicago.edu/whatis.html
     

    18 komentarzy

    AI w architekturze - rozmowa z Adamem Buśko

    Nowy odcinek podcastu Klaudii Borowiec ➡️ Czy architekci generalnie boją się technologii AI? 
    🎙️✨Adam Buśko, należy do tej drugiej grupy. Adam to architekt z LABu - działu konkursowego C.F. Møller w Kopenhadze. Adam nie tylko pracuje w międzynarodowym środowisku architektonicznym, ale również aktywnie wykorzystuje narzędzia AI w swojej codziennej pracy. 
    ➡️ Dzięki niemu poznamy wpływ tej technologii na architekturę oraz jakie korzyści niesie ze sobą. To rozmowa, która dostarczy nam wglądu w to, co każdy architekt powinien wiedzieć na temat sztucznej inteligencji w architekturze. Zapraszam!
     
     

    0 komentarzy

    Mossies: Catching Art - świąteczny short Platige Image

    Świąteczny, krótki film animowany od Platige Image - Mossies: Catching Art.
    Credits:
    Director: Adrian Tarasek
    Executive Producer: Karol Żbikowski
    Head of Production: Aga Górna
    Head of CG: Marek Gajowski
    Grading: Piotr Sasim
    Producer: Krystyna Bisaga
    CG Supervisors:  Łukasz Dziedziński, Bartłomiej Kmita, Piotr Ołtarzewski, Maciej Szewczenko
    Conforming: Piotr Popielawski
    Concepts: Adrian Tarasek
    Layouts: Małgorzata Magrzyk, Piotr Ruszkiewicz, Maciej Szewczenko,Gal Ravid-Tal
    Asset artist: 
    Artur Borkowski, Szymon Burzawa, Valon Surin, Maciej Szewczenko, Nastya Tolstik
    Rigging: Igor Surin, Paweł Szczęsny
    Matte Painting: Adrian Tarasek
    3D Animation: Karol Chyliński, Małgorzata Magrzyk, Diar Pepiqi, Piotr Ruszkiewicz, Maciej Szewczenko,  Jacek Wrona
    FX: Marek Gajowski, Lehel Karsa, Mateusz Mączka, Maciej Szewczenko 
    Compositing: Dominik Ansorge, Marek Gajowski, Maciej Prętki, Gal Ravid-Tal 
    Lighting/Rendering: Maciej Szewczenko, Gal Ravid-Tal
    UE Support: Jakub Bogacki, Zoltán Cseri, Jeton Dajakaj,  Mikołaj Mlonek
    Data Wrangler: Michał Magoń
    DI: Piotr Dutkiewicz
    Sound Producer: Sabina Pająk-Maciaś/ Soundly by Platige
    Sound Designer: Jacek “Dżeksong” Onaszkiewicz
    Voice-Over Artists: Katarzyna Godlewska, Arek Jakubik
    Team Coordinators: Ewelina Mazur, Paulina Sadownik
    Audio/Video Technique - DI Support: Cezary Musiał, Kamil Steć, Maciej Żak
    Marketing: Piotr Bartoszek, Maria Jeppsson, Marcelina Salwin, Bartosz Zieliński

    13 komentarzy

    StarEngine - czy to przyszłość gier?

    Star Citizen to gra komputerowa, kosmiczny symulator autorstwa Chrisa Robertsa i ekipy deweloperskiej Cloud Imperium Games. Akcja Star Citizen osadzona została w XXX wieku. Na stworzenie tej gry zebrano (od 2012 roku) w crowdfundingu ponad 600 milionów dolarów.
    StarEngine to technologia, w ramach której tworzone są gry Star Citizen i Squadron 42. Poniższy zwiastun został utworzony w silniku jako "jedno ciągłe ujęcie bez ekranów ładowania". Czy w czasie rzeczywistym? Nie jest to sprecyzowane, ale następnie pokazano wiele dynamicznych scen: od głębokiej przestrzeni kosmicznej po powierzchnie śnieżnych planet, wnętrza miast po wieloosobowe, interaktywne statki kosmiczne po unoszące się miasta ...

     

    5 komentarzy

    Stable Video Diffusion: Model AI do generatywnego wideo od stability.ai

    stability.ai - startup odpowiedzialny za popularny open sourcowy Stable Diffusion ogłosiło właśnie wydanie pierwszego modelu Stable Video Diffusion - do generowania wideo, opartego na obrazach Stable Diffusion.
    Aktualnie dostępny jest on w wersji "research review".
    W ramach tego wydania badawczego kod Stable Video Diffusion został udostępniony w repozytorium na GitHubie, a wymagane wagi do uruchomienia modelu lokalnie można znaleźć na stronie Hugging Face. Szczegółowe informacje na temat technicznych możliwości modelu zostały opisane w artykule badawczym.
    Oficjalna zapowiedź: https://stability.ai/news/stable-video-diffusion-open-ai-video-model
     

    9 komentarzy
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności