Skocz do zawartości

News

Artykuły redakcji
VideoGigaGAN to projekt naukowców University of Maryland, College Park oraz Adobe Research. Przyznam szczerze, że to jeden z projektów, który zrobił na mnie największe wrażenie w ostatnich miesiącach.
Czym jest VideoGigaGAN? W skrócie jest to technologia pozwalająca na poprawę jakości wideo. Ale no właśnie, w jaki sposób.
Tutaj posłużę się tym co zostało zamieszczone na stronie projektu:
Brzmi skomplikowanie, ale zachęcam jednak do rzucenia okiem na stronę projektu. Znajdziecie tam świetną dokumentację i masę przykładów, której pokazują efekty tych algorytmów.
Strona projektu: https://videogigagan.github.io/
Nie wiadomo jeszcze kiedy będziemy mogli korzystać z tych algorytmów, ale biorąc pod uwagę, że konferencja Adobe MAX odbędzie się w ciągu kilku godzin od pisania tego tekstu - kto wie, być może właśnie jutro dowiemy się czy VideoGigaGAN zostanie dodany do któregoś z produktów z pakietu Adobe Cloud.
 
adek
W 2017 roku, czyli krótko po premierze pierwszej generacji procesorów AMD Ryzen Threadripper, Platige Image zakupiła kilkadziesiąt maszyn napędzanych przez te przełomowe wówczas układy. Komputery szybko stały się wymarzoną platformą dla części zadań realizowanych przez farmę obliczeniową, a także pod biurkami artystów, którzy dzięki temu mogli pracować znacznie bardziej efektywnie. Współpraca z AMD otworzyła nowy rozdział rozwoju systemów obliczeniowych firmy, dodatkowo przyspieszając, gdy zainwestowano w systemy z nowymi generacjami procesorów z rodziny Threadripper, a następnie w 2020 roku, gdy pojawiły się  pierwsze serwery z AMD EPYC.
Moc obliczeniowa jest w Platige Image o tyle istotna, że jedną z kluczowych składowych procesu tworzenia grafiki jest rendering. W zależności od stopnia skomplikowania sceny, rozdzielczości, zadanych parametrów pojedyncza klatka może się renderować od kilku minut do nawet kilkunastu godzin. Każda sekunda materiału może mieć takich klatek od 24 do 60, a nawet więcej w przypadku niektórych projektów. Proces renderingu jest też procesem iteracyjnym, czyli każda klatka może wymagać nawet kilkudziesięciu przeliczeń, aby efekt był najwyższej jakości.

Platige Image dysponuje własnym centrum danych, które od 2020 roku zaczęło modernizować o maszyny napędzane procesorami AMD EPYC. Maszyny te zajmują się przede wszystkim procesem renderingu, ale również wykorzystywane są jako serwery usług, centra danych czy do wirtualizacji. Obecnie większość mocy obliczeniowej jakim dysponuje centrum danych opiera się na 64 rdzeniowych układach AMD EPYC 7H12 oraz AMD EPYC 7763. Zdecydowano się zatem na modele o największej gęstości rdzeni, jaka była dostępna, uzyskując maszyny o niezwykłym wówczas stosunku mocy do zajmowanej przestrzeni. Wydajność zastosowanych procesorów przełożyła się też na oszczędności w zakresie licencjonowania oprogramowania, z którego korzysta Platige Image w procesie renderingu.
„Zastosowanie procesorów z rodziny EPYC pozwoliło nam zwiększyć jednostkową wydajność obliczeniową względem dotychczas stosowanych platform od 50% (wzgl. poprzedniej generacji) do ok. 120% (względem najstarszej aktualnie używanej generacji) przy zachowaniu porównywalnego poboru prądu. Warto także wspomnieć jak istotną kwestią w zakresie rozbudowy czy utrzymania centrum danych jest optymalizacja kosztowa i energetyczna. Platforma EPYC świetnie wpisuje się te wymagania.” –  powiedział Tomasz Kruszona, dyrektor ds. technologii w Platige Image.


Platige Image to jedno z najbardziej rozpoznawalnych na świecie polskich studiów produkcyjnych. Spółka specjalizuje się w grafice komputerowej, animacji 3D i ma na swoim koncie współpracę z najbardziej znaczącymi wydawcami gier. Platige jest szczególnie cenione za animacje graficzne tworzone dla nawet najbardziej znanych twórców gier wideo. Jest to więc firma, której wizja rozwoju nie ustępuje niesamowitym projektom artystycznym, a stosowana przez nią technologia ma niebagatelne znaczenie w osiąganiu coraz bardziej imponujących efektów, które są wyznacznikiem w branży. Dzięki swoim inwestycjom i pogłębiającej się współpracy z AMD to polskie studio jest dziś znakomicie przygotowane na to, co przyniesie przyszłość.
[źródło: Material prasowy AMD]
 
adek
Adobe ogłosiło wprowadzenie kilku technologii generatywnego AI, które zostaną zintegrowane z Adobe Premiere Pro. Inicjatywa ta jest częścią szerszej strategii Adobe, mającej na celu wdrażanie AI w usługach Creative Cloud, co ma zwiększyć produktywność i możliwości kreatywne profesjonalistów.
Wśród kluczowych rozwojów znajduje się wprowadzenie modelu wideo Adobe Firefly, rozszerzającego już dostępną gamę modeli AI, takich jak Firefly Image i Text Effects. Dodatkowo, Adobe bada możliwości partnerstwa z dostawcami AI stron trzecich, takimi jak Sora od OpenAI, RunwayML i Pika, aby rozszerzyć gamę narzędzi dostępnych w Premiere Pro.
Wśród nowych narzędzi zaprezentowano Generative Extend, które umożliwia montażystom dodawanie klatek na początku lub na końcu klipu w celu doprecyzowania montażu lub przedłużenia scen. Narzędzia do dodawania i usuwania obiektów umożliwiają precyzyjną edycję poruszających się obiektów w scenie, zwiększając zdolności montażysty do manipulacji i poprawy narracji wizualnej. Na koniec, funkcja Generative B-Roll oferuje montażystom możliwość generowania klipów wideo z tekstowych poleceń.
Adobe zobowiązało się do zachowania przejrzystości w stosowaniu AI poprzez inicjatywy takie jak Content Credentials, które informują użytkowników o modelach AI używanych w tworzeniu mediów.
Oficjalny wpis na blogu Adobe: https://blog.adobe.com/en/publish/2024/04/15/bringing-gen-ai-to-video-editing-workflows-adobe-premiere-pro
 
adek
Reallusion wprowadziło na rynek BuildingGen, nowe narzędzie ułatwiające projektowanie budynków 3D. Wyróżnia się ono na tle innych generatorów modułowych budynków tym, że zamiast skomplikowanej edycji "nodami" oferuje elastyczne schematy (Blueprints).
Użytkownicy wprowadzają podstawowe jednostki, określają liczbę pięter i układają komponenty, aby skonstruować budynek. Narzędzie to umożliwia także modyfikacje w czasie rzeczywistym oraz podgląd projektu podczas pracy.
Podstawowy pakiet zawiera bibliotekę ponad 210 próbek i komponentów, w tym 10 zaprojektowanych budynków i liczne materiały. Dla użytkowników, którzy chcą spersonalizować budynki, dostępne są narzędzia umożliwiające modyfikację lub tworzenie nowych stylów. Użytkownicy mogą dostosowywać struktury budynków, dodając lub usuwając elementy takie jak filary czy ogrodzenia, oraz ulepszać zewnętrzne wykończenia, zmieniając materiały i dekoracyjne składniki. Dostępne są również dodatkowe płatne pakiety rozszerzeń.
Oprogramowanie to zawiera również funkcję optymalizacji, która poprawia wydajność poprzez konsolidację tekstur i modeli. BuildingGen oferuje także funkcję jednoklikowego przełączania między dniem a nocą, dodając dynamiczne efekty świetlne.
BuildingGen posiada narzędzia do pakowania, które umożliwiają użytkownikom integrację zewnętrznej zawartości oraz dostosowanie pakietów budynków do określonych stylów lub epok. Ułatwia to architektom i projektantom zachowanie spójności w różnych projektach.
 
Więcej informacji: https://www.reallusion.com/iclone/building-gen/
adek
W ramach obchodów 50-lecia wydania kultowego albumu "The Dark Side of The Moon" przez Pink Floyd, zorganizowany został unikatowy konkurs. Jego uczestnicy mieli za zadanie stworzyć teledysk do jednej z piosenek z albumu. Po wielu miesiącach kreatywnych prac, ogłoszono wyniki na platformie społecznościowej X.
Zwycięzcą okazało się wideo, które zostało wygenerowane przez sztuczną inteligencję, co wywołało mieszane reakcje wśród fanów i twórców. W konkursie uczestniczyło wiele znakomitych prac, w tym ręcznie animowane filmy, jednak to AI zdobyło najwyższe uznanie.
To wydarzenie rodzi pytania o przyszłość twórczości artystycznej i rosnącą rolę technologii w sztuce. Czy jesteśmy już gotowi, aby zaakceptować dominację AI w takich dziedzinach jak film czy muzyka? 
Film, który wygrał:
Inny przykład filmu zgłoszonego do konkursu (trzeba kliknąć i przejść do YT ze względu na ograniczenia wiekowe):
Pełna lista filmów znajduje się pod tym adresem:
 
adek
Canva, platforma do projektowania graficznego, przejęła firmę Affinity, znaną z profesjonalnego oprogramowania dla kreatywnych. To połączenie ma na celu wzmocnienie oferty obu firm i zapewnienie użytkownikom szerszego dostępu do narzędzi kreatywnych.
Affinity, od momentu swojego powstania, oferowało narzędzia umożliwiające tworzenie zaawansowanych projektów graficznych. Dzięki tej transakcji, zespół Affinity zyska dostęp do dodatkowych zasobów Canvy, co ma przyspieszyć rozwój i wprowadzanie nowych funkcji.
Canva, z drugiej strony, jest liderem w demokratyzacji designu, umożliwiając użytkownikom z różnym doświadczeniem tworzenie grafik. Przejęcie Affinity jest krokiem w kierunku rozszerzenia oferty Canvy o bardziej zaawansowane narzędzia, odpowiadające potrzebom profesjonalistów.
Obie firmy podkreślają, że ich głównym celem jest sprawienie, by projektowanie było łatwiejsze i bardziej dostępne dla szerokiej publiczności. Połączenie sił ma pozwolić na szybsze osiąganie tego celu, oferując użytkownikom kompleksowy zestaw narzędzi do każdego rodzaju projektowania.
Czy to oznacza zmianę planów Affinity na subskrypcję? Na dzień dzisiejszy firma informuje, że nie zamierza tego robić.
Do tej pory Affinity było najlepszą konkurencją dla oprogramowania Adobe ze względu na oprogramowanie bez subskrypcji. Miejmy nadzieję, że faktycznie tutaj nic się nie zmieni, a oprogramowanie zyska szereg nowych "ficzerów".
 
adek
Adobe wprowadziło nowe narzędzia oparte na AI Firefly do swoich aplikacji Substance 3D, oferując nieograniczone możliwości tworzenia materiałów i wizualizacji produktów. "Text to Texture" w Samplerze umożliwia generowanie tekstur za pomocą opisów tekstowych, natomiast "Generative Background" w Stagerze pozwala na szybkie tworzenie tła za pomocą prostych opisów. Te innowacje wprowadzają nowy poziom kontroli kreatywnej i efektywności, integrując się płynnie z istniejącymi przepływami pracy projektantów i artystów 3D.
Aby przeczytać więcej, odwiedź Adobe Blog.
 
adek
Za nami ceremonia rozdania Oscarów 2024. My jak co roku przyglądamy się trzem najważniejszym kategoriom związanym z CGI: Najlepszy animowany film krótkometrażowy (Best Animated Short Film), Najlepsze efekty specjalne (Best Visual Effects) oraz Najlepszy film animowany (Best Animated Feature).
Best Animated Feature (Najlepszy film animowany)
The Boy and the Heron (Hayao Miyazaki and Toshio Suzuki) (WINNER)
Elemental (Peter Sohn and Denise Ream)
Nimona (Nick Bruno, Troy Quane, Karen Ryan and Julie Zackary)
Robot Dreams (Pablo Berger, Ibon Cormenzana, Ignasi Estapé and Sandra Tapia Díaz)
Spider-Man: Across the Spider-Verse (Kemp Powers, Justin K. Thompson, Phil Lord, Christopher Miller and Amy Pascal)
W kategorii najlepszy film animowany zwyciężył Chłopiec i Czapla (The Boy and the Heron). 
 
Best Animated Short Film
Letter to a Pig (Tal Kantor and Amit R. Gicelter)
Ninety-Five Senses (Jerusha Hess and Jared Hess)
Our Uniform (Yegane Moghaddam)
Pachyderme (Stéphanie Clément and Marc Rius)
War Is Over! Inspired by the Music of John & Yoko (Dave Mullins and Brad Booker) (WINNER)
W kategorii najlepszy krótkometrażowy film animowany zwyciężył film War Is Over!
Best Visual Effects
The Creator (Jay Cooper, Ian Comley, Andrew Roberts and Neil Corbould)
Godzilla: Minus One (Takashi Yamazaki, Kiyoko Shibuya, Masaki Takahashi and Tatsuji Nojima) (WINNER)
Guardians of the Galaxy Vol. 3 (Stephane Ceretti, Alexis Wajsbrot, Guy Williams and Theo Bialek)
Mission: Impossible — Dead Reckoning, Part One (Alex Wuttke, Simone Coco, Jeff Sutherland and Neil Corbould)
Napoleon (Charley Henley, Luc-Ewen Martin-Fenouillet, Simone Coco and Neil Corbould)
W kategorii najlepsze efekty specjalne zwyciężył film: Godzilla Minus One
 
 
adek
OpenAI właśnie zapowiedziało zupełnie nową usługę generatywnej sztucznej inteligencji - Sora. 
Jest to zaawansowany model sztucznej inteligencji, który potrafi tworzyć realistyczne i pełne wyobraźni sceny wideo na podstawie pisemnych instrukcji. Sora zapowiada nową erę w generowaniu treści wideo, umożliwiając tworzenie klipów trwających do minuty, zachowując przy tym wysoką jakość wizualną i ścisłą zgodność z wytycznymi użytkownika.
Od dzisiaj, Sora jest udostępniana w ograniczonym stopniu do oceny krytycznych obszarów pod kątem potencjalnych szkód czy ryzyk. Dostęp do modelu otrzymali również artyści wizualni, projektanci i filmowcy, aby zebrać opinie na temat sposobów rozwijania modelu, by był jak najbardziej pomocny dla profesjonalistów z branży kreatywnej.
OpenAI dzieli się postępami w badaniach na wczesnym etapie, aby rozpocząć współpracę i zbierać opinie od osób spoza organizacji, dając publiczności poczucie nadchodzących możliwości SI.
Sora potrafi generować złożone sceny z wieloma postaciami, specyficznymi rodzajami ruchu i dokładnymi szczegółami przedmiotu oraz tła. Model nie tylko rozumie, czego użytkownik oczekuje w podpowiedzi, ale również jak te elementy istnieją w fizycznym świecie.
Obecny model ma swoje słabości, takie jak trudności z dokładnym symulowaniem fizyki skomplikowanej sceny czy rozumieniem konkretnych przypadków przyczyny i skutku. Jednak wygenerowane i udostępnione przykłady od OpenAI robią wrażenie.
Firma rozwija również narzędzia do wykrywania wprowadzających w błąd treści, takie jak klasyfikator wykrywający, czy wideo zostało wygenerowane przez Sorę. Planowane jest również włączenie metadanych C2PA w przyszłości, jeśli model zostanie wdrożony w produkcie OpenAI.
Bezpieczeństwo / etyka
OpenAI zamieściło na swojej stronie również informacje, że angażuje decydentów, edukatorów i artystów z całego świata, aby zrozumieć ich obawy i zidentyfikować pozytywne przypadki użycia tej nowej technologii. Mimo obszernych badań i testów, nie można przewidzieć wszystkich korzystnych sposobów wykorzystania tej technologii ani wszystkich sposobów jej nadużywania. Dlatego OpenAI uważa, że uczenie się z rzeczywistego użytkowania jest kluczowym elementem tworzenia i wypuszczania coraz bezpieczniejszych systemów SI z czasem.
Przeczytaj więcej: https://openai.com/sora
 
 
adek
InstaMAT nowy program twórców IstaLOD, tworzony przez ostatnie 5 lat, który rzuca wyzwanie pakietowi Adobe Substance, łączy funkcje Substance Designera, Paintera i Samplera oraz dodaje dużo dodatkowych funkcjonalności.
Recenzja @Destroyer:
Pozwala użytkownikom na wgląd, edycję i utworzenie od zera każdego noda do przetwarzania danych jakich używa się w programie do pracy, nic nie jest czarną skrzynką, wszytko można otworzyć, zobaczyć jak zostało zbudowane z atom nodów i modyfikować podobnie jek to jest zrobione w programie SIdeFX Houdini.
Dodatkowo obsługuje chmury punktów, dużo operacji na geometrii od woxelizowania, tworzenia obiektów LOD, optymalizowania geometrii co bazuje na rozwiązanach instaLOD rozwijanych przez lata, scaterowania obiektów, operacje logiczne, tworzenia proceduralnych obiektów, na automatycznym tworzeniu UV i wypalaniu map z Hipoly na Low poly. Wszystko jest tak przemyślane żeby łatwo można było tworzyć gotowe procedury które niemal automatycznie będą się dostosowywały do odpowiedni przygotowanych assetów np maski bazujące na części nazwy obiektów a nie ręczenie malowanej masce IDmap. InstaMAT Pipeline wraz z C++ SDK umożliwia pełną automatyzację  tego procesu i integrowanie w wewnętrzny pipleine i indywidualne potrzeby.
Ręczne malowanie tekstur wspiera UDIM, ale samo malowanie jest rejestrowanie w przestrzeni 3D a nie bazuje na UV więc przy zamianie geometrii na taką z innym mapowaniem czy nawet zamiana na zupełnie inny obiekt niż pierwotnie wszystkie pociągnięcia pędzlem, naklejki czy tekstury automatycznie się dostosują do nowego obiektu bazując na jego bounding box. To też pozwala szybciej pracować na niższej rozdzielczości a finalny eksport wykonać w wyższej, program oferuje eksport tekstur aż do 16k jeśli tylko sprzęt na to pozwoli.
Można jednocześnie pracować nad grafem materiału proceduralnego a w drugiej zakładce malować asset używając tego materiału. Można stworzyć instancje materiału tak żeby zmiana w jednym zmieniała go i innych projektach automatycznie i to nie przeszkadza żeby w innym projekcie dodać kolejne unikalne warstwy na wierzchu.
Można stworzyć render assetu i nawet turn table strip bezpośrednio w instaMAT.
InstaMAT pozwala też na generowanie tekstur PBR na podstawie grafik czy zdjęć tak jak substance sampler. Oferuje pracę w linear workflow czy prace w przestrzeni ACES (Academy Color Encoding System) a także pozwala zaimplementować swoje własne modele cieniowania.
Dodatkowo InstaMat ma nawet symulacje fizyki, można geometrię zrzucić na płaszczyznę żeby się naturalnie ułożyła, następnie zapętlić obiekty 3d na krawędziach przyszłej tekstury, wypalić potrzebne mapy i kontynuować prace nad proceduralną teksturą. 
Program umożliwia też animowanie parametrów, ma wbudowane profilowanie nodów do wykrycia tych które potencjalnie najbardziej spowalniają liczenie całego grafu.
Ma integracje z Mayą, 3dsMaxem, Blenderem Unreal Engine i Unity w których można bezpośrednio modyfikować każdy z określonych wcześniej parametrów.
A teraz najważniejsze InstaMat kosztuje połowę tego co pakiet Substance w subskrybcji, ma też licencję wieczystą a dla ludzi i małych firm z zarobkami poniżej 100k$ jest całkowicie za darmo nawet do użytku komercyjnego. Na dzień dobry program oferuje dostęp do biblioteki 1000 materiałów w których wszystko jest otwarte więc można zobaczyć jak zostały stworzone i przekopiować część rozwiązań wedle potrzeby.
Oficjalna strona InstaMAT: https://instamaterial.com/
Więcej informacji znajdziecie w wątku z newsami gdzie podobne ciekawostki pojawiają się co kilka dni i można dać "suba" na wątku (dzieki czemu nie ominą Was żadne posty)
 
adek
Nightshade to narzędzie zapobiegające nieautoryzowanemu wykorzystaniu obrazów w treningu AI poprzez zamianę ich w "zatrute" próbki. W przeciwieństwie do defensywnego Glaze, Nightshade działa ofensywnie, zakłócając rozpoznawanie obrazów przez AI. Modyfikacje są trwałe, nawet przy zmianach obrazu. Nightshade jest bardziej widoczny na sztuce o płaskich kolorach, ale oferuje ustawienie niskiej intensywności. Obecnie samodzielny, planuje się jego integrację z Webglaze. Celem Nightshade jest zwiększenie kosztów treningu na nieautoryzowanych danych, promując licencjonowanie od twórców.
Nightshade to projektu naukowców z Uniwersytetu w Chicago i program został własnie udostępniony. Można go pobrać ze strony: nightshade.cs.uchicago.edu
Jak działa Nightshade?
Nightshade działa podobnie jak inne narzędzie do utrudniania AI pracy o nazwie Glaze, ale zamiast obrony przed naśladowaniem stylu, jest zaprojektowany jako narzędzie ofensywne do zakłócania reprezentacji cech wewnątrz generatywnych modeli obrazów AI. Podobnie jak Glaze, Nightshade jest obliczany jako optymalizacja, która minimalizuje widoczne zmiany w oryginalnym obrazie. Podczas gdy ludzkie oczy widzą ocieniony obraz, który jest w dużej mierze niezmieniony w stosunku do oryginału, model AI widzi dramatycznie inną kompozycję na obrazie. Na przykład ludzkie oczy mogą zobaczyć ocieniony obraz krowy na zielonej łące, który jest w dużej mierze niezmieniony, ale model AI może zobaczyć dużą skórzaną torebkę leżącą na trawie. Trenowany na wystarczającej liczbie ocienionych obrazów zawierających krowę, model stanie się coraz bardziej przekonany, że krowy mają ładne brązowe skórzane uchwyty i gładkie boczne kieszenie na zamek, a być może także piękne logo marki.
Podobnie jak w przypadku Glaze, efekty Nightshade są odporne na typowe zmiany, które można zastosować do obrazu, takie jak przycinanie, przeskalowanie, kompresowanie, wygładzanie pikseli czy dodawanie szumów. Efekty te pozostają nawet po wykonaniu zrzutów ekranu czy fotografii obrazu wyświetlanego na monitorze. Jest to możliwe, ponieważ Nightshade nie polega na znakach wodnych ani ukrytych wiadomościach i nie jest łamliwy.
Nightshade vs Glaze
Nightshade różni się od Glaze tym, że jest narzędziem ofensywnym, a nie obronnym. Glaze chroni indywidualnych artystów przed atakami naśladującymi styl, podczas gdy Nightshade jest używany przez grupę artystów do zakłócania modeli, które bez zgody pobierają ich obrazy. Zmiany wprowadzone przez Nightshade są bardziej widoczne na sztuce o płaskich kolorach i gładkich tłach, ale narzędzie zawiera ustawienie niskiej intensywności dla tych, którzy chcą zachować wizualną jakość oryginalnego obrazu.
Nightshade działa bez połączenia sieciowego, więc żadne dane ani sztuka nie są wysyłane z powrotem do twórców narzędzia.
Ograniczenia
Nightshade w wersji 1.0 jest narzędziem samodzielnym, nie zapewnia ochrony przed naśladowaniem jak Glaze. Należy zachować ostrożność przy jego użyciu, aby uniknąć problemów z naśladowaniem stylu. Trwają testy współistnienia Nightshade z Glaze, a w przyszłości planowane jest wydanie Nightshade jako dodatku do Webglaze, umożliwiającego stosowanie obu narzędzi jednocześnie.
Pobierz Nightshade
FAST link for Windows Nightshade v1.0 FAST link for Mac Nightshade v1.0 Nightshade 1.0, Windows GPU/CPU Version, for Windows 10/11 (2.6GB w/PyTorch GPU libraries included) Nightshade 1.0, MacOS (CPU Only) - Apple Silicon, M1/M2/M3 processors (255MB) Źródło: https://nightshade.cs.uchicago.edu/whatis.html
 
adek
Nowy odcinek podcastu Klaudii Borowiec ➡️ Czy architekci generalnie boją się technologii AI? 
🎙️✨Adam Buśko, należy do tej drugiej grupy. Adam to architekt z LABu - działu konkursowego C.F. Møller w Kopenhadze. Adam nie tylko pracuje w międzynarodowym środowisku architektonicznym, ale również aktywnie wykorzystuje narzędzia AI w swojej codziennej pracy. 
➡️ Dzięki niemu poznamy wpływ tej technologii na architekturę oraz jakie korzyści niesie ze sobą. To rozmowa, która dostarczy nam wglądu w to, co każdy architekt powinien wiedzieć na temat sztucznej inteligencji w architekturze. Zapraszam!
 
 
adek
Świąteczny, krótki film animowany od Platige Image - Mossies: Catching Art.
Credits:
Director: Adrian Tarasek
Executive Producer: Karol Żbikowski
Head of Production: Aga Górna
Head of CG: Marek Gajowski
Grading: Piotr Sasim
Producer: Krystyna Bisaga
CG Supervisors:  Łukasz Dziedziński, Bartłomiej Kmita, Piotr Ołtarzewski, Maciej Szewczenko
Conforming: Piotr Popielawski
Concepts: Adrian Tarasek
Layouts: Małgorzata Magrzyk, Piotr Ruszkiewicz, Maciej Szewczenko,Gal Ravid-Tal
Asset artist: 
Artur Borkowski, Szymon Burzawa, Valon Surin, Maciej Szewczenko, Nastya Tolstik
Rigging: Igor Surin, Paweł Szczęsny
Matte Painting: Adrian Tarasek
3D Animation: Karol Chyliński, Małgorzata Magrzyk, Diar Pepiqi, Piotr Ruszkiewicz, Maciej Szewczenko,  Jacek Wrona
FX: Marek Gajowski, Lehel Karsa, Mateusz Mączka, Maciej Szewczenko 
Compositing: Dominik Ansorge, Marek Gajowski, Maciej Prętki, Gal Ravid-Tal 
Lighting/Rendering: Maciej Szewczenko, Gal Ravid-Tal
UE Support: Jakub Bogacki, Zoltán Cseri, Jeton Dajakaj,  Mikołaj Mlonek
Data Wrangler: Michał Magoń
DI: Piotr Dutkiewicz
Sound Producer: Sabina Pająk-Maciaś/ Soundly by Platige
Sound Designer: Jacek “Dżeksong” Onaszkiewicz
Voice-Over Artists: Katarzyna Godlewska, Arek Jakubik
Team Coordinators: Ewelina Mazur, Paulina Sadownik
Audio/Video Technique - DI Support: Cezary Musiał, Kamil Steć, Maciej Żak
Marketing: Piotr Bartoszek, Maria Jeppsson, Marcelina Salwin, Bartosz Zieliński
adek
Star Citizen to gra komputerowa, kosmiczny symulator autorstwa Chrisa Robertsa i ekipy deweloperskiej Cloud Imperium Games. Akcja Star Citizen osadzona została w XXX wieku. Na stworzenie tej gry zebrano (od 2012 roku) w crowdfundingu ponad 600 milionów dolarów.
StarEngine to technologia, w ramach której tworzone są gry Star Citizen i Squadron 42. Poniższy zwiastun został utworzony w silniku jako "jedno ciągłe ujęcie bez ekranów ładowania". Czy w czasie rzeczywistym? Nie jest to sprecyzowane, ale następnie pokazano wiele dynamicznych scen: od głębokiej przestrzeni kosmicznej po powierzchnie śnieżnych planet, wnętrza miast po wieloosobowe, interaktywne statki kosmiczne po unoszące się miasta ...

 
adek
stability.ai - startup odpowiedzialny za popularny open sourcowy Stable Diffusion ogłosiło właśnie wydanie pierwszego modelu Stable Video Diffusion - do generowania wideo, opartego na obrazach Stable Diffusion.
Aktualnie dostępny jest on w wersji "research review".
W ramach tego wydania badawczego kod Stable Video Diffusion został udostępniony w repozytorium na GitHubie, a wymagane wagi do uruchomienia modelu lokalnie można znaleźć na stronie Hugging Face. Szczegółowe informacje na temat technicznych możliwości modelu zostały opisane w artykule badawczym.
Oficjalna zapowiedź: https://stability.ai/news/stable-video-diffusion-open-ai-video-model
 
adek
CGTrader wprowadził CGDream, nową aplikację łączącą generatywną sztuczną inteligencję (generative AI) z modelami 3D w celu tworzenia unikatowych obrazów 2D. Narzędzie to umożliwia użytkownikom wysoki poziom kontroli nad kompozycją obrazu, co ułatwia osobom bez technicznego doświadczenia w 3D tworzenie spersonalizowanych obrazów.
CGDream działa w czterech prostych krokach:
wyborumodelu 3D, ustawienia projektu, opisanie pożądanego obrazu (tzw. prompt), generujemy obraz AI Uruchomienie CGDream obiecuje zaoferować zarówno kreatywne narzędzie, jak i platformę, która szanuje prawa artystów.
Otwiera to nowe możliwości dla projektantów 3D do dotarcia do szerszej publiczności i monetyzacji ich premium modeli, ponieważ CGTrader planuje umożliwić projektantom sprzedaż swoich modeli użytkownikom CGDream. Podejście to zapewnia również ochronę własności intelektualnej projektantów.
Przykładowe zastosowania jakie podaje CGTrader:
Wszechstronność CGDream może zwiększać kreatywność w wielu branżach. Oto jak narzędzie to wzmacnia procesy twórcze:
Projektowanie Produktów i Prototypowanie: Szybko generuj warianty produktów, używając tylko prostego modelu 3D. Eksperymentuj z materiałami, kolorami i kształtami, aby przyspieszyć swój proces pracy.
Wizualizacja Scen Stylu Życia: Twórz dynamiczne sceny z twoimi modelami 3D i prezentuj je w różnych scenariuszach, po prostu szczegółowo opisując je CGDream. Produkuj przekonujące wizualizacje, które przemówią do twojej zróżnicowanej publiczności.
Wizualizacja Architektoniczna i Wnętrz: Ożyw twoje projekty architektoniczne i wnętrzarskie za pomocą podstawowego modelu 3D i kilku pomysłowych komend. Dostosowuj swoje projekty w czasie rzeczywistym, eksplorując niezliczone układy i możliwości dekoracji.
Marketing i Treści Reklamowe: Twórz przyciągające uwagę treści marketingowe przy użyciu twoich modeli 3D. Idealne do reklam cyfrowych, kampanii w mediach społecznościowych, katalogów produktów czy treści na stronie internetowej, CGDream może podnieść poziom twojej następnej kampanii.
Sztuka Stylizowana i Concept Art: Odkrywaj nieograniczony potencjał artystyczny, generując stylizowaną grafikę i concept art z twoich modeli 3D, ujawniając możliwości projektowe, jakich nigdy wcześniej nie widziano.
Sprawdź: https://www.cgdream.ai/
adek
Pojawiła się większa aktualizacja programu 3ds max oznaczona jako 2024.2.
Co nowego w skrócie:
3ds Max 2024.2 to duża aktualizacja w dużej ilości obszarów programu. Nowy modyfikator Conform, ulepszeniami w booleans, spline'ach, DCM, ważnym wzrostem wydajności w obszarze vol. select, push, relax, retopologii, skinningu i innych.
To również ulepszenia w animacji i nowy panel QT motion z odświeżonym menu, bardziej elastyczny i z większą ilością opcji, poprawki w CAT i Biped, ulepszenia w edytorze materiałów, w zarządzaniu kolorami i o wiele, wiele więcej! 
 
Oficjalna strona Autodesk:
https://help.autodesk.com/view/3DSMAX/2024/ENU/
adek
Maxon poinformował o szeregu nowości związanych z wydaniem nowej wersji programu ZBrush 2024.
ZBrush 2024 wprowadza szereg ulepszeń, które czynią standard branżowy dla cyfrowego rzeźbienia jeszcze lepszym.
Innowacyjny Anchors Brush  otrzymuje aktualizację umożliwiającą korzystanie z pędzla bez konieczności maskowania powierzchni. Podział na Części rozszerza możliwości Knife Brush, pozwalając dzielić zasoby na kawałki, zachowując przy tym podzielone części jako oddzielne lub połączone części w menu SubTool. Narzędzia Gizmo i Transpose teraz oferują maskowanie topologii wraz z możliwością przyczepiania do centrum regionu maskowania. Gizmo i Linie Transpose mogą przyczepiać się wzdłuż zaznaczonego obszaru, ułatwiając pracę z maskowaniem dla artysty. Szumy Cinema 4D są teraz dostępne w galerii szumów powierzchni ZBrush. Dzięki nowej funkcji Repeat to Similar, artyści mogą łatwo powtarzać zmiany z edytowanej siatki źródłowej i przenosić zmiany na siatki docelowe o tej samej liczbie poligonów. Powtarzaj do Podobnych obsługuje zmiany w rzeźbieniu, pełną wymianę siatki, maskowanie i grupowanie poligonów. Możliwości maskowania Grow and Shrink są rozszerzone, aby zapewnić bardziej dynamiczną kontrolę i zwiększyć potencjał projektowy. Dodano nową opcję pociągnięcia o nazwie DragStamp. Umożliwia kontrolowanie intensywności związanej z przeciąganiem alfa na powierzchnię przez przesuwanie kursora w przód i tył. Dodano dwa nowe przyciski do fałd, zapewniając większą kontrolę nad obszarami aktywów, gdzie występują fałdy i krawędzie. Unmasked oraz Uncrease Unmasked Insert Mesh Brushes (Pędzle do Wstawiania Siatki) są teraz kompatybilne ze Stroke. Więcej: https://www.maxon.net/en/article/maxon-one-critical-enhancements-for-zbrush-in-november-release
adek
Aby uczcić 25. rocznicę wydania gry Half-Life, zespół deweloperski, który pracował nad oryginalną grą, został ponownie zgromadzony, aby podzielić się swoimi wspomnieniami z tworzenia pierwszej gry Valve.
Zapraszamy do zapoznania się z aktualizacją z okazji 25. rocznicy Half-Life, przywróconą zawartością, nowymi mapami wieloosobowymi oraz licznymi ulepszeniami jakości życia dla oryginalnej gry na stronie https://half-life.com/halflife25
Dodatkowo Half-Life jest za darmo na Steam. Valve wypuścił też patcha i dodał demo "Uplink".
adek
Nowa wersja programu Blender oznaczona numerem 4 została właśnie wydana. Zmian w "4" jest naprawdę sporo i zaszły one prawie na każdej płaszczyźnie.
Zobaczcie filmy prezentujące w skrócie nowości Blender 4:
 
 
Oficjalna strona wydania: https://www.blender.org/download/releases/4-0/
 
adek
Pojawiła się nowa wersja oprogramowania Katana oznaczona numerem 7 od The Foundry. A piszę o tym również z tego względu, że coraz więcej osób będzie mogło kojarzyć grafikę tytułową wykorzystaną w tym artykule. Została ona stworzona przez Dawida Cencora, który wrzucił kilka jej wersji również u nas. Zapraszamy do galerii.
Wracając do samej Katany - chyba o niej wcześniej nie pisaliśmy. 
"Katana" od The Foundry to zaawansowane narzędzie do oświetlania i tworzenia tzw. look developmentu  w procesie produkcji filmów i animacji. Jego główne zastosowania to:
Look Development: Katana pozwala artystom na tworzenie, testowanie i udoskonalanie wyglądu assetów, takich jak postacie czy elementy środowiska, w kontekście produkcyjnym. Zapewnia narzędzia do zarządzania teksturami, materiałami i oświetleniem, co jest kluczowe w produkcji filmów animowanych i efektów wizualnych.
Oświetlenie: Katana specjalizuje się w zaawansowanym oświetleniu scen. Umożliwia tworzenie złożonych schematów oświetleniowych, które mogą być łatwo modyfikowane i dostosowywane. Dzięki wydajnemu zarządzaniu scenami, Katana jest idealna do pracy nad dużymi scenami z wieloma źródłami światła.
Efektywność Workflow: Katana jest zaprojektowana, aby wspierać procesy pracy w dużych studiach, gdzie wiele osób może pracować nad różnymi aspektami tego samego projektu. Posiada funkcje umożliwiające łatwe współdzielenie i aktualizację pracy pomiędzy różnymi działami.
Zgodność z Innymi Narzędziami: Katana łatwo integruje się z innymi programami używanymi w produkcji filmowej i gier, takimi jak programy do tworzenia animacji 3D (np. Maya, Houdini) czy systemy renderowania (np. Arnold, RenderMan, V-Ray).
Non-Destructive Workflow: Pozwala na nie-destrukcyjne podejście do look development i oświetlenia, co oznacza, że można wprowadzać zmiany bez wpływu na wcześniej wykonaną pracę.
Skalowalność: Jest szczególnie ceniona w dużych produkcjach za jej zdolność do obsługi bardzo dużych i złożonych scen, nie tracąc przy tym na wydajności.
Katana jest często wybierana w profesjonalnych studiach filmowych i produkcyjnych ze względu na jej mocne strony w zakresie zarządzania oświetleniem i look development w skomplikowanych scenach. Jest to narzędzie kluczowe w procesie tworzenia efektów wizualnych wysokiej jakości.
 
adek
Myślę, że warto założyć wątek i rozpocząć dyskusję o filmie Chłopi, który pobił właśnie rekord kinowy - "Chłopi" to najczęściej oglądany film tego roku w Polsce.  Film jest wyjątkową produkcja od twórców Twój Vincent i kandydatem do Oskarów 2024 w kategorii filmu zagranicznego.
Coraz więcej też ukazuje się materiałów dodatkowych związanych z filmem. Uwagę zwraca muzyka za którą odpowiadał Łukasz L.U.C. Rostkowski wraz z Rebel Babel Film Orchestra.
Czy widzieliście już film? Co o nim sądzicie?
Proces powstawania filmu
Tutaj więcej możecie przeczytać w artykule w serwisie bankier.pl

Fragment:
 
adek
W internecie ukazał się cinematic do gry Call of Duty: Modern Warfare III 
Animacja stworzona przez studio Platige Image we współpracy z Activision.
 
Reżyser: Damian Nenow
Supervisor CG: Hubert Zegardło
Dyrektor artystyczny: Kamil Murzyn/Adrian Bajusz
Producent: Ewelina Zawadzka
Producent wykonawczy: Piotr Prokop
Korekcja kolorów: Piotr Sasim
adek
Premiera dodatku Phantom Liberty do gry Cyberpunk 2077 nastąpi 26 września 2023 roku. W ramach rozgrzewki przed tym wydarzeniem, CD Projekt przedstawił nowy klip filmowy, który z pewnością zrobił swoje. W najnowszym trailerze CP 2077 Phantom Liberty główną rolę odgrywa postać, którą zagrał znany z Hollywood aktor, Idris Elba, prezentując się niezwykle spektakularnie. Historia przedstawiona w zwiastunie wciąga, a nowo wprowadzony bohater robi prawdziwe furorę. 
Zobaczcie zresztą zwiastun dodatku 🔥
Making of:
 
adek
22 września w Gdańsku odbędzie się event o nazwie 3D TRIBE
3D TRIBE to wydarzenie networkingowe, które gromadzi profesjonalistów z branży Arch-Viz oraz grafiki 3D. Dzięki różnorodności tematów i punktów widzenia każdy uczestnik może zdobyć cenną wiedzę oraz nowe doświadczenia.
Najbliższa edycja eventu zapowiada się naprawdę ciekawie. 
Od organizatora:
Jesteśmy platformą integrującą różnorodne środowiska kreatywne, nieformalnie tworzącą nową sieć komunikacyjną. Wspieramy jednostki oraz firmy, przyczyniając się do ich rozwoju i ekspansji. Nasza konferencja stanowi doskonałą okazję do dzielenia się wiedzą, nawiązywania relacji oraz inspirujących dyskusji.
Nasza misja to stworzenie otwartej przestrzeni dla rozwoju branży 3D w Polsce. Wszystkie działania w ramach 3D TRIBE mają charakter non-profit. Naszym celem jest stabilizacja i umocnienie zawodów kreatywnych w kraju.
Podczas poprzednich edycji, gościliśmy specjalistów z zakresu sztucznej inteligencji, architektów, grafików 3D oraz twórców oprogramowania. To luźne i nieformalne spotkanie ma na celu połączenie różnych branż kreatywnych związanych z grafiką 3D oraz klientami.
Więcej informacji: https://archvizartist.com/live-events/
 

Strona wydarzenia: https://archvizartist.com/live-events/
adek

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności