Skocz do zawartości
View in the app

A better way to browse. Learn more.

Max3D.pl

A full-screen app on your home screen with push notifications, badges and more.

To install this app on iOS and iPadOS
  1. Tap the Share icon in Safari
  2. Scroll the menu and tap Add to Home Screen.
  3. Tap Add in the top-right corner.
To install this app on Android
  1. Tap the 3-dot menu (⋮) in the top-right corner of the browser.
  2. Tap Add to Home screen or Install app.
  3. Confirm by tapping Install.

News

Artykuły redakcji
Bentley Systems kończy rozwój i wsparcie dla produktów e-on software, ale oferuje darmowe wersje
Produkty e-on software, służące branży mediów i rozrywki od ponad 27 lat, po przejęciu przez Bentley Systems w 2015 roku, zostały zintegrowane z różnymi produktami Bentleya i są wykorzystywane przez cenionych klientów na całym świecie.
Bentley Systems, firma działająca od ponad 39 lat i skoncentrowana na obsłudze inżynierów oraz specjalistów od infrastruktury zrównoważonej, zdecydowała się zakończyć sprzedaż oraz rozwój produktów VUE, PlantFactory i PlantCatalog. Wsparcie dla tych produktów będzie ograniczone do niezbędnych poprawek bezpieczeństwa.
Jednakże, w odpowiedzi na potrzeby użytkowników, Bentley Systems oferuje bezpłatne pobieranie i użytkowanie wieczyste VUE, PlantFactory i PlantCatalog. Osoby zainteresowane mogą pobrać te produkty, akceptując nową umowę licencyjną użytkownika końcowego (EULA), która pozwala na korzystanie z oprogramowania bez wsparcia. Można je wykorzystywać komercyjnie.
Pobierz oprogramowanie: https://pl.bentley.com/software/e-on-software-free-downloads/
 
VEO - to najnowszy model generacji wideo (text-to-video) od Google DeepMind. Został właśnie zapowiedziany podczas konferencji Google I/O 2024. To dotychczas najbardziej zaawansowane narzędzie tego typu, zdolne do tworzenia wysokiej jakości wideo w rozdzielczości 1080p, trwających ponad minutę i oferujących szeroką gamę stylów wizualnych oraz kinowych.
Jest to swego rodzaju konkurencja dla Sora od OpenAI.
Model precyzyjnie oddaje niuanse i ton zadanych poleceń, umożliwiając niespotykany dotąd poziom kontroli kreatywnej. Veo rozumie polecenia dotyczące różnorodnych efektów filmowych, takich jak przyspieszenia czasu czy ujęcia lotnicze krajobrazów.
Veo ma na celu stworzenie narzędzi, które uczynią produkcję wideo dostępną dla każdego. Niezależnie od tego, czy jesteś doświadczonym filmowcem, aspirującym twórcą, czy edukatorem pragnącym dzielić się wiedzą, Veo otwiera nowe możliwości dla opowiadania historii, edukacji i nie tylko.
W nadchodzących tygodniach niektóre z tych funkcji będą dostępne dla wybranych twórców za pośrednictwem VideoFX, nowego eksperymentalnego narzędzia w labs.google. Można już teraz zapisać się na listę oczekujących.
W przyszłości niektóre z możliwości Veo zostaną także wprowadzone do YouTube Shorts oraz innych produktów.
Zobaczcie przykłady zamieszczone na stronie projektu:
Model Veo wykazuje zaawansowane zrozumienie języka naturalnego i semantyki wizualnej, co pozwala na generowanie wideo, które wiernie odpowiada na podane polecenia. Dokładnie oddaje niuanse i ton fraz, oddając skomplikowane szczegóły w złożonych scenach. To umiejętność, która wymaga od modeli generowania wideo nie tylko dokładnej interpretacji tekstu, ale także łączenia tych informacji z odpowiednimi wizualnymi odniesieniami.
Kontrole do tworzenia filmów
Gdy otrzyma zarówno materiał wideo wejściowy, jak i polecenie edycji, takie jak dodanie kajaków do lotniczego ujęcia wybrzeża, Veo może zastosować to polecenie do początkowego wideo i stworzyć nowe, zedytowane wideo.
Model jest również w stanie tworzyć klipy wideo i przedłużać je do 60 sekund i dłużej. Może to zrobić zarówno na podstawie jednego polecenia, jak i otrzymując sekwencję poleceń, które razem opowiadają historię.
Więcej: https://deepmind.google/technologies/veo/
Zobacz również:
 
Las Palmas zostaje kolejnym miejscem na mapie świata, gdzie swoją siedzibę uruchamia Platige Image, dołączając do kilkunastu studiów, które otworzyły swoje podwoje na wyspach oferujących atrakcyjny system wsparcia produkcji filmowych. Lokalizacje zapewniające korzystne systemy wsparcia dla filmowców mają kluczowe znaczenia dla przyciągania międzynarodowych produkcji VFX. 
Zespół pracujący w nowej lokalizacji będzie zajmował się pozyskiwaniem projektów filmowych i serialowych ze szczególnym uwzględnieniem produkcji VFX. Studio Platige Image zdobywało doświadczenie, realizując cyfrowe efekty specjalne do popularnych seriali takich jak Wiedźmin, Cień i Kość czy Zmasakrowani dla platformy Netflix.
Wyspy Kanaryjskie oferują inwestującym w lokalny biznes filmowy specjalne ulgi podatkowe (do 50%), przyciągając tym samym zainteresowanie filmowców z całego świata. „Biorąc pod uwagę wsparcie finansowania dla produkcji filmowej, ilość atrakcyjnych lokacji, wyspy stają się jednym z najlepszych w Europie miejsc do realizacji filmowych projektów” – mówi Karol Żbikowski, CEO Platige. 
We współpracy z ponad 300 specjalistami z całego świata, w tym nadzorującymi producentami, animatorami oraz nagradzanymi reżyserami i art directorami, studio jest w stanie kompleksowo realizować projekty filmowe na całym świecie. Otwarcie studia ma na celu zwiększenie portfolio VFX oraz projektów CGI, zapewniając dalszy rozwój firmy oraz pracę przy globalnych produkcjach z wykorzystaniem korzystnych ulg finansowych oferowanych przez wyspy. 
„Jesteśmy obecni na filmowym rynku od lat. Od jakiegoś czasu myśleliśmy o takim rozwiązaniu” – mówi Jarosław Sawko, współzałożyciel i producent wykonawczy w Platige, „Jestem przekonany, że odpowiedni moment na to właśnie nadszedł” – dodaje.
Platige Image od 25 lat zajmuje czołowe miejsce wśród polskich studiów produkcji oraz postprodukcji. Specjalizuje się w grafice komputerowej, animacji 3D, a także efektach wizualnych na potrzeby filmu, rozrywki i reklamy. Studio jest zdobywcą takich wyróżnień, jak: BAFTA, European Film Award, Goya i SIGGRAPH, było również nominowane do Oscarów, Złotej Palmy Festiwali Filmowego w Cannes oraz Złotego Lwa Festiwalu Filmowego w Wenecji.
W lutym 2022 Grupa Platige Image powołała spółkę w USA. Zadaniem amerykańskiego oddziału prowadzonego przez Aureliena Simon jest pozyskiwanie i realizacja zamówień z rynku reklamowego. Wdrażając strategię rozwoju, w maju 2023 r. Platige otworzyło największe w tej części Europy studio motion capture. Epic Games przyznało studiu status partnera serwisowego Unreal Engine. 
[źródło: Informacja prasowa Platige Image]
Autodesk ujawnił nowy projekt badawczy o nazwie Bernini, skupiający się na generatywnej sztucznej inteligencji dla branży projektowania i produkcji. Pierwszy eksperymentalny model Bernini szybko generuje funkcjonalne kształty 3D na podstawie różnych danych wejściowych, takich jak obrazy 2D, tekst, voxele i chmury punktów.

Projekt Bernini ma na celu stworzenie generatywnych modeli użytecznych w architekturze, projektowaniu produktów, rozrywce i innych obszarach. Model skupia się na generowaniu funkcjonalnych struktur 3D, które mogą zostać zastosowane w realnym świecie zgodnie z intencją projektanta.
Zespół Autodesk AI Lab, który opracował Bernini, wytrenował model na bazie dziesięciu milionów zróżnicowanych kształtów 3D. Mimo że obecnie jest w fazie eksperymentalnej, Autodesk już nawiązuje współpracę z partnerami, by ulepszyć wydajność modeli generatywnych.
 
Cel Projektu Bernini: Projekt Bernini to inicjatywa badawcza skoncentrowana na rozwoju generatywnej sztucznej inteligencji dla branż projektowania i produkcji. Model Eksperymentalny: Pierwszy eksperymentalny model Bernini szybko generuje funkcjonalne kształty 3D na podstawie różnych danych wejściowych, takich jak obrazy 2D, tekst, voxele i chmury punktów. Potencjał Projektu: Modele Projektu Bernini staną się bardziej użyteczne i przekonujące, gdy zostaną przeszkolone na większych, wysokiej jakości profesjonalnych zestawach danych. Więcej o projekcie: https://adsknews.autodesk.com/en/news/research-project-bernini/
CD PROJEKT RED wspólnie z EC1 Łódź ogłaszają, że ruszyła sprzedaż biletów na tegoroczną edycję Promised Land Art Festival — wydarzenia dedykowanego profesjonalistom i profesjonalistkom szeroko pojętej branży kreatywnej. Organizatorzy ogłosili też nazwiska z tegorocznego grona prelegenckiego oraz wstępny program wydarzenia, które odbędzie się w dniach 8-10 września w Łodzi.
W dniach 8-10 września 2024 odbędzie się tegoroczna odsłona Promised Land Art Festival, tradycyjnie w EC1 Łódź — zespole budynków dawnej elektrowni zrewitalizowanej jako centrum kulturalno-artystyczne i edukacyjne. Licznym wykładom oraz panelom dyskusyjnym towarzyszyć będą takie atrakcje jak warsztaty rzeźbiarskie w glinie i z malowania figurek, sesje Life Drawing, warsztaty 2D z ilustrowania i concept artu, warsztaty modelowania, rzeźby 3D oraz animacji. Nowością w tym roku będą również aktywności w ramach ścieżki audio, dedykowane osobom specjalizującym się w obszarze udźwiękowienia i muzyki. 
Na odświeżonej stronie festiwalu opublikowany został wstępny program wydarzenia, który będzie regularnie aktualizowany. Pojawiła się również możliwość zakupu biletów, w tym limitowanych wejściówek Early Bird dostępnych w promocyjnej cenie, a także biletów grupowych i wejściówek jednodniowych.
Kup bilet na Promised Land Art Festival 2024
Aktywności odbywające się w ramach Promised Land Art Festival rok do roku prowadzą światowe gwiazdy ze wszystkich stron branży kreatywnej. Dotychczas festiwal gościł przedstawicieli i przedstawicielki m.in. Guerilla Games, Capcom, Disney, Pixar Animation Studios, Lucas Arts, Studio Trigger, Paramount Pictures, Converse, Activision Blizzard, BioWare, MachineGames, Framestore, Digic Pictures, Techland, MPC London, Double Negative i CD PROJEKT RED. W tym roku festiwal swoją obecnością zaszczycą m.in.:
Pav Grochola — kierownik efektów i obrazu w Sony Pictures Imageworks, zdobywca nagród Annie i VES, współtwórca ponad 30 produkcji pełnometrażowych, w tym nominowanego do Oskara filmu animowanego Spider-Man: Poprzez multiwersum, animacji Spider-man Uniwersum i Mitchellowie kontra maszyny oraz filmu Na skraju jutra. Anna Roan — starsza artystka oświetlenia w Insomniac Games, w której portfolio są takie tytuły jak Ratchet & Clank: Rift Apart oraz seria Marvel’s Spider-Man, a obecnie pracuje przy nadchodzącym Marvel’s Wolverine. Grzegorz Rutkowski — działający niezależnie ilustrator z wieloletnim doświadczenim w branży gier wideo, który kreatywnie udzielał się m.in. przy Horizon Forbidden West oraz tytułach legendarnych serii Neverwinter, Magic: The Gathering oraz Dungeons & Dragons. Pełne biogramy pierwszej trójki z tegorocznego grona prelegentów i prelegentek festiwalu, oraz wiele więcej, znajduje się na oficjalnej stronie internetowej Promised Land Art Festival. W nadchodzących tygodniach pojawiać się będą kolejne ogłoszenia w programie wydarzenia, jak również aktualności organizacyjne i oraz przydatne informacje zarówno dla początkujących PLAFowiczów, jak również stałych bywalców.
Więcej: www.promisedland-artfestival.com/pl
Wersję na iPady Maxon zapowiedział już jakiś czas temu, ale teraz została uruchomiona strona na której można się zapisać do testów beta Zbrusha dla iPada. 
Czy wiemy coś więcej?
Czy ZBrush na iPad jest całkowicie przeprojektowywany?
ZBrush na iPad przechodzi pełne przeprojektowanie, starannie przygotowane od podstaw, aby zoptymalizować każdą funkcję i zapewnić bezkonkurencyjne wrażenia w rzeźbieniu na iPadzie.
Czy mogę udostępniać pliki między wersją na komputer a wersją na iPad?
Tak, możesz łatwo przenosić projekty między ZBrush na komputer a ZBrush na iPad, utrzymując płynną ciągłość pracy na różnych urządzeniach.
Czy mogę pracować przy wyjątkowo dużych liczbach wielokątów?
W ZBrush na iPad możesz bezproblemowo manipulować modelami o wysokiej liczbie wielokątów z precyzją i łatwością, zapewniając niezrównane szczegóły w cyfrowych kreacjach.
Kiedy ZBrush na iPad będzie dostępny?
Planowany start to 2024 rok. Zarejestruj się, aby otrzymywać aktualności i nie przegapić ogłoszenia o premierze.
Ile to będzie kosztować?
Ceny zostaną ogłoszone podczas naszej imprezy startowej. Zapisz się, aby otrzymywać powiadomienia.
Zostań beta testerem: https://zbrushforipad.com/
Reżyser Paul Trillo "nakręcił" nowy teledysk dla zespołu Washed Out, który jest pierwszym komercyjnym wykorzystaniem narzędzia do generowania wideo Sora od OpenAI. W utworze "The Hardest Part" opowiada historię pary, ukazując ich wspólne życie w niekończącym się ujęciu typu "dolly", od poznania w szkole aż po dorosłość.
Trillo miał ten pomysł od prawie 10 lat, ale dopiero teraz mógł go zrealizować dzięki Sora. Udało mu się stworzyć 55 wybranych ujęć, wykorzystując 700 wygenerowanych wersji. Starał się uchwycić unikalne "halucynacje" Sora i stworzyć ponadczasowy materiał.
Ernest Greene, artysta odpowiedzialny za Washed Out, chwali pracę Trillo za nostalgiczne, podnoszące na duchu i czasem dziwne elementy, które sprawiają, że widz czuje więź z bohaterami i ich historią. Sam Trillo podkreśla wyjątkowy charakter Sora, umożliwiający płynne przejście między pomysłami a ostatecznym produktem, a także organiczne łączenie scen.
Trillo znany jest z innowacyjnego podejścia do techniki i technologii w służbie opowieści. "The Hardest Part" to jego 20. wyróżnienie na Vimeo. W swojej pracy wykorzystuje zaawansowane techniki, takie jak ujęcia z drona czy narzędzia AI, realizując przy tym również reklamy dla takich marek jak Ford czy T-Mobile.
W nowym teledysku "The Hardest Part", Trillo zastosował niekończące się przejścia między scenami dzięki zdolnościom Sora. Ta technika została następnie użyta do stworzenia wizji przyszłości konferencji TED, którą miał szansę przedstawić w nowatorskim filmie na to wydarzenie.
Oto efekt jego pracy. Oceńcie sami czy jest to przyszłość. Na pewno dzisiaj, z racji tego, że Sora jest na językach teledysk się niesie i forma teledysku zazwyczaj może pozwolić sobie na więcej niż film fabularny. Ale ... no właśnie. Ocenę pozostawiam Wam.
 
Źródła:
Strona Paula: http://paultrillo.com/
Obszerniejszy artykuł w Forbsie: https://www.forbes.com/sites/charliefink/2024/05/07/openais-sora-brings-directors-10-year-music-video-vision-to-life/

Podziękowania za informacje dla @Tvaroog
Freepik, firma technologiczna z Malagi w Hiszpanii oferująca platformę projektową z zasobami audiowizualnymi i narzędziami generatywnej AI, przejęła Magnific, dostawcę narzędzi do tworzenia obrazów AI z Murcji w Hiszpanii. Szczegóły finansowe umowy nie zostały ujawnione.
Przejęcie wzmacnia zestaw narzędzi AI firmy Freepik, rozszerzając ofertę generatywnej sztucznej inteligencji, aby dostarczać twórcom zaawansowane i innowacyjne narzędzia. Magnific, założony pięć miesięcy temu w Murcji, oferuje narzędzie AI, które nie tylko poprawia jakość i rozdzielczość obrazów, ale także pozwala użytkownikom kontrolować proces dodawania nowych detali. Dzięki funkcji Style Transfer użytkownicy mogą teraz transformować dowolny obraz, kontrolując ilość przeniesionego stylu i zachowując integralność strukturalną.

Na czele Freepik stoi dyrektor generalny Joaquín Cuenca Abela. Firma oferuje platformę projektową z zasobami audiowizualnymi i narzędziami generatywnej AI. Zasoby obejmują fotografie, wideo, elementy graficzne, takie jak ikony i makiety, oraz szablony prezentacji. Freepik jest firmą-matką takich narzędzi jak Flaticon, Slidesgo, Videvo, Iconfinder, Wepik i EyeEm, które wspierają ponad 100 milionów użytkowników miesięcznie na całym świecie.
Firma zatrudnia 550 pracowników, 600 ekskluzywnych projektantów zdalnych oraz ponad 50 000 zarejestrowanych współpracowników. To strategiczne przejęcie jest największym w historii Freepik. W ubiegłym roku firma przejęła niemiecką EyeEm, a w 2022 roku brytyjskie Videvo, kolumbijskie Original Mockups oraz duński Iconfinder.
Javi López i Emilio Nicolás, założyciele Magnific AI, dołączą do zespołu Freepik, pracując razem z zespołem innowacji AI. Chociaż może się to wydawać jak nowa współpraca, w rzeczywistości obaj są już dobrze znani w Freepik: Javi López był częścią programu partnerów AI Freepik, dostarczając cenne opinie na temat narzędzi generatywnej AI firmy w ich fazach beta. Cel jest jasny: ułatwić, uprościć i przyspieszyć pracę każdego. Dzięki tej integracji zadania, które wcześniej zajmowały dni w Adobe Photoshop, teraz można wykonać w sekundy, co stanowi przełom w branży kreatywnej.
Oficjalne informacje na blogu: https://www.freepik.com/blog/magnific/

Podziękowania za informację dla @OldMan
 
Cześć! Prowadzenie max3d.pl wiąże się z kosztami, które przewyższają nasze dochody z reklam (po prostu te są dzisiaj przy naszych wyświetleniach na poziomie ok. 50PLN/miesiąc), więc rozważamy nawet ich wyłączenie, aby zapewnić Wam lepsze doświadczenia na stronie.
Wielokrotnie namawiano nas do uruchomienia kampanii na Patronite, ale tutaj osobiście przez dość zawiłe rozliczenia najprostszym sposobem wsparcia max3d.pl jest zakup produktów u naszych partnerów (programy partnerskie). Dzięki temu możemy nadal tworzyć treści i rozwijać naszą społeczność, która inspiruje i dzieli się wiedzą w świecie grafiki komputerowej.
Dziękujemy za Twoje wsparcie!
[Listę partnerów postaramy się aktualizować]
Humble Bundle 
Oferty zarówno na oprogramowanie, kursy wideo, książki jak i materiały graficzne. Znajdziecie tutaj ofertę dla grafików, programistów, game dev jak i samych graczy. Sprawdź

 
Helion
To nasz najstarszy partner - książki

 
Videopoint
To serwis z kursami wideo wydawnictwa Helion-  sprwadź

 
Ebookpoint
Jeśli wolicie książki w formacie elektroniczynm (ebooki) -  sprwadź

 
Allegro Smart Week
Być może znajdziecie coś dla siebie na allegro w ofercie Smart Week? - sprawdź

 
[Ta strona będzie aktualizowana]
Dzięki wielkie!
Przyznam szczerze, że nie śledziłem kulisów powstawania tej produkcji. Genialna historia, która pokazuje, że nadal w tym świecie mogą liczyć się nie tylko najwięksi gracze i ogromne teamy. Niesamowita produkcja moim zdaniem.
"Manor Lords" to strategiczna gra ekonomiczna, która zdobywa uznanie zarówno graczy, jak i krytyków na całym świecie. Tworzenie i zarządzanie średniowieczną osadą to główna esencja gry, którą opracował Slavic Magic, czyli studio prowadzone przez jedną osobę.
Sukces gry "Manor Lords" jest zdumiewający. W zaledwie jeden dzień po premierze (26 kwietnia 2024), produkcja sprzedała się w ponad milionie egzemplarzy. Co więcej, w niedzielę po premierze w grę grało jednocześnie ponad 170 tysięcy osób, co jest wynikiem porównywalnym z największymi produkcjami na rynku.
Oprawa graficzna gry otrzymuje pochwały za detal i realizm, co jest nie lada osiągnięciem, biorąc pod uwagę, że za całą produkcję odpowiada jedna osoba. 
Premiera gry odbiega od standardowych schematów. Wypuszczenie gry z wczesnym dostępem tylko spotęgowało zainteresowanie, które przekłada się na realne wyniki sprzedażowe. Poza tym, zanim gra trafiła na rynek, zgromadziła już ponad 3 miliony zapisów na "wishlistę".
Sukces "Manor Lords" to dowód na to, że nawet małe studia mogą rywalizować z gigantami branży gier, oferując produkty, które nie tylko zachwycają rozgrywką, ale też oprawą graficzną i innowacyjnością mechanik.
Studio odpowiedzialne za grę to tak naprawdę Grzegorz Styczeń. To on odpowiada za projekt i kod gry, złączenie wszystkiego ze sobą. Grzegorz oczywiście wspomagał się w kilku aspektach pomocą z zewnątrz zlecając pewne kwestie (w tym graficzne), ale chyba nie ma tutaj nic w tym dziwnego.
Grafikę główną wykonał np. Wojciech Fus (myślę, że starszej społeczności max3d.pl dobrze znana postać, aktywny użytkownik max3d.pl sprzed wielu lat). 
Zachęcam do rzucenia okiem na material Mestre poświęcony tej grze.
Czy to faktycznie produkcja jednej osoby?
Po sukcesie gry i świetnych recenzjach w ostatnim tygodniu autor musi bronić trochę tej narracji, ale ja przyznaję mu rację. Uważam, że nadal ten projekt można tak nazywać i to nie jest spijanie całych creditsów dla swojej osoby. 
Warto dodatkowo zerknąć jak odnosi się do tego autor (ciekawa nitka dotycząca produkcji):
 
Link do gry na Steam: https://store.steampowered.com/app/1363080/Manor_Lords/
Reality Capture to zaawansowane rozwiązanie fotogrametryczne dla systemu Windows, które umożliwia tworzenie ultra-realistycznych modeli 3d. Użytkownicy mogą generować te modele na podstawie zestawów zdjęć oraz skanów laserowych. To potężne narzędzie znajduje zastosowanie w wielu dziedzinach, od archeologii po projektowanie gier i filmów, oferując niesamowitą dokładność i szczegółowość odwzorowania rzeczywistych obiektów.
Cennik Reality Capture został niedawno zaktualizowany, co ma na celu dostosowanie kosztów do potrzeb różnych użytkowników:
Plan Podstawowy - idealny dla początkujących użytkowników, którzy chcą eksperymentować z fotogrametrią. Plan Profesjonalny - rozszerzone funkcje i wyższe limity generacji dla profesjonalistów i firm potrzebujących zaawansowanych narzędzi. Plan Korporacyjny - dostosowany do potrzeb dużych przedsiębiorstw, zapewniający dedykowane wsparcie oraz niestandardowe możliwości integracji. Dzięki Reality Capture, przekształcenie zdjęć i skanów laserowych w trójwymiarowe modele, które wierne odzwierciedlają rzeczywiste obiekty, jest szybsze i bardziej efektywne niż kiedykolwiek wcześniej.
 
Oficjalna informacja z bloga RealityCapture:
Dzisiaj ogłaszamy zmiany w cenniku RealityCapture jako część nowej, szerszej oferty, którą wprowadzimy pod koniec kwietnia. Łączymy narzędzia RealityCapture, Unreal Engine i Twinmotion w ramach nowej subskrypcji, aby pomóc zespołom z różnych branż efektywnie tworzyć wysokiej jakości doświadczenia 3D. Naszym celem jest pełna integracja RealityCapture i Twinmotion z Unreal Engine.
Rozpoczynając od wydania RealityCapture 1.4 i Unreal Engine 5.4, wprowadzamy nową subskrypcję Unreal, która obejmuje Unreal Engine, RealityCapture i Twinmotion za 1850 USD za miejsce na rok. Oferta ta jest przeznaczona dla twórców produktów niezwiązanych z grami (takich jak filmy i programy telewizyjne, wizualizacje architektoniczne oraz grafika do transmisji i wydarzeń na żywo), którzy generują więcej niż 1 milion USD rocznych przychodów. Więcej szczegółów na temat subskrypcji Unreal i jej odbiorców można znaleźć na tym blogu.
Jeśli nie potrzebujesz używać Unreal Engine lub Twinmotion, lub jeśli podlegasz modelowi tantiem Unreal Engine, ponieważ używasz go do tworzenia gier lub aplikacji, które w czasie rzeczywistym korzystają z kodu Unreal Engine i są licencjonowane osobom trzecim, nadal możesz kupić RealityCapture jako oddzielną subskrypcję. Indywidualne miejsca w RealityCapture będą wycenione na 1250 USD za miejsce na rok, co obejmuje wszystkie aktualizacje wydane w okresie subskrypcji.
Te ceny będą dotyczyć tylko firm generujących ponad 1 milion USD rocznych brutto przychodów. Z tymi aktualizacjami, RealityCapture stanie się darmowy, jeśli twoja firma zarabia mniej niż 1 milion USD rocznych przychodów. RealityCapture będzie również darmowy dla studentów, nauczycieli i hobbystów.
Jeśli obecnie używasz RealityCapture 1.3.2 lub innej wcześniejszej wersji, zmiany cen i licencji nie będą miały zastosowania do ciebie, dopóki nie zdecydujesz się na aktualizację do wersji późniejszej niż 1.4. Jeśli masz wieczyste licencje na RealityCapture, możesz nadal z nich korzystać, bez względu na roczne przychody. Ponadto, gdy wydamy wersję 1.4, otrzymasz również dwanaście miesięcy aktualizacji, po których zakup subskrypcji będzie wymagany, aby uzyskać kolejne nowe wydania (jeśli nie kwalifikujesz się do darmowej wersji).
Nie będziemy już oferować modelu płatności za dane wejściowe (PPI) od momentu wydania RealityCapture 1.4. Istniejący klienci z niewykorzystanymi kredytami PPI będą mogli wykorzystać je przez 12 miesięcy od tego czasu. Jeśli korzystałeś z modelu licencjonowania PPI, będziesz mógł otworzyć i kontynuować prace nad swoimi istniejącymi projektami PPI za pomocą RealityCapture 1.4, pod warunkiem, że masz dostęp do Internetu.
Wsparcie oparte na społeczności i materiały edukacyjne pozostaną otwarte i darmowe dla wszystkich, tak jak jest to dziś. Możesz uzyskać do nich dostęp na Epic Developer Community.
Blog firmy: https://www.capturingreality.com/realitycapture-14
Wczoraj odbyła się konferencja w Londynie Adobe MAX 2024 na której Adobe zaprezentowała szereg nowości, które zobaczymy w ich produktach.
Jeśli ktoś jest zainteresowany (całość do obejrzenia tutaj) (10 godzin).
Polecam keynote'a (chociaż tylko na niego potrzebujecie ok. 2h czasu). 
Najważniejsze punkty:
AI? 😀 Cóż, chyba tutaj raczej nikt nie spodziewał się niczego innego. Wszystko dzisiaj idzie w kierunku rozwoju i coraz to lepszych modeli generatywnej sztucznej inteligencji. 
Zachęcam jednak na rzucenie okiem na (krótki tym razem film) poświęcony Photoshopowi. Zobaczycie w wielkim skrócie co nowego.
Natomiast tutaj chyba największym newsem jest Firefly 3. To model Adobe używany w ich pakiecie. 
Jeśli ktoś nie ma pakietu Adobe - tutaj też mało osób wie, ale możecie sobie posprawdzać jak to działa w wersji webowej (na razie dostępnej za darmo): https://www.adobe.com/pl/products/firefly.html 🔥
Adobe Firefly Image 3
Skrót informacji prasowej Adobe poświęconej nowej wersji modelu gen-AI Adobe Firefly 3.
Podczas konferencji MAX London, Adobe zaprezentowało najnowszą wersję swojego narzędzia generatywnej sztucznej inteligencji - Adobe Firefly Image 3 Foundation Model (beta). Model ten, dostępny już dziś zarówno w aplikacji Photoshop, jak i na stronie internetowej Firefly, wprowadza znaczące innowacje w jakości i kontroli generowanych obrazów. Użytkownicy mogą teraz korzystać z nowych poziomów wyrażania twórczości dzięki funkcjom takim jak auto-stylizacja, które zapewniają wyższą jakość obrazów i większą różnorodność.
Firefly Image 3 umożliwia tworzenie wysokiej jakości zdjęć z lepszym oświetleniem, pozycjonowaniem oraz większą dokładnością w generowaniu szczegółów i scen na podstawie skomplikowanych opisów. Znaczące postępy w prędkości generacji obrazów przyczyniają się do zwiększenia produktywności i efektywności procesu twórczego.
Od momentu swojego debiutu w marcu 2023 roku, Firefly zostało wykorzystane do stworzenia ponad 7 miliardów obrazów na całym świecie. Najnowszy model jest dostępny w wersji beta, aby społeczność kreatywna mogła testować i dostarczać informacje zwrotne, które pomagają w dalszym rozwoju technologii.
Bez wątpienia Adobe tutaj podejmuje rękawicę i chce rywalizować z Midjourney (moim zdaniem - temu ma też służyć udostępnienie szerokiej publiczności wersji przeglądarkowej). 
Warto dodać, że faktycznie na ten moment wyróżnikiem Firefly jest fakt, że działa na obrazach licencjonowanych. I tutaj Adobe też to podkreśla. 
 
VideoGigaGAN to projekt naukowców University of Maryland, College Park oraz Adobe Research. Przyznam szczerze, że to jeden z projektów, który zrobił na mnie największe wrażenie w ostatnich miesiącach.
Czym jest VideoGigaGAN? W skrócie jest to technologia pozwalająca na poprawę jakości wideo. Ale no właśnie, w jaki sposób.
Tutaj posłużę się tym co zostało zamieszczone na stronie projektu:
Brzmi skomplikowanie, ale zachęcam jednak do rzucenia okiem na stronę projektu. Znajdziecie tam świetną dokumentację i masę przykładów, której pokazują efekty tych algorytmów.
Strona projektu: https://videogigagan.github.io/
Nie wiadomo jeszcze kiedy będziemy mogli korzystać z tych algorytmów, ale biorąc pod uwagę, że konferencja Adobe MAX odbędzie się w ciągu kilku godzin od pisania tego tekstu - kto wie, być może właśnie jutro dowiemy się czy VideoGigaGAN zostanie dodany do któregoś z produktów z pakietu Adobe Cloud.
 
W 2017 roku, czyli krótko po premierze pierwszej generacji procesorów AMD Ryzen Threadripper, Platige Image zakupiła kilkadziesiąt maszyn napędzanych przez te przełomowe wówczas układy. Komputery szybko stały się wymarzoną platformą dla części zadań realizowanych przez farmę obliczeniową, a także pod biurkami artystów, którzy dzięki temu mogli pracować znacznie bardziej efektywnie. Współpraca z AMD otworzyła nowy rozdział rozwoju systemów obliczeniowych firmy, dodatkowo przyspieszając, gdy zainwestowano w systemy z nowymi generacjami procesorów z rodziny Threadripper, a następnie w 2020 roku, gdy pojawiły się  pierwsze serwery z AMD EPYC.
Moc obliczeniowa jest w Platige Image o tyle istotna, że jedną z kluczowych składowych procesu tworzenia grafiki jest rendering. W zależności od stopnia skomplikowania sceny, rozdzielczości, zadanych parametrów pojedyncza klatka może się renderować od kilku minut do nawet kilkunastu godzin. Każda sekunda materiału może mieć takich klatek od 24 do 60, a nawet więcej w przypadku niektórych projektów. Proces renderingu jest też procesem iteracyjnym, czyli każda klatka może wymagać nawet kilkudziesięciu przeliczeń, aby efekt był najwyższej jakości.

Platige Image dysponuje własnym centrum danych, które od 2020 roku zaczęło modernizować o maszyny napędzane procesorami AMD EPYC. Maszyny te zajmują się przede wszystkim procesem renderingu, ale również wykorzystywane są jako serwery usług, centra danych czy do wirtualizacji. Obecnie większość mocy obliczeniowej jakim dysponuje centrum danych opiera się na 64 rdzeniowych układach AMD EPYC 7H12 oraz AMD EPYC 7763. Zdecydowano się zatem na modele o największej gęstości rdzeni, jaka była dostępna, uzyskując maszyny o niezwykłym wówczas stosunku mocy do zajmowanej przestrzeni. Wydajność zastosowanych procesorów przełożyła się też na oszczędności w zakresie licencjonowania oprogramowania, z którego korzysta Platige Image w procesie renderingu.
„Zastosowanie procesorów z rodziny EPYC pozwoliło nam zwiększyć jednostkową wydajność obliczeniową względem dotychczas stosowanych platform od 50% (wzgl. poprzedniej generacji) do ok. 120% (względem najstarszej aktualnie używanej generacji) przy zachowaniu porównywalnego poboru prądu. Warto także wspomnieć jak istotną kwestią w zakresie rozbudowy czy utrzymania centrum danych jest optymalizacja kosztowa i energetyczna. Platforma EPYC świetnie wpisuje się te wymagania.” –  powiedział Tomasz Kruszona, dyrektor ds. technologii w Platige Image.


Platige Image to jedno z najbardziej rozpoznawalnych na świecie polskich studiów produkcyjnych. Spółka specjalizuje się w grafice komputerowej, animacji 3D i ma na swoim koncie współpracę z najbardziej znaczącymi wydawcami gier. Platige jest szczególnie cenione za animacje graficzne tworzone dla nawet najbardziej znanych twórców gier wideo. Jest to więc firma, której wizja rozwoju nie ustępuje niesamowitym projektom artystycznym, a stosowana przez nią technologia ma niebagatelne znaczenie w osiąganiu coraz bardziej imponujących efektów, które są wyznacznikiem w branży. Dzięki swoim inwestycjom i pogłębiającej się współpracy z AMD to polskie studio jest dziś znakomicie przygotowane na to, co przyniesie przyszłość.
[źródło: Material prasowy AMD]
 
Adobe ogłosiło wprowadzenie kilku technologii generatywnego AI, które zostaną zintegrowane z Adobe Premiere Pro. Inicjatywa ta jest częścią szerszej strategii Adobe, mającej na celu wdrażanie AI w usługach Creative Cloud, co ma zwiększyć produktywność i możliwości kreatywne profesjonalistów.
Wśród kluczowych rozwojów znajduje się wprowadzenie modelu wideo Adobe Firefly, rozszerzającego już dostępną gamę modeli AI, takich jak Firefly Image i Text Effects. Dodatkowo, Adobe bada możliwości partnerstwa z dostawcami AI stron trzecich, takimi jak Sora od OpenAI, RunwayML i Pika, aby rozszerzyć gamę narzędzi dostępnych w Premiere Pro.
Wśród nowych narzędzi zaprezentowano Generative Extend, które umożliwia montażystom dodawanie klatek na początku lub na końcu klipu w celu doprecyzowania montażu lub przedłużenia scen. Narzędzia do dodawania i usuwania obiektów umożliwiają precyzyjną edycję poruszających się obiektów w scenie, zwiększając zdolności montażysty do manipulacji i poprawy narracji wizualnej. Na koniec, funkcja Generative B-Roll oferuje montażystom możliwość generowania klipów wideo z tekstowych poleceń.
Adobe zobowiązało się do zachowania przejrzystości w stosowaniu AI poprzez inicjatywy takie jak Content Credentials, które informują użytkowników o modelach AI używanych w tworzeniu mediów.
Oficjalny wpis na blogu Adobe: https://blog.adobe.com/en/publish/2024/04/15/bringing-gen-ai-to-video-editing-workflows-adobe-premiere-pro
 
Reallusion wprowadziło na rynek BuildingGen, nowe narzędzie ułatwiające projektowanie budynków 3D. Wyróżnia się ono na tle innych generatorów modułowych budynków tym, że zamiast skomplikowanej edycji "nodami" oferuje elastyczne schematy (Blueprints).
Użytkownicy wprowadzają podstawowe jednostki, określają liczbę pięter i układają komponenty, aby skonstruować budynek. Narzędzie to umożliwia także modyfikacje w czasie rzeczywistym oraz podgląd projektu podczas pracy.
Podstawowy pakiet zawiera bibliotekę ponad 210 próbek i komponentów, w tym 10 zaprojektowanych budynków i liczne materiały. Dla użytkowników, którzy chcą spersonalizować budynki, dostępne są narzędzia umożliwiające modyfikację lub tworzenie nowych stylów. Użytkownicy mogą dostosowywać struktury budynków, dodając lub usuwając elementy takie jak filary czy ogrodzenia, oraz ulepszać zewnętrzne wykończenia, zmieniając materiały i dekoracyjne składniki. Dostępne są również dodatkowe płatne pakiety rozszerzeń.
Oprogramowanie to zawiera również funkcję optymalizacji, która poprawia wydajność poprzez konsolidację tekstur i modeli. BuildingGen oferuje także funkcję jednoklikowego przełączania między dniem a nocą, dodając dynamiczne efekty świetlne.
BuildingGen posiada narzędzia do pakowania, które umożliwiają użytkownikom integrację zewnętrznej zawartości oraz dostosowanie pakietów budynków do określonych stylów lub epok. Ułatwia to architektom i projektantom zachowanie spójności w różnych projektach.
 
Więcej informacji: https://www.reallusion.com/iclone/building-gen/
W ramach obchodów 50-lecia wydania kultowego albumu "The Dark Side of The Moon" przez Pink Floyd, zorganizowany został unikatowy konkurs. Jego uczestnicy mieli za zadanie stworzyć teledysk do jednej z piosenek z albumu. Po wielu miesiącach kreatywnych prac, ogłoszono wyniki na platformie społecznościowej X.
Zwycięzcą okazało się wideo, które zostało wygenerowane przez sztuczną inteligencję, co wywołało mieszane reakcje wśród fanów i twórców. W konkursie uczestniczyło wiele znakomitych prac, w tym ręcznie animowane filmy, jednak to AI zdobyło najwyższe uznanie.
To wydarzenie rodzi pytania o przyszłość twórczości artystycznej i rosnącą rolę technologii w sztuce. Czy jesteśmy już gotowi, aby zaakceptować dominację AI w takich dziedzinach jak film czy muzyka? 
Film, który wygrał:
Inny przykład filmu zgłoszonego do konkursu (trzeba kliknąć i przejść do YT ze względu na ograniczenia wiekowe):
Pełna lista filmów znajduje się pod tym adresem:
 
Canva, platforma do projektowania graficznego, przejęła firmę Affinity, znaną z profesjonalnego oprogramowania dla kreatywnych. To połączenie ma na celu wzmocnienie oferty obu firm i zapewnienie użytkownikom szerszego dostępu do narzędzi kreatywnych.
Affinity, od momentu swojego powstania, oferowało narzędzia umożliwiające tworzenie zaawansowanych projektów graficznych. Dzięki tej transakcji, zespół Affinity zyska dostęp do dodatkowych zasobów Canvy, co ma przyspieszyć rozwój i wprowadzanie nowych funkcji.
Canva, z drugiej strony, jest liderem w demokratyzacji designu, umożliwiając użytkownikom z różnym doświadczeniem tworzenie grafik. Przejęcie Affinity jest krokiem w kierunku rozszerzenia oferty Canvy o bardziej zaawansowane narzędzia, odpowiadające potrzebom profesjonalistów.
Obie firmy podkreślają, że ich głównym celem jest sprawienie, by projektowanie było łatwiejsze i bardziej dostępne dla szerokiej publiczności. Połączenie sił ma pozwolić na szybsze osiąganie tego celu, oferując użytkownikom kompleksowy zestaw narzędzi do każdego rodzaju projektowania.
Czy to oznacza zmianę planów Affinity na subskrypcję? Na dzień dzisiejszy firma informuje, że nie zamierza tego robić.
Do tej pory Affinity było najlepszą konkurencją dla oprogramowania Adobe ze względu na oprogramowanie bez subskrypcji. Miejmy nadzieję, że faktycznie tutaj nic się nie zmieni, a oprogramowanie zyska szereg nowych "ficzerów".
 
Adobe wprowadziło nowe narzędzia oparte na AI Firefly do swoich aplikacji Substance 3D, oferując nieograniczone możliwości tworzenia materiałów i wizualizacji produktów. "Text to Texture" w Samplerze umożliwia generowanie tekstur za pomocą opisów tekstowych, natomiast "Generative Background" w Stagerze pozwala na szybkie tworzenie tła za pomocą prostych opisów. Te innowacje wprowadzają nowy poziom kontroli kreatywnej i efektywności, integrując się płynnie z istniejącymi przepływami pracy projektantów i artystów 3D.
Aby przeczytać więcej, odwiedź Adobe Blog.
 
Za nami ceremonia rozdania Oscarów 2024. My jak co roku przyglądamy się trzem najważniejszym kategoriom związanym z CGI: Najlepszy animowany film krótkometrażowy (Best Animated Short Film), Najlepsze efekty specjalne (Best Visual Effects) oraz Najlepszy film animowany (Best Animated Feature).
Best Animated Feature (Najlepszy film animowany)
The Boy and the Heron (Hayao Miyazaki and Toshio Suzuki) (WINNER)
Elemental (Peter Sohn and Denise Ream)
Nimona (Nick Bruno, Troy Quane, Karen Ryan and Julie Zackary)
Robot Dreams (Pablo Berger, Ibon Cormenzana, Ignasi Estapé and Sandra Tapia Díaz)
Spider-Man: Across the Spider-Verse (Kemp Powers, Justin K. Thompson, Phil Lord, Christopher Miller and Amy Pascal)
W kategorii najlepszy film animowany zwyciężył Chłopiec i Czapla (The Boy and the Heron). 
 
Best Animated Short Film
Letter to a Pig (Tal Kantor and Amit R. Gicelter)
Ninety-Five Senses (Jerusha Hess and Jared Hess)
Our Uniform (Yegane Moghaddam)
Pachyderme (Stéphanie Clément and Marc Rius)
War Is Over! Inspired by the Music of John & Yoko (Dave Mullins and Brad Booker) (WINNER)
W kategorii najlepszy krótkometrażowy film animowany zwyciężył film War Is Over!
Best Visual Effects
The Creator (Jay Cooper, Ian Comley, Andrew Roberts and Neil Corbould)
Godzilla: Minus One (Takashi Yamazaki, Kiyoko Shibuya, Masaki Takahashi and Tatsuji Nojima) (WINNER)
Guardians of the Galaxy Vol. 3 (Stephane Ceretti, Alexis Wajsbrot, Guy Williams and Theo Bialek)
Mission: Impossible — Dead Reckoning, Part One (Alex Wuttke, Simone Coco, Jeff Sutherland and Neil Corbould)
Napoleon (Charley Henley, Luc-Ewen Martin-Fenouillet, Simone Coco and Neil Corbould)
W kategorii najlepsze efekty specjalne zwyciężył film: Godzilla Minus One
 
 
OpenAI właśnie zapowiedziało zupełnie nową usługę generatywnej sztucznej inteligencji - Sora. 
Jest to zaawansowany model sztucznej inteligencji, który potrafi tworzyć realistyczne i pełne wyobraźni sceny wideo na podstawie pisemnych instrukcji. Sora zapowiada nową erę w generowaniu treści wideo, umożliwiając tworzenie klipów trwających do minuty, zachowując przy tym wysoką jakość wizualną i ścisłą zgodność z wytycznymi użytkownika.
Od dzisiaj, Sora jest udostępniana w ograniczonym stopniu do oceny krytycznych obszarów pod kątem potencjalnych szkód czy ryzyk. Dostęp do modelu otrzymali również artyści wizualni, projektanci i filmowcy, aby zebrać opinie na temat sposobów rozwijania modelu, by był jak najbardziej pomocny dla profesjonalistów z branży kreatywnej.
OpenAI dzieli się postępami w badaniach na wczesnym etapie, aby rozpocząć współpracę i zbierać opinie od osób spoza organizacji, dając publiczności poczucie nadchodzących możliwości SI.
Sora potrafi generować złożone sceny z wieloma postaciami, specyficznymi rodzajami ruchu i dokładnymi szczegółami przedmiotu oraz tła. Model nie tylko rozumie, czego użytkownik oczekuje w podpowiedzi, ale również jak te elementy istnieją w fizycznym świecie.
Obecny model ma swoje słabości, takie jak trudności z dokładnym symulowaniem fizyki skomplikowanej sceny czy rozumieniem konkretnych przypadków przyczyny i skutku. Jednak wygenerowane i udostępnione przykłady od OpenAI robią wrażenie.
Firma rozwija również narzędzia do wykrywania wprowadzających w błąd treści, takie jak klasyfikator wykrywający, czy wideo zostało wygenerowane przez Sorę. Planowane jest również włączenie metadanych C2PA w przyszłości, jeśli model zostanie wdrożony w produkcie OpenAI.
Bezpieczeństwo / etyka
OpenAI zamieściło na swojej stronie również informacje, że angażuje decydentów, edukatorów i artystów z całego świata, aby zrozumieć ich obawy i zidentyfikować pozytywne przypadki użycia tej nowej technologii. Mimo obszernych badań i testów, nie można przewidzieć wszystkich korzystnych sposobów wykorzystania tej technologii ani wszystkich sposobów jej nadużywania. Dlatego OpenAI uważa, że uczenie się z rzeczywistego użytkowania jest kluczowym elementem tworzenia i wypuszczania coraz bezpieczniejszych systemów SI z czasem.
Przeczytaj więcej: https://openai.com/sora
 
 
InstaMAT nowy program twórców IstaLOD, tworzony przez ostatnie 5 lat, który rzuca wyzwanie pakietowi Adobe Substance, łączy funkcje Substance Designera, Paintera i Samplera oraz dodaje dużo dodatkowych funkcjonalności.
Recenzja @Destroyer:
Pozwala użytkownikom na wgląd, edycję i utworzenie od zera każdego noda do przetwarzania danych jakich używa się w programie do pracy, nic nie jest czarną skrzynką, wszytko można otworzyć, zobaczyć jak zostało zbudowane z atom nodów i modyfikować podobnie jek to jest zrobione w programie SIdeFX Houdini.
Dodatkowo obsługuje chmury punktów, dużo operacji na geometrii od woxelizowania, tworzenia obiektów LOD, optymalizowania geometrii co bazuje na rozwiązanach instaLOD rozwijanych przez lata, scaterowania obiektów, operacje logiczne, tworzenia proceduralnych obiektów, na automatycznym tworzeniu UV i wypalaniu map z Hipoly na Low poly. Wszystko jest tak przemyślane żeby łatwo można było tworzyć gotowe procedury które niemal automatycznie będą się dostosowywały do odpowiedni przygotowanych assetów np maski bazujące na części nazwy obiektów a nie ręczenie malowanej masce IDmap. InstaMAT Pipeline wraz z C++ SDK umożliwia pełną automatyzację  tego procesu i integrowanie w wewnętrzny pipleine i indywidualne potrzeby.
Ręczne malowanie tekstur wspiera UDIM, ale samo malowanie jest rejestrowanie w przestrzeni 3D a nie bazuje na UV więc przy zamianie geometrii na taką z innym mapowaniem czy nawet zamiana na zupełnie inny obiekt niż pierwotnie wszystkie pociągnięcia pędzlem, naklejki czy tekstury automatycznie się dostosują do nowego obiektu bazując na jego bounding box. To też pozwala szybciej pracować na niższej rozdzielczości a finalny eksport wykonać w wyższej, program oferuje eksport tekstur aż do 16k jeśli tylko sprzęt na to pozwoli.
Można jednocześnie pracować nad grafem materiału proceduralnego a w drugiej zakładce malować asset używając tego materiału. Można stworzyć instancje materiału tak żeby zmiana w jednym zmieniała go i innych projektach automatycznie i to nie przeszkadza żeby w innym projekcie dodać kolejne unikalne warstwy na wierzchu.
Można stworzyć render assetu i nawet turn table strip bezpośrednio w instaMAT.
InstaMAT pozwala też na generowanie tekstur PBR na podstawie grafik czy zdjęć tak jak substance sampler. Oferuje pracę w linear workflow czy prace w przestrzeni ACES (Academy Color Encoding System) a także pozwala zaimplementować swoje własne modele cieniowania.
Dodatkowo InstaMat ma nawet symulacje fizyki, można geometrię zrzucić na płaszczyznę żeby się naturalnie ułożyła, następnie zapętlić obiekty 3d na krawędziach przyszłej tekstury, wypalić potrzebne mapy i kontynuować prace nad proceduralną teksturą. 
Program umożliwia też animowanie parametrów, ma wbudowane profilowanie nodów do wykrycia tych które potencjalnie najbardziej spowalniają liczenie całego grafu.
Ma integracje z Mayą, 3dsMaxem, Blenderem Unreal Engine i Unity w których można bezpośrednio modyfikować każdy z określonych wcześniej parametrów.
A teraz najważniejsze InstaMat kosztuje połowę tego co pakiet Substance w subskrybcji, ma też licencję wieczystą a dla ludzi i małych firm z zarobkami poniżej 100k$ jest całkowicie za darmo nawet do użytku komercyjnego. Na dzień dobry program oferuje dostęp do biblioteki 1000 materiałów w których wszystko jest otwarte więc można zobaczyć jak zostały stworzone i przekopiować część rozwiązań wedle potrzeby.
Oficjalna strona InstaMAT: https://instamaterial.com/
Więcej informacji znajdziecie w wątku z newsami gdzie podobne ciekawostki pojawiają się co kilka dni i można dać "suba" na wątku (dzieki czemu nie ominą Was żadne posty)
 
Nightshade to narzędzie zapobiegające nieautoryzowanemu wykorzystaniu obrazów w treningu AI poprzez zamianę ich w "zatrute" próbki. W przeciwieństwie do defensywnego Glaze, Nightshade działa ofensywnie, zakłócając rozpoznawanie obrazów przez AI. Modyfikacje są trwałe, nawet przy zmianach obrazu. Nightshade jest bardziej widoczny na sztuce o płaskich kolorach, ale oferuje ustawienie niskiej intensywności. Obecnie samodzielny, planuje się jego integrację z Webglaze. Celem Nightshade jest zwiększenie kosztów treningu na nieautoryzowanych danych, promując licencjonowanie od twórców.
Nightshade to projektu naukowców z Uniwersytetu w Chicago i program został własnie udostępniony. Można go pobrać ze strony: nightshade.cs.uchicago.edu
Jak działa Nightshade?
Nightshade działa podobnie jak inne narzędzie do utrudniania AI pracy o nazwie Glaze, ale zamiast obrony przed naśladowaniem stylu, jest zaprojektowany jako narzędzie ofensywne do zakłócania reprezentacji cech wewnątrz generatywnych modeli obrazów AI. Podobnie jak Glaze, Nightshade jest obliczany jako optymalizacja, która minimalizuje widoczne zmiany w oryginalnym obrazie. Podczas gdy ludzkie oczy widzą ocieniony obraz, który jest w dużej mierze niezmieniony w stosunku do oryginału, model AI widzi dramatycznie inną kompozycję na obrazie. Na przykład ludzkie oczy mogą zobaczyć ocieniony obraz krowy na zielonej łące, który jest w dużej mierze niezmieniony, ale model AI może zobaczyć dużą skórzaną torebkę leżącą na trawie. Trenowany na wystarczającej liczbie ocienionych obrazów zawierających krowę, model stanie się coraz bardziej przekonany, że krowy mają ładne brązowe skórzane uchwyty i gładkie boczne kieszenie na zamek, a być może także piękne logo marki.
Podobnie jak w przypadku Glaze, efekty Nightshade są odporne na typowe zmiany, które można zastosować do obrazu, takie jak przycinanie, przeskalowanie, kompresowanie, wygładzanie pikseli czy dodawanie szumów. Efekty te pozostają nawet po wykonaniu zrzutów ekranu czy fotografii obrazu wyświetlanego na monitorze. Jest to możliwe, ponieważ Nightshade nie polega na znakach wodnych ani ukrytych wiadomościach i nie jest łamliwy.
Nightshade vs Glaze
Nightshade różni się od Glaze tym, że jest narzędziem ofensywnym, a nie obronnym. Glaze chroni indywidualnych artystów przed atakami naśladującymi styl, podczas gdy Nightshade jest używany przez grupę artystów do zakłócania modeli, które bez zgody pobierają ich obrazy. Zmiany wprowadzone przez Nightshade są bardziej widoczne na sztuce o płaskich kolorach i gładkich tłach, ale narzędzie zawiera ustawienie niskiej intensywności dla tych, którzy chcą zachować wizualną jakość oryginalnego obrazu.
Nightshade działa bez połączenia sieciowego, więc żadne dane ani sztuka nie są wysyłane z powrotem do twórców narzędzia.
Ograniczenia
Nightshade w wersji 1.0 jest narzędziem samodzielnym, nie zapewnia ochrony przed naśladowaniem jak Glaze. Należy zachować ostrożność przy jego użyciu, aby uniknąć problemów z naśladowaniem stylu. Trwają testy współistnienia Nightshade z Glaze, a w przyszłości planowane jest wydanie Nightshade jako dodatku do Webglaze, umożliwiającego stosowanie obu narzędzi jednocześnie.
Pobierz Nightshade
FAST link for Windows Nightshade v1.0 FAST link for Mac Nightshade v1.0 Nightshade 1.0, Windows GPU/CPU Version, for Windows 10/11 (2.6GB w/PyTorch GPU libraries included) Nightshade 1.0, MacOS (CPU Only) - Apple Silicon, M1/M2/M3 processors (255MB) Źródło: https://nightshade.cs.uchicago.edu/whatis.html
 
Nowy odcinek podcastu Klaudii Borowiec ➡️ Czy architekci generalnie boją się technologii AI? 
🎙️✨Adam Buśko, należy do tej drugiej grupy. Adam to architekt z LABu - działu konkursowego C.F. Møller w Kopenhadze. Adam nie tylko pracuje w międzynarodowym środowisku architektonicznym, ale również aktywnie wykorzystuje narzędzia AI w swojej codziennej pracy. 
➡️ Dzięki niemu poznamy wpływ tej technologii na architekturę oraz jakie korzyści niesie ze sobą. To rozmowa, która dostarczy nam wglądu w to, co każdy architekt powinien wiedzieć na temat sztucznej inteligencji w architekturze. Zapraszam!
 
 
Świąteczny, krótki film animowany od Platige Image - Mossies: Catching Art.
Credits:
Director: Adrian Tarasek
Executive Producer: Karol Żbikowski
Head of Production: Aga Górna
Head of CG: Marek Gajowski
Grading: Piotr Sasim
Producer: Krystyna Bisaga
CG Supervisors:  Łukasz Dziedziński, Bartłomiej Kmita, Piotr Ołtarzewski, Maciej Szewczenko
Conforming: Piotr Popielawski
Concepts: Adrian Tarasek
Layouts: Małgorzata Magrzyk, Piotr Ruszkiewicz, Maciej Szewczenko,Gal Ravid-Tal
Asset artist: 
Artur Borkowski, Szymon Burzawa, Valon Surin, Maciej Szewczenko, Nastya Tolstik
Rigging: Igor Surin, Paweł Szczęsny
Matte Painting: Adrian Tarasek
3D Animation: Karol Chyliński, Małgorzata Magrzyk, Diar Pepiqi, Piotr Ruszkiewicz, Maciej Szewczenko,  Jacek Wrona
FX: Marek Gajowski, Lehel Karsa, Mateusz Mączka, Maciej Szewczenko 
Compositing: Dominik Ansorge, Marek Gajowski, Maciej Prętki, Gal Ravid-Tal 
Lighting/Rendering: Maciej Szewczenko, Gal Ravid-Tal
UE Support: Jakub Bogacki, Zoltán Cseri, Jeton Dajakaj,  Mikołaj Mlonek
Data Wrangler: Michał Magoń
DI: Piotr Dutkiewicz
Sound Producer: Sabina Pająk-Maciaś/ Soundly by Platige
Sound Designer: Jacek “Dżeksong” Onaszkiewicz
Voice-Over Artists: Katarzyna Godlewska, Arek Jakubik
Team Coordinators: Ewelina Mazur, Paulina Sadownik
Audio/Video Technique - DI Support: Cezary Musiał, Kamil Steć, Maciej Żak
Marketing: Piotr Bartoszek, Maria Jeppsson, Marcelina Salwin, Bartosz Zieliński

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności

Configure browser push notifications

Chrome (Android)
  1. Tap the lock icon next to the address bar.
  2. Tap Permissions → Notifications.
  3. Adjust your preference.
Chrome (Desktop)
  1. Click the padlock icon in the address bar.
  2. Select Site settings.
  3. Find Notifications and adjust your preference.