Bylo ich sporo. Pierwsze lepsze ktore wpadaja do glowy to np. narzedzia takie jak DALL·E 3 i MidJourney sprawily, ze generowanie obrazow z tekstu stalo sie nie tylko latwe, ale i bardziej realistyczne niz kiedykolwiek wcześniej. RunwayML pozwala na ozywianie statycznych obrazow, tworzac plynne animacje, a Flux wspiera trenowanie modeli AI, co jeszcze bardziej podnosi jakosc generowanych materialow.
Kolejna rewolucja, to technologia zmiany perspektywy elementów na zdjęciu, jak np. obracanie głowy postaci, opiera się na generative AI i modelach głębokiego uczenia, takich jak GANy, które umożliwiają realistyczną manipulację obrazem, wykorzystywaną w narzędziach jak DALL·E, Neural Filters w Photoshopie czy DeepFaceLab.
Dzieki AI, ozywianie modeli 3D jest teraz mozliwe przy uzyciu narzedzi przechwytywania ruchu, a takze automatycznego generowania animacji prosto z opisu tekstowego. To skraca proces animacji i umozliwia tworzenie realistycznych ruchow bez potrzeby zaawansowanych umiejetnosci.
Technologie takie jak DLSS 3 i Intel XeSS pozwolily na plynniejsze renderowanie w grach z zaawansowana grafika, co widac chociazby w Cyberpunk. Gaussian Splatting oraz NeRFs pozwalaja na szybkie tworzenie scen 3D ze zdjec czy chmur punktw, co przyspiesza prace w VR, AR i produkcjach filmowych. Nie mowiac juz o rozwoju GPT, ktory potrafi analizowac obraz, a czego nie potrafil wczesniej, oraz jego nowej wersji GPTO ktory dziala na zupelnie innej zasadzie "myslenia" niz jego poprzednia wersja.
To tylko maly fragment tego, co powstalo w ostatnim roku, odnosnie samej pracy z obrazem a tempo rozwoju wciaz przyspiesza. Z pewnoscia wiele narzedzi w nowych wersjach programow do tworzenia grafiki 3D bedzie oparte o algorytmy AI.