Skocz do zawartości

Tvaroog

Members
  • Rejestracja

  • Ostatnia wizyta

Zawartość dodana przez Tvaroog

  1. Są sytuacje gdy 100% podobieństwo nie jest ważne, jak na przykład obrazy całkowicie syntetyczne. Obraz ze Stable Diffusion demo: Przepuszczony przez CodeFormera, nie jestem pewien czy to poprawa: CodeFormer coś szwankuje. Czasami naciskam download i ściąga mi jakieś zdjęcia Hindusów. Uważajcie co tam ładujecie. Mam pierwsze screenshoty z remastera Wiedźmina 1. Oryginał: Remaster. Tutaj wygląda jak Jeff Goldblum: Tutaj jak Carl Sagan: Putin: Cillian Murphy: Kokaina: Heroina:
  2. Narzędzia oparte o sztuczne sieci neuronowe, które trzeba trenować spokojnie mieszczą się w kategorii wąskiego czy też słabego AI. Nie jestem ekspertem, ale z tego co rozumiem... Sieci neuronowe nie przechowują fragmentów bitmap, a raczej statystyczne dane na temat bazy użytej do treningu. W wielowymiarowej przestrzeni tzw "latent space" przechowywane są korelacje pomiędzy różnymi kształtami i kolorami. Można się swobodnie przemieszczać pomiędzy tymi wymiarami: Jeśli dobrze rozumiem, kodowanie danych w latent space jest samo w sobie formą kompresji. Inna sieć, tylko zamiast pikseli są voxele: To samo tyczy się tekstu: Jeśli połowa obrazów oznaczonych słowem "photo" w bazie na której szkolona jest sieć ma logo Getty Images, to sieć uczy się, że istnieje statystyczna korelacja pomiędzy tym białym kształtem z prawej strony obrazu a hasłem "photo". Zawsze jest jednak trochę koślawe. Da się teoretycznie wyciągnąć ze Stable Diffusion zdjęcia prawie identyczne jak te które były użyte do treningu (chociaż nie identyczne co do piksela), ale szanse, że użytkownikowi się to uda przypadkiem są małe. Fani tych technologii używają właśnie tego argumentu. Sztuczne sieci neuronowe są wzorowane na prawdziwych. Ludzie również uczą się na przykładach. Pewnie każdy tutaj widział to logo Getty Images tyle razy, że byłby w stanie je narysować z pamięci nie gorzej niż AI. Ale to kiepski argument, bo maszyny to jednak co innego niż ludzie. W przypadku Getty Images dochodzi jeszcze zawsze drugi argument: "a co ty, korporacji bronisz?" Ja oczywiście stoję w tym sporze po stronie artystów. Raz, że sam jestem jakimś tam artystą, ale przede wszystkim prace tysięcy twórców zostały bez pozwolenia zgromadzone i wykorzystane, również w celach komercyjnych (Midjourney). Swoją drogą, duże modele językowe są szkolone na tekstach z milionów różnych źródeł od książek po bzdury które wszyscy wypisujemy na forach. W przeszłości cudze prace były już wykorzystywane w researchu, słynne przykłady to "Lenna" czy "Tom's diner". Ale tamte technologie nie były wykorzystane do stworzenia artystom bezpośredniej konkurencji. Z ciekawości wrzuciłem Szopena zdjęcie z Wikipedii. Tutaj efekt z maksymalną jakością i zaznaczoną poprawą tła. Moim zdaniem tło jest gorsze niż było. Gapi się teraz w inną stronę: Tutaj maksymalne podobieństwo kosztem jakości. Patrzy się tam gdzie trzeba, ale coś się stało z włosami:
  3. Ostatnio dr Károly Zsolnai-Fehér w "2 minute papers" gadał o tej metodzie upscalowania twarzy: https://replicate.com/sczhou/codeformer/examples#3brtklnlxrh5dai63qnopzlwde https://shangchenzhou.com/projects/CodeFormer/ AI będzie stopniowo coraz lepsze, nie ma co się oszukiwać. Jednocześnie ciągle ma jeszcze sporo ograniczeń. Jak to ktoś powiedział, w Dolinie Krzemowej nad AI pracują bardzo inteligentni ludzie, którzy nadużywają kofeiny. W zeszłym roku do wyścigu dołączył John Carmack, który porzucił VR na rzecz sztucznej inteligencji. Oczywiście w przeszłości były okresy tzw. zimy AI, ale nawet wtedy machina postępu toczyła się do przodu, tylko wolniej. Generalnie żyjemy w ciekawych czasach.
  4. Tvaroog dodał temat → w Animacje
    Wykorzystałem 'geometry nodes' w Blenderze. Kawałek nagrałem na konkurs CD Projektu.
  5. Tvaroog odpowiedział Withi → na temat → Blender
    Ale możesz 🙂 https://fund.blender.org/
  6. The 1973 Agreement on the Conservation of Polar Bears
  7. Jak nie chcesz w edit mode to możesz użyć shrinkwrap modifiera, ale "snap to face" w edit mode będzie szybciej.
  8. To teraz gdy CD Projekt przeszedł na Unreala @KLICEK zostanie bez pracy?
  9. Strona projektu. Na razie max rozdzielczość to 1024px. Jeszcze nie do końca radzi sobie w fotorealistycznych scenach gdzie wszystko jest wygenerowane od zera, jak tu:
  10. Przecież wszystkie komentarze pod tym artykułem są negatywne 🤔
  11. Nowy open movie. Z innych rzeczy:
  12. Tvaroog odpowiedział zoom → na temat → Blender
    Rozdzielczość ograniczona?
  13. Od stycznia Joseph Eagar ma pracować nad sculptingiem: https://blenderartists.org/t/the-big-blender-sculpt-mode-thread/1150731/9330
  14. Proszę to zignorować. Wystarczy zaznaczyć "in front" w Object Properties > Viewport Display. Zostałem poinformowany, że prawdopodobnie zostanie to włączone domyślnie w 2.93.1
  15. Wracając do tematu LineArt, w blenderze 3.0 modyfikator wykorzystuje wiele wątków przez co linie ładują się szybciej. Na moim przedpotopowym i5 w testowej scenie jest dwa razy szybciej niż w 2.93. LineArt tworzy obiekt Grease Pencil, więc nie jest to rozwiązanie real-time. Na forum developerskim ktoś poruszył wątek konturów renderowanych w czasie rzeczywistym przy pomocy shaderów.
  16. Line Art ma zastąpić Freestyle i wydaje mi się że jest od niego szybszy. Przede wszystkim gdy linie są już wygenerowane, zmiana ich właściwości, np. grubości jest natychmiastowa. We Freestyle każda zmiana oznacza ponowne przeliczanie wszystkiego. Obiekt Grease Pencil można sobie obracać w viewporcie, ale oczywiście ma on tylko sens z widoku kamery. Z każdej innej perspektywy nie będzie wyglądał poprawnie. Problem, który zauważyłem to fakt że Grease Pencil nie renderuje się poprawnie gdy linie są położone bezpośrednio na obiekcie. Żeby uzyskać ładny efekt musiałem wyrenderować linie na osobnej warstwie, ale żeby to zrobić trzeba najpierw wybejkować LineArt (opcja na dole modyfikatora).
  17. 2.93 to nowa seria Long Term Support. Czyli przez następne 2 lata będą wydawane wersje 2.93.1, 2.93.2, itd.
  18. Tvaroog odpowiedział Tvaroog → na temat → Animacje
    No dzięki. Film ma 24 klatki na sekundę, ale sama animacja postaci (a także ogień) mają 12. Do tego dodałem displacement. Same linie tez mają delikatny noise. Efekt kojarzy mi się trochę z tradycyjnym rotoscopingiem.
  19. Tvaroog odpowiedział pionier01 → na temat → Blender
    Widok siatki można też włączyć dla każdego obiektu osobno: Jeśli to nie to, możesz usunąć wszystko z pliku, zostawić jakiś jeden obiekt i załączyć tu plik .blend.
  20. Tvaroog dodał temat → w Animacje
  21. Tvaroog odpowiedział pionier01 → na temat → Blender
    Przy okazji, używasz Blendera 2.82. Najnowsza wersja to już 2.91.
  22. Image musi być otwarty w shader editorze: Szybki workaround, jeśli twoja tekstura ma proporcje 2:1 można zaznaczyć uv mapę i przeskalować x0.5 na osi x ("s"+"x"+"0.5")

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności