Skocz do zawartości

anya_desdein

Members
  • Liczba zawartości

    93
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    2

Zawartość dodana przez anya_desdein

  1. 1 seria ćwiczeń z loomisa "fun with pencil" co nie jest walcami, kołami itd.
  2. super praca do 2ch rzeczy się doczepię: jego prawa noga nie obraca się w kolanie (ochraniacz) ale łydka już tak (spróbuj tak zrobić, nie da się, bo staw obrotowy masz nad udem) Też przez to balans sylwetki nie wyszedł. (Ciężar ciała spadający na taką nogę przywodzi mi na myśl złamania) Druga rzecz to prawa ręka, a dokładnie łączenie kciuka z resztą ręki. Na pewno nie byłoby takiego wcięcia, ogólnie bym założyła rękawiczkę i sprawdziła jak się układa.
  3. Jakiś szybki szkic z dzisiaj, ja się bawię pociągiem, którego nigdy nie dostałam jako dzieciak. Powoli uczę się konstrukcji, ale za bardzo to w powijakach by już pokazywać.
  4. To akurat chyba dobrze, bo będzie mniejsza konkurencja 🤔 Aktualnie tona ludzi uczy się rysować, mało kto w tym pracuje (patrzę na znajomych po szkołach i uczelniach artystycznych, co są testerami oprogramowania, nauczycielami itd.)
  5. (link bo za duże tak o 1 zero minimum) Skończyłam raka. Pierwsza pełna animacja w after effects in kricie z dockerem do animacji. Dźwięki zrobiłam sama (też w głupi sposób). Teraz mogę wreszcie zająć się czymś sensownym.
  6. Ja ostatnio to ogrywałam w sumie z 4 gry (nie najnowsze, ale serio fajne): - Omori (z 40-60h zmarnowane, gameplay bardzo fajny, ale scenariusz jakby pisała osoba edgy i skrajnie niedojrzała) - Rain world (Nie jestem wstanie powiedzieć jak bardzo kocham tą grę) - Find love or die trying - mniej niszczenia ściany, ale też taki doki doki vibe ze względu na mroczny lore i śmierć dookoła : D Jak dla mnie ideolo. - Terraria (nie trzeba tłumaczyć) polecam 😛 Ogólnie niechętnie podchodzę do gier 3D - gram w nie tylko gdy są to gry rts, moba, strategie lub horrory, innych kijem nie ruszam, bo mam w nich skill jak roczne dziecko w chodzeniu (nie liczę gier na vr, bo mogłabym grać w Super Hota etatowo xd). Jak macie jakieś 2D tytuły, to chętnie przygarnę.
  7. Dorzucam część szkicy postaci do gierki - 1 iteracja w 1 dzień robione xd Reszta jest już wrzucona w pliki do unity (coś musi robić za placeholder xd) i nie chce mi się w 1 plik składać
  8. Zaczynam od 1 animacji nie w character animatorze i nie kodem (ta druga była moją pierwszą nie licząc jakichś eksportów klatek oddzielnie i łączenia ffmpegiem xd). Na razie wip. Chcę zrobić swojego vtubera jak wlewa sobie wodę do nosa (do zrobienia) i wylewa ustami robiąc fontannę. Mega mi się podoba animacja efektów i można się pobawić i zrobić rakowy loading screen na yt. xd Nie działa mi poprawnie onion skin i nie updatują się warstwy aż nie puszczę animacji po zmianie, animacja 3 min (nie licząc artów w tle i na przodzie), a setup wszystkiego 3h xDD. Adobe nie ma takich problemów, ale chciałam na szybko, to mam xD
  9. A tu się nie zgodzę. 2 obrazki z neta: drugi obraz do style transferu (oryginał), pierwszy po prostym i delikatnym style transferze z zachowaniem tej samej postaci (fanart). A jeszcze jak ktoś zrobi outpainting, zmieni trochę itd i poprawi błędy to nikt nie nawet nie zorientuje. Przecież dużo osób (nie oceniam legalności) zarabia na fanartach i tego typu pracach, nie wspominając o wyzwaniach na narysowanie danego zdjęcia, czy fragmentu anime. Do tego widziałam, jak ludzie brali np.: zdjęcie trumpa i przy użyciu SD robili z tego arty zupełnie innych postaci robiących coś innego - z zachowaniem kompozycji i podobnej gry świateł (ale w innej kolorystyce zupełnie itd.) A rodzajów kompozycji wyglądających dobrze też nie jest nieskończona ilość i nikt by raczej nie zgadł, na podstawie czego to stworzyli. Na szczęście większość osób robiąca rzeczy z ai nie umie rysować - więc da się poznać co i jak. Jest trochę takich jak ja, co rysowali z 2-3 lata i coś umieją, ale no nie jestem na poziomie "pro" więc też niektóre rzeczy stanowiłyby wyzwanie w obróbce. Ale gdy zabiorą się za to absolutni prosi, to nie chcę wiedzieć jaki będzie rezultat. Trzeci obrazek to przykład, jak jeszcze amatorsko ludzie konwertują szkice w finalny render (autor obróbki ai nie jest nawet twórcą rysunku, niestety). Mam gdzieś na kompie też filmik jak ktoś robi art anime z renderem na poziomie league of legends stosując różne wagi i etapy używania SD do zrobienia rysunku, a zaczynał od czegoś co sam narysował (i było na poziomie rysowania stickmana).
  10. Tak średnio. Z jednej strony crippling depression, że jest lepsze ode mnie. Z drugiej - uwielbiam wrzucać jakieś dziwaczne tematy do AI i patrzeć, co wyjdzie. Ludzie wokół mi mówią, że moje arty "są za dziwne" i by je stonowali, bo wątpią, że ktoś by chciał coś takiego. A ja w drugą stronę - czuję blokadę techniczną i staram się to zwalczyć, by robić jeszcze bardziej szalone arty. 🙃 AI mi trochę pomaga, bo coś z czym bym się poddała na starcie on robi w 100 wersjach i mogę iterować pomysły i zrobić 200 artów dziennie (których sobie nawet nie zapiszę, bo za dużo ich robię, by miały tak na prawdę jakąś wartość i wolę jednak coś wymyślić i narysować sama). Także AI wywołuje we mnie 2 rodzaje zupełnie skrajnych emocji - i to jednocześnie xd Nie mam czegoś takiego "że to nie moje" jak to tworzę, gorzej jak wrzucam. Zawsze piszę jak używam AI i zmieniam się w smutną żabę mając nadzieję, że moje oryginalne arty będą mieć większy odbiór bym nie musiała ich robić i nigdy to nie następuje. 😃 Kilka pancernikowych lampek z brzegu jako załączniki (pierwszy raz je pobrałam na kompa, bo choć są super to właśnie - jest to art bezwartościowy, bo mogę ich zrobić nielimitowaną ilość w dowolnym momencie, a każdy kolejny może być lepszy od ostatniego).
  11. Jak chcesz spróbować outpaintingu to w dalle 2 jest opcja (do inpaintingu też). Jak zainstalujesz sobie SD z interfejsem będzie zakładka na inpainting (wymazujesz część obrazka). Za to outpainting jest bardziej toporny. Najlepiej zrobić go tak: Bierzesz pracę którą chcesz poszerzyć i wrzucasz go do SD poszerzony (np dodajesz pustą przestrzeń z lewej). Generujesz jakieś koherentne w miarę (kompozycyjnie i kolorystycznie) tło w tym stylu co chcesz. Następnie pobierasz. By zachować spójność detalu to przycinasz obraz do jakiegoś kwadratu niewielkiego i wymazujesz tą część, która się nie zgadza (np chcesz żabę po lewej, a jest słoń) i piszesz w narzędziu do inpaintingu że tam ma być żaba. Z takich elementów sklejasz całość i jest poszerzony obraz. W dalle2 jest fajny interfejs do poszerzania obrazu, ale ze spójnością gorzej bo nie da się tak po prostu bez pracy w jakimś zewnętrznym programie graficznym zrobić tej wstępnej kompozycji i obraz jest spójny tylko z niewielkim fragmentem obok, a nie dopasowany do całości. A z innych narzędzi to choćby: Face restoration: https://arc.tencent.com/en/ai-demos/faceRestoration Odblurowuje zdjęcia, naprawia zepsute twarze z Ai itd. Do powiększania to np waifu2x, bigjpg ale to bazuje na waifu2x, ale nic nie trzeba instalować. Jest też narzędzie online łączące waifu2x z face restoration i wygodnym interfejsem za darmo, trzeba poszukać (ma wadę że jest wolne). NovelAI można wyszukać i też polecam, bo banalnie się go używa. Co do tego jak robić spójną historię z 1 postacią w MJ: - generujesz sam portret osoby w ai. - możesz potem dogenerować wariacje np. inne ekspresje i fullbody. Potem w necie szukasz formułki do dodawania na końcu prompta i załączasz obrazy opisane powyżej. Minusy: działa tylko z v2 i v3 MJ, nie z test i testp. To są zdecydowanie gorsze jakościowo modele niż to co jest aktualnie w topce na rynku, ale do niektórych rzeczy się nada. Co do StableDiffusion załączam filmik (tu jest problem, że arty przypominają osobę, która była opisywana, ale nie są spójne między sobą). O losowym temacie mogę gadać pół godziny, także tu są jakieś losowe rzeczy xd
  12. Co do ai: też trzeba go umieć używać (komendy itd.) Choćby wiedzieć jak zrobić tiling (lub ogarnąć narzędzie z interfejsem graficznym, ale to więcej wysiłku niż pisanie samemu). W załącznikach: bez obróbki 1 temat, 8 na 8 wygenerowanych obrazków (pierwsze-lepsze). Miała być piękna realistyczna azjatka z grzybem-czapką na głowie jako portret (konkretny rodzaj grzyba się nie udał, ale zrozumiało kilka z jego cech) no i posiadająca różowe włosy (widać gdzie nie wyszło). Narzędzia do MJ --test i --testp
  13. Wrzucam kilka obserwacji na temat AI z pracy z nim: Z tym AI radzi sobie dobrze: 1 główny obiekt lub pomieszczenie, 1 osoba, portret itd. ekspresje twarzy statyczne sceny Do tego stable diffusion można dotrenować (tak np. jest z anime diffusion), by nauczyło się robić nowy styl, tematykę itd. Do tego można je wyuczyć na nowych tagach - przez co Polak z angielskim na AI też mógłby generować obrazy. Ogółem: - jeśli umiesz podstawy it to nie musisz znać ang by robić obrazki z ai - możesz dotrenować wszystko - porno, gore, konkretnego artystę, a sprawdzić jak powstało dzieło jest niemożliwością - outpainting i inpainting załatwia problem z ai nie ogarniającym wielu osób w 1 scenie, ale psuje spójność stylową i treściową (to też da się naprawić) Obraz 1: baza ze SD, potem outpainting z Dalle 2, potem kolaż i obróbka ręczna w dobę (moja praca) Obraz 2: Baza to stare MJ (v2) potem z 10h overpaintu i kolażu z innych obrazków zrobionych w MJ i jedno stock photo do dymu z fajki (który i tak jest domalowany ręcznie, bo tamten mi się nie podobał, ale coś z niego zostało) Obraz 3: kolega programista robił sobie Miku w novelAI, 0 obróbki Obraz 4: jw Obraz 5: jw Obraz 6: Coś co sobie wygenerowałam z MJ nie podnosząc pędzla w 30 sekund. Z każdym kolejnym AI rezultaty są lepsze, wymagają mniej obróbki i pozwalają na większą customizację bez podniesienia pędzla. Do tego są: ai do in-between frameów, ai do generacji filmów, ai do odblurowywania i odszumiania video, ai do korekcji twarzy (przydatne przy poprawianiu pracy z ai), ai style transfer (łączysz styl 1 pracy z inną z jednej biorąc styl, z drugiej treść), ai do konwersji 2d do 3d, ai do generacji 3d modeli od 0 (polecam poszukać, sama nie testowałam tego ani nie czytałam papieru). Do tego wcześniej wspomniany outpainting ("dorysowujesz" dodatkowe części do swojej pracy powiększając ją, testowałam na 1 swoim rysunku i pasowało idealnie) i inpainting (art director powie, że trzeba zmienić hełm: dajesz mu 10 wariacji w minutę nie ruszając innych części pracy). Ludzie używają inpaintingu do wymyślania sobie kostiumów i ubrań (jedno z ciekawszych użyć). Do tego wszystko to jest darmowe lub bardzo tanie, szybkie i nie wymaga dużych kwalifikacji w obsłudze. Ja testowałam już z 15 programów do AI w życiu, a moje jedyne dokonania z pisaniem AI samemu to wykrywanie rodzajów monsterków na wideo xd. Przykład użycia nr1: bierzesz zdjęcie aligatora, wymazujesz mu głowę, dajesz do SD i testujesz jak by wyglądał z głową żyrafy, robisz tak 10 razy z innymi częściami ciała i wychodzi zupełnie oryginalny potwór. Dla mnie jest to przykre, bo raczej marnie widzę przyszłość rysunku. Ale z drugiej strony, jak podczas imprezy wpadłam na pomysł zrobienia lampy-armadillo, to wygenerowałam ich 8 i miałam w minutę ( a teraz myślę, czy sobie nie skonwertować na 3D, obrobić i druknąć, bo autentycznie chcę taką w pokoju). Tak się rozpędziłam, że zapomniałam napisać, że od kilku mies istnieją tutoriale jak generować wymyśloną postać w AI by była spójna wizerunkowo i stylowo, od teraz w SD da się także to robić na bazie zdjęć prawdziwych ludzi (jakby ai do podmiany twarzy nie starczyło). Do tego AI do powiększania obrazu (jakby ktoś bardzo potrzebował rysunku 30k x 30k pixeli), czy np.: ai do animacji wody 1 kliknięciem ze statycznego obrazu (jest na telefony wiele apek, część ma free trial).
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności