Skocz do zawartości

OldMan

Members
  • Liczba zawartości

    396
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    7

Zawartość dodana przez OldMan

  1. ja sie ostatnio wkręciłem bo naleze do grupy która zajmuje sie scanlacjami (komiksy zagraniczne tłumaczone amatorsko na polski) i czasami jestem proszony bym wyczarował coś z gównianego materiału źródłowego, ostatni przykładowy eksperyment
  2. rozumiem Cie w pełni, ja aktualnie usunąłem z kompa na razie wiele rzeczy związanych z AI bo mi sie juz troche znudziło, mozna powiedziec ze sie juz wybawiłem (usunąłem np setki modeli do Stable Diffusion które zajmowały już grube gigabajty na moich dyskach), zostało pare narzędzi których uzywam bo muszę (np Chainner i specjalistyczne customowe modele do poprawiania jakosci bitmap wybitnie popsutych). w przypadky grafiki obecne narzędzia AI nie dają przyjemnosci twórczej , to po prostu mielenie różnych obrazków w celu uzyskania kolejnego obrazka, nie ma nad tym sensowej kontroli (tzn jakas tam jest ale nie o taką kontrole mi chodzi, to nie jest kontrola twórcza). Mozliwe ze w przyszłosci pojawią sie jakies narzędzia i techniki by praca z AI w przypadku grafiki była bardziej twórcza ale mozliwe też ze te narzędzia zeby powstać będą musiały wymagać znacznie więcej mocy (np jakis program malarski z pędzlami AI )
  3. ten problem jest szerszy bo tutaj nie chodzi tylko o spiew, po prostu w wielu obszarach stało się modne dążenie do ideałów za wszelką cenę, np w kwestii urody (dlatego w niektórych krajach (np korea )stało sie to kulturową obsesją doprowadzając do wygenerowania armii identycznych prawie klonów)
  4. wejdzmy głębiej 😶 grafikę musisz zrobić całkowicie sam na własnoręcznie napisanym programie uruchomionym na własnoręcznie zbudowanym kąkuterze, tylko wtedy można powiedziec że grafika jest koszerna 😄
  5. ostatnio robilem zaproszenie na spotkanie integracyjne w stylu Retro Synth Wave, normalnie w dawnych czasach to bym sie z tym piescił ze dwa tygodnie i wszystko robiła autorsko ale tutaj po pierwsze sprawa miała byc gotowa na jutro po drugie miało byc bardzo tanio, wiec w ruch poszło AI i jakies gotowe elementy z freepika których mi brakowało do kompozycji a nie było kompletnie czasu by je zrobić ręcznie, jeden wieczór i kilka wersji było gotowych, klient zadowolony, ja tez bo nie musialem tego robić kawał czasu. w przypadku takich sytuacji uwazam ze AI jest okej .
  6. jest jeszcze jeden aspekt "rozwoju" czy też bardziej "cofania się w rozwoju" AI który byc moze był omawiany, ale ostatnio czesciej o nim myslalem, pasuje do niego nazwa "Chów wsobny" i polega w skrócie w przypadku AI na tym: 1. komercyjne narzedzia AI takie jak MidJourney korzystają w swoich modelach szkoleniowych w duzej ilosci z zawartosci sklepów stockowych , to własnie dlatego tak łatwo jest w MJ generować takie treści (a duzo trudniej w SD które jest bardziej skierowane na klimaty waifu i pochodnych) 2. w związku z tym że sklepy stockowe przyjmują od jakiegoś czasu treści wygenerowane przez AI może dojść do tzw chowu wsobnego w którym modele bedą sie uczyc na tym co już wygenerowano wczesniej za pomocą AI i wrzucono do stocka. 3. Mozna temu zapobiec jesli dataset do nauki modeli bedzie wysoce kontrolowany ale czy tak jest realnie tego nie wiem, czas pokaże (juz pomijam kwestie praw autorskich która w przypadku MJ jest notorycznie łamana, juz o tym w sumie rozmawialismy)
  7. no wlasnie, problem z grafikami jest od dawna bo ta branża ma niski próg wejscia (jesli przykładowo lekarz na sali operacyjnej chce zrobic operacje to na początek czeka go wiele lat nauki, egzaminy itd , inaczej nikt go nie wpusci na sale operacyjną ) w przypadku grafika to taki zawód widmo, powiedzienie "wystarczy porfolio" czesto jest prawdziwe ale zapomina sie o tym ze na swiecie w przypadku grafików nie ma czesto zadnych regulacji prawnych które zatrzymywałyby ten zalew januszerki scianą odpowiednich regulacji, egzaminów, edukacji. Wiec tak naprawde problem nie lezy w samym AI, problem lezy w umiejętnym wykorzystaniu AI przez grafików. Profesjonalista zrobi dobry projekt wykorzystując AI i przyspieszając swoją prace. A Janusze czy to z AI czy bez AI będą robic dalej to samo gówno (a ich jest niestety wiekszosc i w pewnych obszarach bardzo ciągną branże w dół)
  8. To moze ja tym razem stane po drugiej stronie barykady nie dlatego ze sie z Tobą nie zgadzam, w wiekszosci sie zgadzam ale sprawa jest jak to zwykle bywa nieco bardziej złożona i chciałbym nieco doprecyzować. 1. Ai to narzedzie to miksowania obrazków z których powstał model który jest użyty do generowania, jesli przełączymy sie na inny model uzyskamy inne efekty. w przypadku MidJourney nie mamy takiej mozliwosci (tzn nie do końca bo mozemy sie przełączac pomiedzy wersjami silnika v1 v2 v3 itd i kazdy z tych silników ma podłączone na stałe swoje modele ale nie ma tutaj takiej elastycznosci jak w Stable Diffusion gdzie są setki modeli i sie przełączasz miedzy nimi co dla typowego janusza grafiki moze byc w sumie udręką). 2. Jest mozliwe uzyskanie w AI innych efektów niż "popularne" buzki ale wymaga wiekszego nakładu pracy , mozna uzyć control net w SD lub IMG2IMG lub innych metod by sie zbliżyc stylem do już wygenerowanej wczesniej oprawy graficznej w danej grze ale to juz wyzsza szkoła jazdy a ludziom sie - nie chce - nie mają na to czasu bo to za duzo już rzezbienia - nie wiedzą nawet ze tak mozna 3. najbardziej nietypowe rzeczy mozna by uzyskać za pomocą AI gdyby uzyto własnych przeszkolonych modeli w których są własne dane (np grafik mógłby włozyc tam własne ilustracje) ale to kosztuje duzo pracy, i taki dataset musialby byc obszerny zeby uzyskane efekty były dobre , czyli tych obrazków musialoby być zapewne bardzo duzo (moze w przyszlosci to sie zmieni), no ale jak to w zyciu bywa trzeba miec czas i chęci i zasoby (prace graficzne) zeby cos takiego zrobic. Pisze to dlatego zeby podkreslic ze AI to narzedzie, w zaleznosci od tego jak zostanie uzyte takie dostaniemy efekty.
  9. jednego nie mozna AI odmówić, bardzo ułatwiło ludziom realizowanie rozmaitych wizji i fantazji (dodatkowe rączki w gratisie ale kto by sie już tym dzisiaj przejmował XD ) ten słonik po lewej jest strasznie creepy, to juz wole tego od AI w tym konkretnym przypadku, ale faktycznie bardziej dziwi mnie cała szata graficznego opakowania po prawej (czyżby projekt robił jakiś syn jakiejs Pani Grażynki która akurat była w pobliżu, a moze to celowy przemyslany zabieg...)
  10. co do tego SORA Ai to jak już wyżej pisaliscie mi też coś tutaj smierdzi, dotychczasowe animacje rozjezdzały sie mocno pod wieloma wzlędami a tutaj zbyt duzo rzeczy wygląda duzo lepiej (nawet gdyby generowac tylko statyczne klatki ) wiec powiem tak uwierze jak bedzie to juz udostepnione. Oczywiscie jak to w przypadku AI bywa nawet i tutaj bedzie sporo ograniczeń, mysle ze sobie nie poradzi ze skomplikowanymi zmianami perspektywy w złozonej geometrycznej przestrzeni (np w miescie) , bedzie tez ograniczenie w jakosci i rozdzielczosci oraz zapewne typowe dla AI ograniczenie jakosci przy małych obiektach (im obiekt zajmuje mniej na ekranie tym gorzej jest generowany nawet jesli rozdzielczosc pozwala na lepiej), wiec to raczej bedzie do krótkich filmików w których jakosc nie jest mocno istotna (z zastosowaniem np do reklamy w necie)
  11. dorzucam opis: https://exai.pl/openai-prezentuje-sora-ai-do-tworzenia-wideo-z-tekstu-zaskakuje-mozliwosciami/ jeszcze długo nie, na razie usługa jest w fazie zamkniętego rozwoju, a nawet jak ją udostępnią to pewnie bedą powazne ograniczenia i kontrola
  12. OldMan

    AI tests

    https://www.reddit.com/r/StableDiffusion/comments/197nmg3/cats_for_mermaids_by_thundermonique_using/
  13. kolejne narzędzie które zrobi czystkę w szeregach Fiverrowych grafików i nie tylko https://aigcdesigngroup.github.io/replace-anything/ demo https://huggingface.co/spaces/modelscope/ReplaceAnything Sprawdziłem na szybko, działa
  14. juz wyjasniam, w swoim komentarzu odniosłem się do zdania twojego cytuję: i jest to słuszna uwaga ale chciałem to rozwinąć, to co napisałeś wyzej jest bardzo charakterystyczne dla "renderów" jakie robi obecna wersja DALL-E 3, natomiast w najnowszych modelach SD oraz MJ jesli sie chce to mozna uzyskać mniej "idealny" wygląd postaci (przykłady wyzej) , tyle że społecznosc internetowa chyba po prostu lubi takie wyidealizowane postacie (zwłaszcza kobiece) bo stanowią czesto większosc generowanego szitu .
  15. to co ludzie lubią oglądać i co lubią generować a to co można zrobić to dwie różne rzeczy, wszystko zalezy od tego kto robi, czym robi i co chce osiągnąć
  16. to nie do konca jest wina AI tylko tego ze uzyte modele nie były szkolone w Amigach, lub mówiąc bardziej dokładnie ilosc zdjęć z Amigą była bardzo mała w puli zdjęć jakie brały udział w szkoleniu modelu. To jeden z powodów dla których np ludzkie postacie , twarze itp wychodzą lepiej bo są na wiekszosci zdjęć szkoleniowych a rzeczy techniczne wychodzą gorzej . Drugi powód jest taki ze generalnie rzeczy organiczne (np twarz, kwiat, itp) wychodzi lepiej w tej technologii a rzeczy ktore są techniczne, dokładne geometrycznie, mające techniczne detale ...z tym ai sobie nie radzi ale mówiąc bardziej dosadnie (nie radzi sobie po trochu wszędzie ale w przypadku organicznych rzeczy nie rzuca się to tak w oczy)
  17. czy graficy tego chcą czy nie ai jest w stanie generować obrazy szybko i bardzo realistycznie, a tego chce rynek , oczywiscie w dalszym ciągu jest cała masa ograniczeń ale juz teraz wiele osób ktore musialyby skorzystac kiedys z ludzkiego grafika dzisiaj nie muszą bo wiele prostych i srednio złozonych ilustracji lub ogólnych zdjęć są w stanie wygenerować na dalle3 lub midjourney (oczywiscie mówie tutaj o prostych zadaniach a nie złozonych kompozycjach czy zleceniach dla np designerów czy concept artystów)
  18. w odpowiedzi na DALLE3 pojawiła się 6 wersja MidJourney, wyscig trwa
  19. a dlaczego miałaby ci nie pomóc? pytam o kontekst wypowiedzi
  20. nie jestem pewien ale wydaje mi się ze dataset musi być duży (czyli tych twoich obrazków "do nauki" musi byc duzo) w internecie jest duzo poradników jak to zrobić, wpiusujesz po prostu kluczowe słowa w google: how to train own stable diffusion models pierwszy z brzegu od jakiegos pajeeta: inny poradnik: mozesz też zlecić wytrenowanie modelu komuś kto sie na tym bardziej zna odpłatnie np tutaj
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności