Skocz do zawartości

OldMan

Members
  • Liczba zawartości

    407
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    7

Zawartość dodana przez OldMan

  1. OldMan

    AI tests

    Teraz juz bardziej na poważnie, to sam czytając rózne dyskusje w necie i twój komentarz mam podobne przemyślenia, mysle tez ze Programisci od MJ, SD i innych magicznych programów, sami do konca nie wiedzą co z tym fantem robic w przypadku fotografii tez ktos moze powiedziec (idąc tym samym torem rozumowania) ze przeciez to nie człowiek jest autorem zdjecia tylko aparat , człowiek tylko nacisnął spust, oczywiscie fotografia to szeroka dziedzina i czasami mówimy o sytuacji gdy zdjecie jest spontaniczne a czasami gdy kosztuje mase pracy ze strony twórcy, ale w tym przypadku stwierdzono ze niezaleznie od sytuacji ten kto naciska spust jest autorem zdjecia i basta. Myslalem tez o pewnej sytuacji, jesli ktos ogląda galerie AI z promptami i widzi cos co mu sie podoba a potem kopiuje te prompty i robi nową nieco inną ilustracje to co wtedy? jak to wogole traktować. Im wiecej o tym mysle tym głowa mi bardziej puchnie i nie wiem naprawde jakie rozwiązanie powinno byc przyjęte prawnie zeby było sprawiedliwe. Odnosze tez wrazenie ze te rozne umowy od AI są tak napisane zeby je mozna było roznie interpretowac w zaleznosci od tego jak rozwinie sie sytuacja na swiecie, te umowy są w stylu "niby tak ale nie do końca" . Troche jakby autorzy oprogramowania bali sie podejmowac jakies konkretne stanowisko w tej sprawie
  2. OldMan

    AI tests

    Odnosnie komercyjnego wykorzystania bo np na stronie MIDJOURNEY pisze tak: Warunki handlowe Zasadniczo jesteś właścicielem wszystkich Zasobów, które tworzysz za pomocą usług generowania obrazów i czatu w Midjourney. Nie dotyczy to sytuacji, gdy podlegasz poniższym wyjątkom. Zobacz Warunki korzystania z usługi, aby uzyskać szczegółowe informacje. 1 . Wyjątek 1: Postanowienia licencyjne dla członków nieopłacanych Jeśli nie jesteś Płatnym Członkiem, Midjourney udziela Ci licencji na Zasoby w ramach międzynarodowej licencji Creative Commons Noncommercial 4.0 Attribution International („Licencja na Zasoby”). Pełny tekst jest dostępny od daty wejścia w życie tutaj: https://creativecommons.org/licenses/by-nc/4.0/legalcode . 2 . Wyjątek 2: Postanowienia licencyjne użytkownika korporacyjnego Jeśli jesteś pracownikiem lub właścicielem firmy o przychodach brutto przekraczających 1 000 000 USD rocznie i korzystasz z Usług na rzecz swojego Pracodawcy lub firmy, musisz wykupić korporacyjny plan członkostwa, aby korzystać z Usług lub kopiować Aktywa dla swojego firma. Korporacyjne plany członkostwa obejmują wpłatę z góry, bezzwrotnej kaucji za okres do 12 miesięcy świadczenia usługi. Uwaga: te warunki nie są ostateczne i będziemy je zmieniać w miarę postępu wersji beta. Uwaga: Midjourney to otwarta społeczność, która pozwala innym wykorzystywać i remiksować Twoje obrazy i podpowiedzi, gdy tylko zostaną one opublikowane w miejscu publicznym. Domyślnie Twoje obrazy są publicznie widoczne i można je remiksować. Jak opisano powyżej, udzielasz Midjourney licencji zezwalającej na to. Jeśli kupisz plan prywatny, możesz ominąć niektóre z tych domyślnych ustawień udostępniania publicznego.
  3. OldMan

    AI tests

    myślę że póki AI nie bedzie umiało zrobić dokładnie takiego obrazka jak sobie zażyczy "artysta-prompter" 😉 lub "klient" to tylko pewne gałęzie szeroko rozumianej grafiki zostaną zmienione przez AI, ale kiedyś w przyszłosci dalszej lub bliższej dojdzie do tego ze komputer bedzie w stanie na podstawie wrowadzonych danych zrobic obrazek w 90% taki jak chce "twórca" Na chwile obecną już widzę ogromne usprawnienie i ogromną oszczędnosc czasu w tworzeniu (w pewnych gałęziach grafiki) przykładowo ktoś chce zrobić np etykietę/ulotkę retro do piwa, oddzielnie za pomocą AI generuje sobie kufelek, oddzielnie jakiś widoczek wiejski w odpowiednim stylu, oddzielnie piersiastą kobite z tacką piwa, oddzielnie jakieś liscie , do tego składa sobie to wszystko w zgrabnej kompozycji a na koniec wszystko przejeżdza filtrami chocby takimi jak ten https://www.misterretro.com/filters/permanent-press myk myk i w jeden wieczór ma projekt a jak mu klient powie "Paaanie no ładne ale ja bym zmienił te kobite na brunetke" to grafik sie nie wkurza ze znowu musi cały dzień siedzieć i malować tylko naciska magiczny button i myk jest po 10 sekundach brunetka zamiast blondynki a jak mu powie ze widoczek w tle chce inny , to cyk i jest inny, i cyk kolejny i kolejny i tak mozna w kółko Kwestie praw autorskich na razie zostawie bo tutaj jest wiele zmiennych i co chwila jakaś firma wyskakuje z nowym pomysłem , troche czasu minie zanim to sie jakos wyklaruje
  4. OldMan

    AI tests

    i znowu sie zaczyna, ludzkie EGO trzyma sie rękami i nogami zeby bronić elitaryzmu zdolnosci grafika 😁 najlepsze jest to że ty sam i ja i inni graficy sami nie potrafimy dokładnie wytłumaczyc jak działa proces inspirowania sie czy tez jak kto woli tworzenia (bo podczas kazdego procesu tworzenia czy tego chcemy czy nie zawsze zachodzi proces inspiracji czyms co sie w zyciu widziało) , wiemy więc ze zachodzi w naszej głowie ale jak działa głowa to juz nie wiemy 😂 bo neurologia jest jeszcze prymitywna W odróznieniu od ludzi proces tworzenia czy tez proces inspiracji w przypadku AI jest dokladnie znany (z czasem na pewno bedzie ewoluował ) znalazłem w necie artykuł wiec wklejam po polskiemu 😋 wprowadzenie do działania stabilnej dyfuzji Stabilna dyfuzja jest wszechstronna, ponieważ można jej używać na wiele różnych sposobów. Skupmy się najpierw na generowaniu obrazu z samego tekstu (text2img). Powyższy obraz pokazuje przykładowe wprowadzanie tekstu i wynikowy wygenerowany obraz (rzeczywisty kompletny monit znajduje się tutaj). Oprócz tekstu na obraz, innym głównym sposobem korzystania z niego jest zmiana obrazów (więc dane wejściowe to tekst + obraz). Zacznijmy zaglądać pod maskę, ponieważ pomaga to wyjaśnić komponenty, sposób ich interakcji oraz znaczenie opcji/parametrów generowania obrazu. Składniki stabilnej dyfuzji Stable Diffusion to system składający się z kilku komponentów i modeli. To nie jest jeden monolityczny model. Kiedy zajrzymy pod maskę, pierwszą obserwacją, jaką możemy zrobić, jest to, że istnieje komponent rozumienia tekstu, który tłumaczy informacje tekstowe na reprezentację numeryczną, która przechwytuje idee w tekście. Zaczynamy od widoku wysokiego poziomu, a w dalszej części tego artykułu omówimy więcej szczegółów dotyczących uczenia maszynowego. Można jednak powiedzieć, że ten koder tekstu jest specjalnym modelem języka Transformer (technicznie: koderem tekstu modelu CLIP). Pobiera tekst wejściowy i wyświetla listę liczb reprezentujących każde słowo/token w tekście (wektor na token). Informacje te są następnie przekazywane do generatora obrazu, który sam składa się z kilku komponentów. Generator obrazu przechodzi przez dwa etapy: 1- Twórca informacji o obrazie Ten składnik jest sekretnym sosem Stable Difusion. To tam osiągnięto znaczny wzrost wydajności w porównaniu z poprzednimi modelami. Ten komponent wykonuje wiele kroków w celu wygenerowania informacji o obrazie. Jest to parametr steps w interfejsach i bibliotekach Stable Diffusion, który często ma domyślną wartość 50 lub 100. Twórca informacji o obrazie działa całkowicie w przestrzeni informacyjnej obrazu (lub przestrzeni utajonej ). Porozmawiamy więcej o tym, co to oznacza w dalszej części posta. Ta właściwość sprawia, że jest szybszy niż poprzednie modele dyfuzji, które działały w przestrzeni pikseli. Pod względem technicznym komponent ten składa się z sieci neuronowej UNet i algorytmu planowania. Słowo „dyfuzja” opisuje, co dzieje się w tym komponencie. To właśnie przetwarzanie informacji krok po kroku prowadzi do ostatecznego wygenerowania wysokiej jakości obrazu (przez kolejny komponent, dekoder obrazu). 2- Dekoder obrazu Dekoder obrazu maluje obraz na podstawie informacji, które otrzymał od twórcy informacji. Uruchamia się tylko raz na końcu procesu w celu wytworzenia końcowego obrazu w pikselach. Dzięki temu możemy zobaczyć trzy główne komponenty (każdy z własną siecią neuronową), które składają się na stabilną dyfuzję: ClipText do kodowania tekstu. Wprowadź tekst. Dane wyjściowe: 77 wektorów osadzania tokenów, każdy w 768 wymiarach. UNet + Scheduler do stopniowego przetwarzania/rozpowszechniania informacji w (utajonej) przestrzeni informacyjnej. Dane wejściowe: osadzanie tekstu i początkowa wielowymiarowa tablica (ustrukturyzowane listy liczb, zwane także tensorami ) złożona z szumu. Dane wyjściowe: przetworzona tablica informacji Autoencoder Dekoder , który maluje końcowy obraz przy użyciu przetworzonej tablicy informacyjnej. Dane wejściowe: przetworzona tablica informacyjna (wymiary: (4,64,64)) Dane wyjściowe: wynikowy obraz (wymiary: (3, 512, 512), które są następujące (czerwony/zielony/niebieski, szerokość, wysokość)) Czym w ogóle jest dyfuzja? Dyfuzja to proces, który zachodzi wewnątrz różowego komponentu „twórcy informacji o obrazie”. Mając osadzanie tokenów reprezentujące tekst wejściowy i losową tablicę informacji o obrazie początkowym (nazywane są również latentami ), proces tworzy tablicę informacji, której dekoder obrazu używa do malowania końcowego obrazu. Proces ten przebiega krok po kroku. Każdy krok dodaje więcej istotnych informacji. Aby uzyskać intuicję tego procesu, możemy sprawdzić tablicę losowych latentów i zobaczyć, czy przekłada się ona na szum wizualny. Kontrola wizualna w tym przypadku polega na przepuszczaniu go przez dekoder obrazu. Dyfuzja odbywa się w wielu krokach, każdy krok działa na wejściowej tablicy utajonych i tworzy kolejną tablicę utajonych, która lepiej przypomina tekst wejściowy i wszystkie informacje wizualne, które model zebrał ze wszystkich obrazów, na których model był szkolony. Możemy zwizualizować zestaw tych ukrytych elementów, aby zobaczyć, jakie informacje są dodawane na każdym etapie. Proces ten zapiera dech w piersiach. 😉 https://jalammar.github.io/images/stable-diffusion/diffusion-steps-all-loop.webm W tym przypadku między krokami 2 i 4 dzieje się coś szczególnie fascynującego. To tak, jakby zarys wyłaniał się z szumu. https://jalammar.github.io/images/stable-diffusion/stable-diffusion-steps-2-4.webm Jak działa dyfuzja Główna idea generowania obrazów za pomocą modeli dyfuzyjnych opiera się na fakcie, że dysponujemy potężnymi komputerowymi modelami wizyjnymi. Biorąc pod uwagę wystarczająco duży zbiór danych, modele te mogą uczyć się złożonych operacji. Modele dyfuzji podchodzą do generowania obrazu, przedstawiając problem w następujący sposób: Powiedzmy, że mamy obraz, generujemy trochę szumu i dodajemy go do obrazu. Można to teraz uznać za przykład szkoleniowy. Możemy użyć tej samej formuły do stworzenia wielu przykładów szkoleniowych, aby wyszkolić główny składnik naszego modelu generowania obrazu. Chociaż ten przykład pokazuje kilka wartości szumu od obrazu (ilość 0, brak szumu) do całkowitego szumu (ilość 4, całkowity szum), możemy łatwo kontrolować, ile szumu dodać do obrazu, a więc możemy rozłożyć to na dziesiątki kroków, tworząc dziesiątki przykładów treningowych dla każdego obrazu dla wszystkich obrazów w zestawie danych szkoleniowych. Dzięki temu zbiorowi danych możemy wytrenować predyktor szumów i otrzymać świetny predyktor szumów, który faktycznie tworzy obrazy po uruchomieniu w określonej konfiguracji. Krok szkoleniowy powinien wyglądać znajomo, jeśli miałeś kontakt z uczeniem maszynowym: Zobaczmy teraz, jak to może generować obrazy. Malowanie obrazów poprzez usuwanie szumu Wyszkolony predyktor szumu może wykonać zaszumiony obraz i numer kroku odszumiania oraz jest w stanie przewidzieć wycinek szumu. Próbkowany szum jest przewidywany tak, że jeśli odejmiemy go od obrazu, otrzymamy obraz, który jest bliższy obrazom, na których model był trenowany (nie same dokładne obrazy, ale rozkład - świat układów pikseli, w którym niebo jest zwykle niebieski i nad ziemią, ludzie mają dwoje oczu, koty patrzą w określony sposób – spiczaste uszy i wyraźnie niewzruszony). Jeśli uczący zestaw danych składał się z estetycznych obrazów (np. LAION Aesthetics , na którym trenowano stabilną dyfuzję), wynikowy obraz byłby raczej estetyczny. Jeśli wytrenujemy go na obrazach logo, otrzymamy model generujący logo. Na tym kończy się opis generowania obrazu przez modele dyfuzyjne, głównie zgodnie z opisem w Denoising Diffusion Probabilistic Models . Teraz, gdy masz tę intuicję w zakresie rozpowszechniania, znasz główne składniki nie tylko Stable Diffusion, ale także Dall-E 2 i Google Imagen. Zauważ, że proces dyfuzji, który opisaliśmy do tej pory, generuje obrazy bez użycia danych tekstowych. Więc jeśli wdrożymy ten model, wygeneruje on świetnie wyglądające obrazy, ale nie będziemy mieli możliwości kontrolowania, czy jest to obraz piramidy, kota czy czegokolwiek innego. W następnych sekcjach opiszemy, w jaki sposób tekst jest włączany do procesu, aby kontrolować, jaki typ obrazu generuje model. reszta tutaj
  5. OldMan

    AI tests

    skoro ludzie non stop robia 'inspiracje' i sprzedają je nawet z gwarancją ze to oni zrobili i to ich dzieło to i z AI tez tak z czasem będzie, spokojna głowa
  6. OldMan

    AI tests

    oczywiscie ze tak, ludzie w najwiekszym stopniu kopiują nawzajem od siebie rozne rzeczy (czasami nawet nieswiadomie) i miksują obejrzane w zyciu wzorce w swojej głowie kompilując nowe obrazy
  7. OldMan

    AI tests

    jednak AI działa nieco inaczej , tam nie ma gotowych ilustracji czy postaci z których składasz kompozycje , AI moze ci namalować np choinkę swiateczną w stylu malarza który nigdy nie malował choinek swiatecznych , to nie jest plagiat tylko inspiracja , to spora róznica
  8. OldMan

    AI tests

    każdy wie o co chodzi bo wątek nazywa się AI-TEST a ty sie czepiasz słówek , stwierdzam tylko fakt 😆
  9. OldMan

    AI tests

    dziękuję w imieniu programistów 😂 i artystów którzy bez swojej wiedzy udostepniali swoje prace do obliczeń 😆 patrząc po promptach to nie jest SD tylko MJ
  10. OldMan

    AI tests

    jak wchodze do galerii sztuki to też widze w większosci ciągle to samo, jak wchodze na artstation tak samo, jak wchodze na behance tak samo, o ludziach mozna powiedzieć dokladnie to samo (w koncu to AI uczyło sie na ludzkich pracach )..ale nie o tym jest ten wątek więc kończe juz te wypowiedź
  11. OldMan

    AI tests

    nie udawaj głupiego 😉, to wątek od AI wiec kazdy wie o co chodzi, "zrobiłem" w sensie wygenerowałem patrząc na niektóre prace nie ogarniam o co chodzi z tymi dłońmi, AI potrafi wygenerować usta, oczy, swietne włosy, liscie, samochody , domy, futrzane zwierzęta, cycki, penisy, swietne chmury, trawe, itp itd ...ale nie dłonie WTF
  12. OldMan

    AI tests

    podejrzewam ze tak to wlasnie bedzie wyglądało teraz, w przypadku klientów którzy nie mają precyzyjnych wymagań odnosnie tego jak coś ma wyglądać
  13. OldMan

    AI tests

    goscie od MIDJOURNEY musieli trenowac model obliczeniowy na bardzo precyzyjnie wybranych pracach, podejrzewam tez ze podczas obliczeń serwer nie korzysta z jednego modelu tylko sie przełacza w zaleznosci od wpisanych poleceń , najnowszy tryb V4 to jest absolutny game changer i mocno wpłynie na rynek bardzo mocno, nie wiem tylko jeszcze w jaki sposób , ponizej pare losowych prac
  14. OldMan

    AI tests

    heheh nieee, o ile pamietam to były takie: samuraj T shirt design, samurai portrait, band tshirt, vector art, lwy cute happy lion vector drawing in the forest, cartoon style, vector illustration, flat,2d, soft color tone, outline,by teeturtle kotki tak jak lwy ale zamieniamy słowo na kotki , proste prawda głowy ze słuchawkami DJ head vector drawing, music background, cartoon style, synthwave, vector illustration, flat,2d bo w trakcie zmieniłem załączniki i lekko wyedytowałem posta
  15. OldMan

    AI tests

    MIDJOURNEY w trybie V4 to jest ABSOLUTNY GAME CHANGER dla ludzi którzy nie umieją nic, poniżej rzeczy jakie ostatnio zrobiłem for fun ot tak wpisując pare prostych zdań , czasami to były dosłownie 4 słowa czyli co ma byc na obrazki i styl
  16. OldMan

    AI tests

    Redshift Diffusion - model od autora: Jest to precyzyjnie dostrojony model Stable Diffusion wytrenowany na dziełach sztuki 3D o wysokiej rozdzielczości. Użyj tokenu "redshift style" w swoich podpowiedziach, aby uzyskać efekt. Używałem Cinema4D przez bardzo długi czas jako mojego oprogramowania do modelowania i zawsze lubiłem render redshift, z którym przyszedł. Dlatego byłem bardzo smutny, widząc złą bazę wyników SD związaną z jego tokenem. To jest moja próba naprawienia tego i pokazania mojej pasji do tego silnika renderującego. download dyskusja Prompt and settings for Tony Stark: (redshift style) robert downey jr as ironman Negative prompt: glasses helmet Steps: 40 Sampler: DPM2 Karras CFG scale: 7 Seed: 908018284 Size: 512x704 Prompt and settings for the Ford Mustang: redshift style Ford Mustang Steps: 20 Sampler: DPM2 Karras CFG scale: 7 Seed: 579593863 Size: 704x512
  17. OldMan

    AI tests

    Comic Diffusion V2 - nowy model jak pisze autor: To zwieńczenie wszystkiego, nad czym pracowaliśmy do tej pory. Trenuj na 6 stylach jednocześnie, mieszaj i dopasowuj dowolną ich liczbę, aby stworzyć wiele różnych unikalnych i spójnych stylów. Tokeny dla V2 to - charliebo artstyle - holliemengert artstyle - marioalberti artstyle - pepelarraz artstyle - andreasrocha artstyle - jamesdaly artstyle dyskusja tutaj (warto przeczytac przed używaniem) download
  18. OldMan

    AI tests

    inny przykład działania modelu Anything V3.0 Prompt: a stealthy (camouflaged:0.8) catgirl (wearing animal hide tribal clothes:1.1) ready to pounce, amazon, mossy jungle trees, vines, (dirty face:1.1), ferns, lush overgrown vegetation, (night:1.4), (volumetric lighting:1.2), (darkness:1.3), dense jungle in the distance, intricate detail, UHD image, serious expression, photorealistic, 1girl, __haircolor__ chic hair Negative prompt: lowres, low res, text, error, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, text, username, blurry, artist name, robot eyes, out of focus, censored, out of frame, ((black and white)), loli, bikini, blush, portrait, nipple, pussy, fancy, dress, jacket, sexy Steps: 30 Sampler: DPM++ 2M Karras and DM++2S a Karras CFG scale: 7 Model hash: 6569e224 Model: Anything-V3.0 dyskusja
  19. OldMan

    AI tests

    Nowy świetny model dla fanów Anime - Anything-V3.0 dyskusja download inne przykłady i prompty
  20. OldMan

    AI tests

    model Clazy download dyskusja autor pisze To jest Clazy! nowy model, który wytrenowałem używając repo Shivama z Dreambooth. Użyj "clazy style" (bez cudzysłowu) w podpowiedzi, aby model zaczął działać. W tej chwili wymaga jeszcze dopracowania, wydaje się mieć problemy z ustami. Umieść "open mouth" w negatywnym podpowiedzi, aby złagodzić ten efekt. Powinien działać również ze zwierzętami, ale ponieważ był trenowany na ludziach, musisz dodać nawiasy. Na przykład tak: [clazy style:10] gdzie 10 to próbka, którą chcesz, aby model kopał, pierwsze 10 próbek będzie dedykowane do generowania niektórych szumów rzeczywistego zwierzęcia. Możesz również użyć tego do wygenerowania lepszego podobieństwa na niektórych obiektach, jeśli nie jesteś zadowolony z wyników. Użyj skali CFG między 3 a 7, aby uzyskać gładszy model, zwiększ odpowiednio liczbę kroków (między 20 a 50 powinno wystarczyć). Daj znać w komentarzach, co wyjdzie z modelu ***WAŻNE***. jeśli chcesz pomóc w dopracowaniu modelu możesz: wygenerować garść obrazów za pomocą tej opcji Euler a 40 kroków cfg scale 5 512x512 wybierz 30 najlepszych (10 headshotów, 10 full body, 10 pomiędzy) obraz musi być spójny pod względem stylu wrzuć je tam, gdzie będę mógł je łatwo pobrać bądź cierpliwy, zrobię to tak szybko jak to możliwe (koniec cytatu)
  21. OldMan

    AI tests

    Nowy Model: Complex Lineart (Celshaded) Przeszkolony na około 100 obrazach w rozdzielczości 768x768. Pobierz „ComplexLA Style.ckpt” i dodaj go do folderu swojego modelu. Użyj monitu: ComplexLA style Użyj rozdzielczości zbliżonej do 768x768, niższa rozdzielczość działa, ale jakość nie będzie tak dobra. download dyskusja
  22. ja mysle ze to bedzie różnie ewoluować w roznych gałęziach szeroko rozumianego przemysłu w róznym tempie, z muzyką podejrzewam ze pójdzie dosyc wolno ale inne rzeczy moze pojdą szybciej albo bardzo szybko , nigdy nie wiadomo
  23. OldMan

    AI tests

    Temat wałkowany w tym wątku
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności