Skocz do zawartości

OldMan

Members
  • Liczba zawartości

    407
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    7

Zawartość dodana przez OldMan

  1. dorzucam opis: https://exai.pl/openai-prezentuje-sora-ai-do-tworzenia-wideo-z-tekstu-zaskakuje-mozliwosciami/ jeszcze długo nie, na razie usługa jest w fazie zamkniętego rozwoju, a nawet jak ją udostępnią to pewnie bedą powazne ograniczenia i kontrola
  2. OldMan

    AI tests

    https://www.reddit.com/r/StableDiffusion/comments/197nmg3/cats_for_mermaids_by_thundermonique_using/
  3. kolejne narzędzie które zrobi czystkę w szeregach Fiverrowych grafików i nie tylko https://aigcdesigngroup.github.io/replace-anything/ demo https://huggingface.co/spaces/modelscope/ReplaceAnything Sprawdziłem na szybko, działa
  4. juz wyjasniam, w swoim komentarzu odniosłem się do zdania twojego cytuję: i jest to słuszna uwaga ale chciałem to rozwinąć, to co napisałeś wyzej jest bardzo charakterystyczne dla "renderów" jakie robi obecna wersja DALL-E 3, natomiast w najnowszych modelach SD oraz MJ jesli sie chce to mozna uzyskać mniej "idealny" wygląd postaci (przykłady wyzej) , tyle że społecznosc internetowa chyba po prostu lubi takie wyidealizowane postacie (zwłaszcza kobiece) bo stanowią czesto większosc generowanego szitu .
  5. to co ludzie lubią oglądać i co lubią generować a to co można zrobić to dwie różne rzeczy, wszystko zalezy od tego kto robi, czym robi i co chce osiągnąć
  6. to nie do konca jest wina AI tylko tego ze uzyte modele nie były szkolone w Amigach, lub mówiąc bardziej dokładnie ilosc zdjęć z Amigą była bardzo mała w puli zdjęć jakie brały udział w szkoleniu modelu. To jeden z powodów dla których np ludzkie postacie , twarze itp wychodzą lepiej bo są na wiekszosci zdjęć szkoleniowych a rzeczy techniczne wychodzą gorzej . Drugi powód jest taki ze generalnie rzeczy organiczne (np twarz, kwiat, itp) wychodzi lepiej w tej technologii a rzeczy ktore są techniczne, dokładne geometrycznie, mające techniczne detale ...z tym ai sobie nie radzi ale mówiąc bardziej dosadnie (nie radzi sobie po trochu wszędzie ale w przypadku organicznych rzeczy nie rzuca się to tak w oczy)
  7. czy graficy tego chcą czy nie ai jest w stanie generować obrazy szybko i bardzo realistycznie, a tego chce rynek , oczywiscie w dalszym ciągu jest cała masa ograniczeń ale juz teraz wiele osób ktore musialyby skorzystac kiedys z ludzkiego grafika dzisiaj nie muszą bo wiele prostych i srednio złozonych ilustracji lub ogólnych zdjęć są w stanie wygenerować na dalle3 lub midjourney (oczywiscie mówie tutaj o prostych zadaniach a nie złozonych kompozycjach czy zleceniach dla np designerów czy concept artystów)
  8. w odpowiedzi na DALLE3 pojawiła się 6 wersja MidJourney, wyscig trwa
  9. a dlaczego miałaby ci nie pomóc? pytam o kontekst wypowiedzi
  10. nie jestem pewien ale wydaje mi się ze dataset musi być duży (czyli tych twoich obrazków "do nauki" musi byc duzo) w internecie jest duzo poradników jak to zrobić, wpiusujesz po prostu kluczowe słowa w google: how to train own stable diffusion models pierwszy z brzegu od jakiegos pajeeta: inny poradnik: mozesz też zlecić wytrenowanie modelu komuś kto sie na tym bardziej zna odpłatnie np tutaj
  11. Google pokazało swoje nowe AI: Gemini Google podniosło rozwój AI na nowy poziom. Gemini rozpoznaje obraz z kamery i jednocześnie przeprowadza interakcję słowną z użytkownikiem.
  12. W sumie to troche tak jakby powiedzieć ze ludzie w końcu znudzą sie porno, albo że znudzą się głupkowatymi i naiwnymi filmami akcji czy shortami z Tiktoka (wiekszosc ludzi na swiecie preferuje własnie takie tresci i to one generują największy ruch, a galerie sztuki czy ambitne przedstawienia teatralne lub filmy są w centrum zainteresowania znacznej mniejszosci ) Myślę ze powodów tego stanu jest kilka, do najważniejszych należą: - powód biologiczny (tego typu tresci są chętnie konsumowane przez mózg, bo daje szybkie strzały dopaminy/adrenaliny i nie wymaga wysiłku) - powód braku odpowiedniej edukacji
  13. testowalem ostatnio DALL-E 3 i powiem ze rozumie całkiem sporo, MJ daje bardziej artystyczne efekty ale DALL-E rozumie wiecej , testowalem na przykładzie konkretnych potencjalnych zleceń i jesli w gre nie wchodzi duzy format to wiele zleceń mozna ogarnąc małpa z bananem + takie AI zamiast grafika z prawdziwego zdarzenia. Jednym osobom sie to spodoba innym nie. Oczywiscie w przypadku bardziej ambitnych zleceń lub bardziej złozonych AI nie poradzi sobie. ale jest w stanie wykosić wielu początkujących ilustratorów w prostych zleceniach.
  14. Kiedys w jednym z wątków dyskutowalismy na temat tego ile AI rozumie przy generowaniu obrazków, wszyscy pamietamy jakie były efekty testów (w przypadku prostych scen z jedną centralnie umieszczoną postacią coś tam wychodziło, ale bardziej złożone kompozycje to czesto była porażka, AI nie rozumiało tego co jest napisane) Poniższe przykłady wskazują na to ze dokonał sie pewien krok w tej dziedzinie: DALL-E było jednym z pierwszych systemów generowania grafiki przy pomocy sztucznej inteligencji. Obecnie takich rozwiązań jest nieco więcej, ale bez wątpienia to właśnie produkt OpenAI jest jednym z najszybciej rozwijanych narzędzi. Trzecia wersja DALL-E zostanie udostępniona już w październiku, a wedle zapowiedzi jej twórców, skupi się przede wszystkim na lepszym odwzorowaniu oczekiwań użytkowników. Obecne systemu często pomijają pojedyncze słowa w zapytaniach o tworzenie konkretnej grafiki, które mogą mieć spore znaczenie dla efektu końcowego. DALL-E 3 ma sobie z tym radzić znacznie lepiej, dokładnie, słowo po słowie, odwzorowując w obrazie oczekiwania człowieka wynikające z zadanego polecenia. To jednak nie jedyna zmiana, od teraz DALL-E 3 będzie też bezpośrednio współpracować z usługą ChatGPT, oznacza to możliwość generowania grafik w trakcie swojej "dyskusji" z generatywną sztuczną inteligencją. W ten sposób tworzenie konkretnych projektów czy planowanie kampanii można przeprowadzić znacznie szybciej, nie opuszczając okna przeglądarki. Przykłady zastosowania DALL-E 3 znajdziecie na dedykowanej stronie OpenAI, wraz z krótkim filmem pokazowym. Zła wiadomość jest taka, że DALL-E 3 będzie dostępny od października tylko w płatnej wersji ChatGPT Plus oraz Enterprise. Nie wiadomo kiedy model ten zostanie udostępniony szerszej publiczności. Twórcy DALL-E 3 zwracają również uwagę, że w tej wersji wprowadzono dodatkowe zabezpieczenia, które zablokują między innymi tworzenie brutalnych czy nienawistnych grafik, a także grafik dla dorosłych. Nie będzie można również poprosić modelu aby przygotował grafikę bazującą na obrazach/zdjęciach konkretnego artysty czy wręcz wykorzystał wizerunek jakiejś konkretnej osoby. Każdy artysta może też zgłosić przy pomocy odpowiedniego formularza, że nie chce aby jego grafiki były wykorzystywane do trenowania sztucznej inteligencji. OpenAI pracuje również nad narzędziami, które pozwolą w przyszłości wykryć, czy dana grafika jest dziełem człowieka czy sztucznej inteligencji, ale na takie rozwiązania musimy jeszcze poczekać. filmik, porównanie DALL-E 3 z MIDJOURNEY na tych samych poleceniach pare przykładów działania DALL-E 3 wraz z poleceniami:
  15. zastanawiałem się gdzie to wrzucić bo to taka troche refleksja/poradnik/humor wpis jednego goscia jako ciekawostkę (wpadłem dzisiaj na to na Reddicie): tłumaczone transtalorem (link do oryginału na dole) ---------------------------------------------------------------- 1 rok sprzedaży "dzieł sztuki" AI. Zacząłem sprzedawać grafiki AI na początku listopada, zaraz po tym, jak wyciek NovelAI nabierał tempa. Dałem kilka zdjęć znajomemu na Discordzie i wspomniał o sprzedaży. Sprzedaję głównie prywatne prowizje za treści anime, około 40% to treści NSFW. Około 50% moich zarobków przeszło przez Fiverr, a pozostałe 50% zostało podzielone pomiędzy Reddit i Discord, pyta Twitter. Sprzedawałem także prywatne lekcje w ramach programu za ~30 USD za godzinę, po pokazaniu klientom bezpłatnych zasobów online. Lekcje są zazwyczaj bardzo niszowe i nie znajdziesz 2-godzinnego poradnika na temat najlepszego sposobu robienia zdjęć stóp. Moje zarobki na Fiverr od listopada wynoszą 5302 USD. ~2000 dolarów z Twittera od marca. ~2000-3000 dolarów od Discorda od marca. ~ 500 dolarów z Reddita. ~700 $ za prywatne lekcje, firmy konsultingowe AI, wywiad, inwestorzy technologiczni, różne. Łącznie ~400 prywatnych zleceń na przestrzeni lat. Musiałem wydać ~500 dolarów na wykonanie niestandardowych LoRA dla konkretnych klientów. (Pobrałem od klienta więcej, niż zapłaciłem, aby je wykonać, pracując jako pośrednik, ale nie miałem dużych marż.) Średni czas realizacji dla klienta wynosił zwykle 2-3 godziny od chwili rozpoczęcia pracy nad dziełem. Czasem zdarzały mi się takie, które można było zrobić w mniej niż 5 minut, ale było ich niewiele. Przedział cenowy wahał się od 5 do 200 dolarów w zależności od żądania, ale średnia wynosiła ~ 30 dolarów. Po stronie klienta. 90% klientów jest idealnie miłych i świetnie się z nimi współpracuje, pozostałe 10% zajmie 90% Twojego czasu. Akapity zawierają szczegółowe informacje na temat wyglądu genitaliów. Creepsy próbują robić głębokie podróbki swoich współpracowników. Ludzie, którzy nie rozumieją sztucznej inteligencji. Inne niezapomniane momenty, dla których nie mam zrzutów ekranu: - Mężczyzna chcący zdobyć zdjęcia swojej żony. Inna para chciała podobne zdjęcia. - Żądania Gore, Loli lub scat. Unironicznie wszystko od furries. - Joe Biden zjadany przez gigantkę. - Tylko dziewczyny-fanki, które chcą się głęboko udawać, aby szybciej pompować treści. (Co zaskakujące, więcej niż kilka.) - Szokująca liczba kobiet (i mężczyzn), które doskonale czują się w wysyłaniu swoich nagich zdjęć. - Obca dziewczyna OC ściskająca dłoń RFK Jr. przed białym domem. ========================================== Teraz nie wszystko jest sprośne i złe. - Głębokie udawanie babci na zdjęciach ślubnych, ponieważ zmarła, zanim to się mogło stać. - Pokazanie, jak mogą wyglądać w przyszłości mężczyźni/kobiety w okresie przejściowym. - Tworzenie książeczek z opowieściami dla dzieci lub zaproszeń ślubnych. - Pracowałem nad okładkami albumów, grami wideo, miniaturami YouTube z milionami wyświetleń, okładkami LoFi, podcastami, logo firm, tatuażami, naklejkami, koszulkami, czapkami, kubkami do kawy, scenorysami, grafikami koncepcyjnymi i wieloma innymi rzeczami W. - Tak wielu Vtuberów ze sztuki, projektowania i koncepcji. - Rozmawiałem z firmami technologicznymi, start-upami, inwestorami i wieloma osobistościami, które chciały zobaczyć tę przestrzeń już na wczesnym etapie. - Nawet robiąc na zamówienie rzeczy, które mnie nie interesują, wiele się nauczyłem za każdym razem, gdy byłem zmuszony zrobić coś, co wydawało mi się niemożliwe. Zwłaszcza we wcześniejszych czasach, kiedy sztuczna inteligencja była bardzo ograniczona. ======================================== Czy polecam ludziom, aby już teraz weszli w tę przestrzeń, jeśli chcą zarobić pieniądze? NIE. Jest zbyt przesycony i już jest napisane, że będzie to coraz bardziej dostępne dla głównego nurtu i nieuniknione jest, że nie będzie to trwało wiecznie. Nie spodziewam się, że zarobię dużo więcej, biorąc pod uwagę obecny stan rozwoju sztucznej inteligencji. Dalle-3 jest po prostu zbyt dobry, aby być dostępnym publicznie, pomimo swoich ograniczeń. Codziennie pojawiają się nowe witryny AI, w których można zrobić to samodzielnie. Wyścig szczurów pomiędzy Google, Microsoft, Meta, Midjourney, StblilityAI, Adobe, StableDiffusion i wieloma innymi firmami sprawia, że nieuniknione jest, że może to utrzymać się jako forma dochodu. Ale jeśli chcesz, rób to najpierw jako hobby, tak jak ja. Nawet teraz wykonuję dla siebie 4-5 projektów pomiędzy każdym klientem, nawet jeśli mam ich w kolejce 10. Kocham to medium i nawet jeśli nie zarobię na tym ani grosza, nadal będę coś robić. Obecnie wyłączyłem sklepy, żeby dać sobie małą przerwę. Być może wrócę do tego lub nie, ale chciałem tylko podzielić się moją podróżą. źródło:
  16. w nawiązaniu do tego co napisałeś polecam obejrzeć całą te dyskusje (nie sugerować sie tytułem dyskusja jest nie tylko w temacie Cyberpunka 2077 ale branzy ogólnie)
  17. Podobno np w branzy filmowej tak jest że robi sie setki wersji plakatów filmowych które i tak nie wyrózniają sie niczym szczególnym bo oparte są o oklepane motywy ale tak ma byc i *uj (góra karze, grafik/robotnik musi). Więc siedzi sobie gosc i trzebie te plakaty wyglądające w sumie jak z generatora AI by potem paru gosci wybrało z nich jeden lub dwa do wydrukowania.
  18. To akurat nie swiadczy o słabosci technologii tylko osoby która przygotowywała dane treningowe do szkolenia modelu. Porównaj sobie te twarze https://civitai.com/user/Supremo/models z tymi https://civitai.com/user/malcolmrey/models ta sama technologia rózne efekty zalezne w duzym stopniu od osoby która przygotowywała dane treningowe i robiła szkolenie. Zeby nie wyszło ze ja tutaj wychwalam tylko, technologia ma mnóstwo ograniczeń i jest jeszcze bardzo prymitywna, np lepiej sobie radzi z rzeczami organicznymi a o wiele gorzej z technicznymi regularnymi złożonymi (regularne budynki np wieżowce, broń czy inne narzędzia)
  19. testowałem ostatnio nowe Midjourney 5.2 i powiem że znacznie poprawiły sie dłonie (jest lepiej niż w Stable Diffusion), kiedyś jeden obrazek w MJ na 10 miał poprawne dłonie teraz 5-7 obrazków na 10 ma dłonie poprawne (oczywiscie to też zalezy od tematyki), nieco częsciej zdarzają sie dodatkowe palce ale dłonie nie są już tak zmasakrowane
  20. OldMan

    AI tests

    link https://civitai.com/models/53858/sxz-texture-bringer-concept po przeczytaniu powyższego tutoriala (wczesniejsze posty z tej strony) informacje zawarte pod powyższym linkiem powinny być względnie zrozumiałe (instrukcja autora poniżej), nalezy pamietac o zainstalowaniu odpowiedniego pliku VAE (link ponizej) inaczej nie bedzie działać prawidłowo, plik VAE wybieramy w launcherze na początku przy odpalaniu naszego SD A1111 How to use: Your prompt should be not too complicated. Shorter = better. Trigger words is wowtexture of. Also i highly recommed to use this structure: wowtexture of YOUR SURFACE, YOUR PROMPT, seamless Nice to know: Generated textures aren't 100% tiled or seamless, so sometimes you need to improve it manually. Tag seamless increases a chance of seamless result, so your prompt SHOULD end with it, if you want as much seamless as it possible. Also, i beg you to DESCRIBE NOT AN OBJECTS BUT SURFACES, cause if you go with object description you will get not a texture at all, so please use it correctly. Strength 0.8 is optimal. Recommended settings: Clip Skip 2 VAE: kl-f8-anime2 Sampler: DPM++ 2M Karras or DPM++ 2M alt Karras ENSD: 31337 Hires.fix: x1.5 and higher Upscaler: 4x UltraSharp, 4x Valar or any like (Denoising strenght 0.5)
  21. OldMan

    AI tests

    teraz parę słów o przycisku COPY GENERATION DATA który widać tutaj w prawym dolnym rogu służy on na tej stronie do szybkiego wklejenia wszystkich ustawień jakie są na danej stronie do waszego Stable Diffusion (w wersji A1111) 1) po prostu klikacie w ten przycisk na stronie 2) przechodzicie do waszego Stable Diffusion i wklejacie cały tekst ze schowka (PPM) w pole "PROMPT" po wklejeniu bedzie wyglądać np tak Następnie naciskacie niebieską ikonkę z ukośną strzałką którą widzicie po prawej (nad napisem "styles") czyli te ikonke pierwszą od lewej po nacisnieciu cały ten tekst zostanie odpowiednio zamieniony na ustawienia oraz na prompty pozytywne i negatywne (jesli oczywiscie instrukcja zawierała prompty negatywne bo nie zawsze tak jest) moze być taka sytuacja ze taki tekst zawiera odwołania do rzeczy których nie macie na komputerze zainstalowanych w waszym SD, w powyższym przykładzie moze to być np: 1) upscaler (w tym przypadku jest to 8x_NMKD-Faces_160000_G - jesli nie chce sie wam go szukac w necie i instalować mozecie upscaler zmienic na inny (wybrać z tych jakie macie zainstalowane) 2) roznego rodzaju LORA, LYCORIS itp do których czesto odwołują sie autorzy (w tym przypadku musicie doinstalowac je jesli chcecie miec taki sam efekt na ekranie) ważną rzeczą na jaką nalezy zwrócić uwage przy takim kopiowaniu ustawień jest użyty na stronie w ustawieniach tekstowych które kopiujecie główny model obliczeniowy (zaznaczyłem go tutaj w tekscie na szaro) dwie zasady: - główny model obliczeniowy bez wględu na to czy go macie czy nie macie musicie ustawić ręcznie (w lewym górnym rogu powyższego obrazka) nie ustawia sie on automatycznie po nacisnięciu niebieskiej strzałki - jesli go nie macie (w powyższym przypadku jest to model "Model: DriveE_MoveFromDriveC_deliberate_v2" oraz nie mozecie go zdobyć to poszukajcie jakiegos podobnego modelu moze da podobne wyniki.
  22. https://www.artisana.ai/articles/chinas-video-game-ai-art-crisis-40x-productivity-spike-70-job-loss?fbclid=IwAR2q2wWaXicckv9rhDayBydgEmnXqjoKTVT1M27jMdI04JuPRCcgNDNxqt4
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności