Skocz do zawartości

OldMan

Members
  • Liczba zawartości

    407
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    7

Zawartość dodana przez OldMan

  1. OldMan

    AI tests

    obecne AI to nadinterpretacja , na razie AI ogranicza sie po prostu w wiekszosci przypadków do obliczeń tyle że w odróznieniu od typowych obliczeń korzysta w trakcie tych obliczeń z wczesniejszych obliczeń zapisanych czesto do pliku (wtedy uzywa sie magicznego słowa "wyuczone" lub czegos w tym stylu, a mózg to biologiczny superkomputer z mnóstwem optymalizacji (np stratna kompresja wspomnień ) , AI nie musi działać na poziomie biologicznym, musi byc po prostu złożone i wydajne
  2. OldMan

    AI tests

    to z czym sie mogę zgodzic w takich debatach to fakt ze obecne AI nie rozumie co robi, po prostu generuje piksele i nie mysli nad tym co generuje (dlatego między innymi są babole typu dłonie itd) i jeszcze wiele czasu upłynie zanim AI zacznie rozumiećto co robi i to co ogląda/analizuje .....ale jesli chodzi o tzw inspirację to to sie zupełnie nie zgadzam, człowiek ma mnóstwo wbudowanych mechanizmów obronnych które dbają o jego poczucie zajebistosci ale prawda jest taka ze w kazdej sekundzie zycia oglądamy świat (i czasami czyjeś prace) i mózg to wszystko przetwarza a potem efekt tych kompilacji uwalniamy w procesie tworzenia (oczywiscie jest to bardziej złożone niz obecne AI ale takze opiera sie na danych wejsciowych bo bez nich nic bysmy nie stworzyli)
  3. OldMan

    AI tests

    to nie wina ai tylko wina tych co przygotowywali dane do uczenia ze wrzucili takie materiały ze znakami wodnymi i innymi napisami, a w necie burza taka jakby to AI samo wybrało te obrazki do uczenia , pozatym idąc dalej tym tropem artysci nie powinni miec wstępu do galerii sztuki (bo sie napatrzą i potem zrobią nieswiadomie cos podobnego co uznają za swoje)
  4. Mateusz Staniszewski i Piotr Dąbkowski zawstydzili Google, Amazona i Microsoft i swoją technologią zamierzają podbić świat. „Stoję przed wami nie jako ekspert, ale jako zaniepokojony obywatel” – mówi Leonardo DiCaprio ze sceny podczas szczytu klimatycznego ONZ. Tak zaczyna się krótkie nagranie, które firma Eleven Labs zamieściła 6 września 2022 roku w serwisie YouTube. Do piątej sekundy nie dzieje się nic zaskakującego. Ale potem hollywoodzki gwiazdor zaczyna przemawiać głosami kolejno Joe Rogana, Steve’a Jobsa, Roberta Downeya Jr., Billa Gatesa i Kim Kardashian. Za każdym razem zachowując płynność wypowiedzi, bezbłędnie oddając emocje, z idealnie odwzorowanym tembrem głosu. Eleven Labs, start-up założony przez Mateusza Staniszewskiego i Piotra Dąbkowskiego w 2022 roki, już zachwycił rynek rozwiązaniem, które pozwala generować syntetyczny głos na podstawie tekstu albo klonować głos na bazie dostarczonej próbki dźwiękowej. Staniszewski i Dąbkowski wierzą, że dzięki tej technologii są w stanie zrewolucjonizować szeroko rozumiany sektor rozrywkowy – od branży audiobookowej po filmową i gamingową. A ich inwestorzy liczą, że młodzi start-upowcy naprawdę mogą tego dokonać – dlatego zainwestowali w ich biznes 2 mln dolarów.
  5. Photor AI https://photor.io/photoscore opis ze strony 🤭 Photor AI to narzędzie, które wykorzystuje zaawansowaną technologię rozpoznawania obrazów i uczenia maszynowego do analizowania i wybierania najlepszych zdjęć do użytku profesjonalnego lub osobistego na platformach takich jak Linkedin, media społecznościowe i aplikacje randkowe. Pomaga zaprezentować najlepszą wersję siebie. LangoTalk https://www.langotalk.org/ Ucz się hiszpańskiego, angielskiego, francuskiego, niemieckiego, holenderskiego lub włoskiego 6x szybciej dzięki czatowi z AI. GenieAI https://genieai-app.vercel.app/ GenieAI to aplikacja internetowa, która wykorzystuje sztuczną inteligencję do generowania tytułów , opisów , tagów i pomysłów na miniatury treści.
  6. OldMan

    AI tests

    Głębia obrazu (Depth-to-image) w Stable Diffusion 2 Wszystko, co musisz wiedzieć Depth-to-image (Depth2img) to niedoceniany model w Stable Diffusion v2. Jest to rozszerzenie funkcji image-to-image (img2img), które wykorzystuje informacje o głębi podczas generowania nowych obrazów. W tym samouczku zajrzymy pod maskę, aby zobaczyć, co to jest, jak go zainstalować i używać oraz co może dla Ciebie zrobić. Co może zrobić głębia obrazu Dzięki funkcji głębi obrazu masz lepszą kontrolę nad osobną syntezą obiektu i tła. Powiedzmy, że chcę zamienić tę romantyczną scenę w La La Land w pojedynek zapaśniczy Później zajmiemy się bardziej szczegółami, ale na razie traktuj głębię do obrazu jako ulepszoną wersję obrazu do obrazu . Można ich używać dokładnie w ten sam sposób — biorąc pod uwagę obraz i monit tekstowy, wygeneruje nowy obraz. Powiedzmy, że używam zachęty "zdjęcie dwóch walczących mężczyzn" zarówno dla obrazu do obrazu, jak i głębi do obrazu. Poniżej przedstawiono wyniki z siłą odszumiania w zakresie od 0,4 do 1,0. (Pamiętaj, że im wyższa siła odszumiania, tym bardziej zmieni się obraz.) Przyjrzyjmy się generacjom obrazu do obrazu (górny rząd). Napotkaliśmy problem: przy niskiej sile odszumiania obraz nie zmieniał się wystarczająco. Przy dużej sile odszumiania widzimy dwóch zapaśników, ale oryginalna kompozycja zostaje utracona. Głębia obrazu rozwiązuje ten problem . Możesz zwiększyć siłę odszumiania aż do 1 (maksimum) bez utraty oryginalnej kompozycji! Skoro już wiesz, co potrafi technologia głębi do obrazu, zobaczmy, jak to działa. Czym jest głębia obrazu? Przypomnij sobie, że w przypadku obrazu do obrazu Stabilna dyfuzja pobiera obraz i monit jako dane wejściowe. Generowanie obrazu jest oparte ZARÓWNO na obrazie, jak i na monicie. Ostateczny obraz przypomina obraz wejściowy w kolorze i kształtach. W przypadku głębi do obrazu Stabilna dyfuzja podobnie pobiera obraz i monit jako dane wejściowe. Model najpierw szacuje mapę głębi obrazu wejściowego za pomocą MIDaS , modelu AI opracowanego w 2019 r. do szacowania postrzegania głębi przez jednooczne (czyli szacowania głębokości z jednego widoku). Mapa głębi jest następnie używana przez Stable Diffusion jako dodatkowe uwarunkowanie generowania obrazu. Innymi słowy, głębokość do obrazu wykorzystuje trzy warunki do wygenerowania nowego obrazu: (1) monit tekstowy, (2) oryginalny obraz i (3) mapa głębi. Model wyposażony w mapę głębi ma pewną wiedzę na temat trójwymiarowej kompozycji sceny. Generacje obrazów obiektów pierwszego planu i tła można rozdzielić. Mapa Głębi Nie musisz dostarczać mapy głębi, aby korzystać z głębi do obrazu. Ta sekcja odtwarza mapę głębokości do celów edukacyjnych. Mapa głębi to prosty obraz w skali szarości o tym samym rozmiarze co oryginalny obraz, kodujący informacje o głębi. Kompletna biel oznacza, że obiekt jest najbliżej Ciebie. Więcej czerni oznacza dalej. Oto przykład obrazu i jego mapy głębi oszacowanej przez MIDaS. Zainstaluj model głębi do obrazu Jak zainstalować Aby zainstalować model głębi do obrazu w GUI AUTOMATIC1111: Pobierz plik modelu ( 512-depth-ema.ckpt ) Pobierz plik konfiguracyjny , zmień jego nazwę na 512-depth-ema.yaml Umieść oba w katalogu modelu: stable-diffusion-webui/models/Stable-diffusion Jak używać Aby użyć modelu, naciśnij przycisk odświeżania obok skrzynki kontrolnej w lewym górnym rogu. Wybierz 512-depth-ema.ckpt, aby załadować model. Zwróć uwagę, że model głębi może być używany do obrazka i malowania , ale nie do obrazka. Jeśli spróbujesz to zrobić, zobaczysz błąd. Aby skorzystać z modelu, przejdź do zakładki img2img . Postępuj zgodnie z instrukcjami dla img2img i inpainting . Jak wynika z nazwy modelu, jest to model 512. Oznacza to, że działa najlepiej, gdy co najmniej jedna strona nowego obrazu ma 512 pikseli. Kilka pomysłów na wykorzystanie Przejdźmy teraz przez kilka przypadków użycia. Alternatywa dla img2img Załóżmy, że masz takie zdjęcie portretowe. Chcesz mieć trochę różnorodności, włączając azjatkę. Ale zaprojektowałeś już dodatkowe elementy otaczające go, więc nie chcesz, aby kształt osoby się zmienił. Możesz to zrobić za pomocą img2img, ale nie możesz ustawić zbyt wysokiej siły odszumiania, ponieważ stracisz oryginalny kształt. Dzięki img2img to najlepsze, co możesz zrobić: Obraz do obrazu. Podpowiedź: piękna, szczęśliwa Azjatka z idealnie szczegółowymi oczami, szczegółowymi rysami twarzy, szczegółową skórą, naturalnym oświetleniem, długimi włosami. Siła odszumiania: 0,58 Jest trochę zmian w kształcie, ale nie jest tak źle. Jednak siła odszumiania jest wciąż zbyt niska, aby odbiegać od koloru skóry pierwotnego mężczyzny. Nie zastosowano się również do zachęty dotyczącej długich włosów . Teraz dylemat: Zwiększenie siły odszumiania do 1 dałoby to, czego chcemy, ale stracimy pierwotny kształt: Użycie modelu głębi do obrazu pozwoliłoby nam ustawić siłę odszumiania na 1 bez utraty oryginalnego kształtu: Głębia obrazu z tym samym monitem i siłą odszumiania ustawioną na 1. Zwróć uwagę, że kształt mężczyzny jest całkowicie zachowany, a Stable Diffusion jakoś wymyśla, jak oddać długie włosy. Malowanie W podobny sposób możesz użyć głębi do obrazu w malowaniu, albo do naprawy defektów , albo do stworzenia czegoś nowego. Chcesz użyć głębi do obrazu, jeśli zależy ci na zachowaniu oryginalnej kompozycji. Transfer stylu Zaletą funkcji głębi do obrazu jest to, że możesz ustawić siłę odszumiania aż do 1 bez utraty kompozycji. Ułatwia to przekształcenie sceny w inny styl. Oto kilka przykładów: Ukraść pozę Trudno jest wygenerować konkretną ludzką pozę za pomocą stabilnej dyfuzji. Dzięki funkcji głębi do obrazu możesz użyć zdjęcia z wybraną pozą jako obrazu podstawowego. Ustaw siłę odszumiania na 1 i gotowe! Poza zostanie całkowicie zachowana dzięki funkcji głębi do obrazu. Zdjęciem może być scena filmowa, obraz lub zdjęcie zrobione telefonem. Koniec z dodatkowymi kończynami, dziwnymi dłońmi i niekończącym się malowaniem , aby naprawić pozy! Streszczenie Głębia do obrazu to świetna alternatywa dla obrazu do obrazu, zwłaszcza gdy chcesz zachować kompozycję sceny. To potężne narzędzie nie zyskało zbytniej uwagi od czasu jego wydania. Mam nadzieję, że ten artykuł zainspiruje Cię do zastanowienia się nad włączeniem go do swojego przepływu pracy. źródło
  7. OldMan

    AI tests

    Gwiezdne Wojny autorstwa Akiry Kurosawy (1985) Pozostałe tutaj https://www.facebook.com/abandonedmovies
  8. OldMan

    AI tests

    Jack Black as The Blue Phantom, directed by Judd Apatow (2015) Matrix autorstwa Fritza Langa (1927)
  9. OldMan

    AI tests

    Storm Trooper Beach Invasion, directed by George Lucas (2004)
  10. OldMan

    AI tests

    Pracownik techniczny sprzedaje książkę dla dzieci, którą stworzył przy użyciu sztucznej inteligencji. Profesjonalni ilustratorzy są wkurzeni. Ammaar Reshi powiedział BuzzFeed News, że otrzymał groźby śmierci i wiadomości zachęcające do samookaleczenia w mediach społecznościowych. 28-letni Ammaar Reshi od dziecka fascynował się technologią. „Zawsze byłem ciekawy, a mój tata pozwolił mi bawić się swoim komputerem, gdy miałem 5 lat” — powiedział. Dorastał w Pakistanie, zanim jego rodzina przeniosła się do Wielkiej Brytanii, gdzie Reshi studiował informatykę w Londynie. Praca w Palantir Technologies zaprowadziła Reshiego do Palo Alto w Kalifornii, a od 2020 roku pracuje w firmie fintech Brex, gdzie obecnie jest kierownikiem ds. projektowania. Kiedy w ciągu ostatnich kilku miesięcy na rynku pojawiła się seria generatywnych narzędzi sztucznej inteligencji, Reshi zaczął przy nich majstrować. Na początku tego miesiąca wpadł na pomysł stworzenia książki dla dziecka swoich najlepszych przyjaciół, które urodziło się w tym roku, przy użyciu sztucznej inteligencji. „Powiedziałem, że wezmę weekend, aby spróbować to opublikować” - wspomina. Najpierw Reshi wykorzystała ChatGPT do wymyślenia opowieści o Alice, młodej dziewczynie, która chce poznać świat technologii, oraz Sparkle, uroczym robocie, który jej pomaga. „To dało mi podstawę do opowieści” — powiedział Reshi. "Było dobrze. Miało to oczywiście swoje problemy. Więc zacząłem go poprawiać”. Poprosił ChatGPT, aby Alice była nieco bardziej ciekawa, a Sparkle bardziej świadoma siebie. Następnie Reshi użył aplikacji AI Midjourney do stworzenia obrazów, które chciał. „Po prostu zacząłem dodawać podpowiedzi, takie jak„ młoda dziewczyna ”i niektóre deskryptory:„niebieskie oczy”,„prosta sukienka”,„podekscytowany”,„ciekawy”” – powiedział. „To przyniosło pewne rezultaty. Teraz powiem ci, że niektóre z tych wyników były absolutnie szalone. Gdybym umieścił tam te wczesne ilustracje, stałby się horrorem”. Spędził godziny na poprawianiu podpowiedzi udzielonych Midjourney, szacując, że odrzucił „setki” ilustracji, aby uzyskać 13, które wypełniają 14-stronicową książkę. „Prawie się poddałem, bo nie wiem, czy to możliwe , ale potem po prostu przepchnąłem się na końcu” – powiedział. Reshi przesłał wyniki do Kindle Direct Publishing firmy Amazon, co umieściło Alice i Sparkle na Amazon 4 grudnia, zaledwie 72 godziny po tym, jak wpadł na ten pomysł. Początkowo Reshi zamierzał zrobić tylko książkę dla dziecka swoich przyjaciół. Ale kiedy podzielił się wiadomością na Instagramie, że stworzył książkę przy użyciu sztucznej inteligencji, jego szerszy krąg przyjaciół zaczął pytać, czy mogliby ją kupić. (Do tej pory powiedział, że sprzedał ponad 70 książek i podarował około „40 do 45”) . Inni zachęcali go do szerszego rozpowszechniania informacji o wydaniu. Ale kiedy Reshi napisał o książce na Twitterze , ludzie, w tym ilustratorzy książek dla dzieci, skrytykowali go za automatyzację procesu kosztem ludzkiej kreatywności. Jednym z krytyków jest Anupa Roper, autorka książek dla dzieci mieszkająca w Wielkiej Brytanii, która powiedziała, że miała „uczucie zapadania się w żołądku”, kiedy zobaczyła tweeta Reshi. „Zastanawiam się, czy naprawdę tak łatwo jest stworzyć coś, w co musiałem włożyć całe serce i duszę? Roper powiedziała. Inna brytyjska autorka książek dla dzieci, Josie Dom , odmówiła pobrania książki Reshiego. „Uważam, że nie zasługuje na jakiekolwiek pieniądze z książki, ponieważ tak naprawdę nie włożył w nią wiele pracy” — powiedziała. czytając przykładowe strony na Amazon, Dom powiedziała, że „jest zaniepokojona, że wykorzystanie sztucznej inteligencji do tworzenia historii spowoduje mnożenie się historii niskiej jakości, zarówno po stronie pisania, jak i ilustracji”. Dom powiedział, że Alice i Sparkle mają „całkiem sporo anomalii” na ilustracjach — do niektórych z nich sam Reshi przyznał się w mediach społecznościowych. Jest również zaniepokojona faktem, że generatywne platformy sztucznej inteligencji są szkolone w zakresie pracy innych osób, co wielu artystów wcześniej podkreślało jako problem . „Artyści często są niedopłacani, a to im nie pomoże” – powiedział Dom. „W zasadzie ich praca jest kradziona”. Autorka książki dla dzieci powiedziała, że historia była „formułowa” — naturalnym rezultatem stworzenia programu komputerowego. „Jest też płaski i nudny” — dodał Dom. „Wszyscy czytelnicy zasługują na bogate, pełne wyobraźni historie — zwłaszcza te dla dzieci. Służą zarówno zabawie, jak i edukacji”. Powiedziała, że książka Reshi zawiodła pod tym względem. Tymczasem Corey Brickley, ilustrator, który pracuje nad okładkami książek, skrytykował grafikę generowaną przez sztuczną inteligencję Reshi za pomocą tego tweeta: Brickley nie odpowiedział na prośbę o komentarz do tej historii. Reshi powiedział, że nie przewidział reakcji. „Najbardziej denerwuje mnie to, że całkowicie uważam, że to bardzo ważne, że ci artyści naprawdę się martwią, reagują z pasją i czują się zagrożeni” – powiedział. „Całkowicie rozumiem jako artysta, jeśli postrzegasz to jako egzystencjalne zagrożenie dla swoich środków do życia. To ma absolutny sens. (Dodał, że wiele osób skontaktowało się z nim, aby powiedzieć, jakie wrażenie zrobiły na nich wyniki modeli AI). Reshi powiedział, że otrzymał groźby śmierci i wiadomości zachęcające do samookaleczenia. „Jeśli nie możemy prowadzić dyskursu bez zachowywania się uprzejmie, nie zrobimy postępu” – powiedział. Dodał, że siła reakcji skłoniła go do zastanowienia się nad bieżącymi problemami. „Z pewnością sprawi, że będę miał więcej pracy domowej” — powiedział. „Chcę postąpić właściwie. Chcę pomóc wspierać artystów, jeśli mogę”. Reshi powiedział, że teraz uważa, że platformy takie jak OpenAI muszą być przejrzyste w kwestii danych, na których szkolone są ich modele. „Nie wiem, dlaczego nie możemy powiedzieć:„ Oto cała sztuka, która została wykorzystana do stworzenia tego ”, powiedział, „abyśmy mogli wyjaśnić, czy dzieła sztuki są naprawdę kradzione, czy też biorą materiały chronione prawem autorskim ”. Powiedział, że wierzy, że takie platformy muszą współpracować z artystami dotkniętymi rewolucją AI. Ogólnie rzecz biorąc, postrzega to doświadczenie jako uczące i karcące. „Jestem wdzięczny, że nagłośniono bardzo krytyczną debatę i dyskusję, która ma się odbyć” – powiedział. „Szczerze mówiąc, jestem po prostu zasmucony przebiegiem tej debaty. Nienawistna retoryka i obelgi naprawdę nie są przyjemne do czytania. Jeśli chodzi o to, czy będzie drugi rozdział w historii Alice i Sparkle , Reshi nie jest pewien. „Myślę, że wstrzymam się z tym do Dowiaduję się więcej o tym, jak ta sztuka jest wykorzystywana i czy istnieją sposoby, aby ją wykorzystać, jednocześnie chroniąc artystów” – powiedział. „Nie chcę tego tylko głosić – chcę to praktykować”. źródło
  11. OldMan

    AI tests

    do tworzenia wizji pół-żartem-pół-serio w stylu " co by było gdyby reżyser X nakręcił znany film Y" MJ nadaje się wyśmienicie, poniżej parę przykładów:
  12. OldMan

    AI tests

    dla bardziej kreatywnych to mysle sobie ze to całe AI powinno służyc bardziej jako okazjonalne narzędzie które moze w niektórych przypadkach oszczedzic czas lub pieniądz (np robimy duzą panorame miasta w 2D lub 3D i potrzebujemy duzą ilosc fejkowych nieistniejących retro plakatów na sciany lub billboardy, albo robimy strzelaninę 2D i potrzebujemy duzej ilosci backgroundów które będą na 3 planie przesuwały sie w paralaksie) Bo jesli osoba która do tej pory była kreatywna i samodzielna nagle zacznie intensywnie uzywac czegos takiego to moze zrobic nam sieczke z mózgu na dłuższą mete😎
  13. OldMan

    AI tests

    temat znaków wodnych był juz wałkowany w wątkach na forum ale nie wszyscy chyba czytają wiec w kółko o tym samym teraz nieco na wesoło 😊, byc może wiecie albo nie wiecie (wpadłem na to przypadkiem) ale jest potencjalna opcja dla bardzo bardzo bardzo leniwych, okazuje się ze jesli sie w polu wpisywania promptów (w MidJourney) użyje emotikonki z discorda (np . ❤️🙀 ) to zostanie ona przeanalizowana i na jej podstawie AI coś tam tobie wymyśli, poniżej parę przykładów zrobionych na podstawie tylko jednej emotki. W przypadki niektórych emotek wynik jest dosyc nietypowy, sami zobaczycie
  14. OldMan

    AI tests

    nie wiem czy sie zrozumielismy, chodziło mi o to ze ludzie chętniej wybieraja przyjemnosci (np oglądanie filmów na tiktoku niż siedzenie miesiącami i rozgryzanie jak działa nowy program od 3D), oczywiscie zwierzęta postępują podobnie ale o nich nie rozmawiamy w tym wątku
  15. OldMan

    AI tests

    smutne ale tak to niestety działa, dodatkowo mózg to wygodne zwierzątko i jesli ma wybrać droge na skróty to czestą ją wybierze
  16. OldMan

    AI tests

    znając życie to czarno widzę te chronienie, jakby ktos za długo spał pod kamieniem to informuje że zyjemy w czasach masowego podpierdal**nia wszystkiego od wszystkich - motywy muzyczne - design samochodowy - architektura - fabuła w filmach (tutaj to już plagiaciarstwo 10-te okrążenie robi) - grafika użytkowa itd itp wiec czarno to widze, pozatym korporacje mają w dupie ze cos podpierd***ą , liczy sie to ile na tym zarobią (zwłaszcza jak autor juz poszedł do piachu) Brutalne ale prawdziwe
  17. OldMan

    AI tests

    zeby sie o tym przekonac trzeba by trzymac w zamknięciu bez swiatła/obrazu grupe ludzi od urodzenia do pewnego wieku a potem dac im kartki niech cos narysują, wtedy bysmy wiedzieli ile prawdziwej wyobrazni jest w ludzkiej głowie , oczywiscie zaraz podniosą się głosy ze tak nie wolno bo taka izolacja uposledza rozwój mózgu (zapewne będą mieli racje), druga sprawa ze nikt takiego testu nie przeprowadzi wiec sie nie dowiemy i pozostaje gdybanie a ludzie ego w wiekszosci przypadków bedzie bronić swoich racji. Na koniec dodam że w sumie to nikt nie wie jak działa naprawde wyobraźnia w głowie (oprócz tego że działa)
  18. OldMan

    AI tests

    jeden z komentarzy z reddita: To jest ta rzecz. Od kilku miesięcy słyszycie tutaj, szczególnie tutaj na tej łodzi podwodnej, jak sztuczna inteligencja zmieni to, co dzieje się na świecie, na małe i duże sposoby, i nie można wsadzić dżina z powrotem do butelki bez względu na to, jak wściekasz się na to. Z mojej perspektywy jest to jeden z tych momentów, które udowadniają, że ponad sentymentem. Ci, którzy mają perspektywę, widzą, jak wychodzi to, co się wydarzy. Te rzeczy zostaną zintegrowane z naszą codziennością na tak wielu poziomach, nie tylko obrazu, ale prawie wszystkiego. Dla śmiechu zastanawiam się, ilu ludzi z mediów społecznościowych, którzy sprzeciwiali się obrazowi AI, zainstalowało to i używało go do bałaganu z własnymi zdjęciami. Chciałbym myśleć, że liczba ta jest dość wysoka, ale nie ma sposobu, aby to udowodnić. Po prostu miej tu przeczucie. Jesteśmy u świtu czegoś, możesz być świadkiem, jak to się dzieje. Na każdego artystę, który „stracił dziś pracę”, jakiś twórca aplikacji zarobił kupę kasy. Czy więc naprawdę chodzi tu o gospodarkę? A może jest to brak przewidywania, który niektórzy mają w porównaniu z perspektywą pomyślnego patrzenia w przyszłość, jaką mają inni? Kilka miesięcy temu powiedziałem tutaj, że ci, którzy mają perspektywy na przyszłość, są gotowi odnieść ogromny sukces w tej wschodzącej dziedzinie. Ci, którzy patrzą wstecz na przeszłość, która już nigdy nie będzie, zostaną pozostawieni w tyle. Wszystko po prostu interesujące dla mnie, aby obserwować, jak to się dzieje. Założę się, że muzyka będzie następna. Ci, którzy pracują teraz nad aplikacjami, które pozwalają dodawać własne teksty i wybierać styl oraz otrzymać z powrotem specjalnie wykonaną piosenkę AI, zostaną ustawieni na całe życie. Bez względu na to, jak bardzo muzycy w mediach społecznościowych będą zdenerwowani, ktoś tam jest gotów wykorzystać to wszystko. Jeśli chodzi o pieniądze, to chodzi o pieniądze, ludzie są oczywiście skłonni zapłacić za te rzeczy. Gdzie będziesz, gdy paradygmat całkowicie zmieni się w powszechne nasycenie? Pół miliona smackeroonies zrobionych na wschodzącym polu w ciągu jednego dnia, a utrata 30-dolarowej prowizji od Patreona za pornografię z mackami. Gdzie będziesz, dokąd zaprowadzi Cię edukacja, ile poświęcisz czasu i wysiłku na naukę. Pytanie może do młodych ludzi, którzy dopiero zaczynają. Może nadszedł czas, aby naprawdę spojrzeć na to, jak świat będzie wyglądał wystarczająco szybko i zacząć myśleć o ścieżce naprzód.
  19. OldMan

    AI tests

    ta apka mi sie podoba, kolejne dzieła sztuki w jej wykonaniu
  20. OldMan

    AI tests

    AI zadbało jak widac o odpowiednie zabezpieczenia (żeby nikt nie naruszył twoich praw autorskich do niego) 😎
  21. OldMan

    AI tests

    anthropomorphic tiger as a animal god of war and courage, grizzled and muscular, leather armor, facial scars, full-body portrait, dynamic posing, atmospheric, wandering the mountains, bandaged arms, cool tone, in the style of alan lee --ar 2:3 a potem zamiast TIGER wpisujesz co tam zechcesz
  22. OldMan

    AI tests

    nie rozumiem pytania
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności