Skocz do zawartości

OldMan

Members
  • Liczba zawartości

    407
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    7

Odpowiedzi dodane przez OldMan

  1. W dniu 10.02.2023 o 19:20, alex3d napisał(a):

    Tak, z tym AI to jest pieprzenie. To nie jest żadna sztuczna inteligencja. Równie dobrze można powiedzieć, że nakręcany na sprężynę zegarek z XIX w. to też AI. To musiałoby się odbyć na poziomie biologicznym, komórek itd., jakiegoś żywego organizmu. Używanie do maszyny czy algorytmu określenia - "inteligentny" jest obraźliwe dla ludzi. Na początku lat 90-tych też mówiło się, że w ciagu 10 lat aktorów zastąpi CGI i co, dalej klepiemy VFX-y. Kupujesz Rolls-Royce za parę milionów, a i tak technologia taka jak w polonezie, guma styka się z asfaltem. XXI wiek nic nowego nie wniósł dla świata. Jak skolonizują księżyc to możemy pogadać.

    obecne AI to nadinterpretacja , na razie AI ogranicza sie po prostu w wiekszosci przypadków do obliczeń tyle że w odróznieniu od typowych obliczeń korzysta w trakcie tych obliczeń z wczesniejszych obliczeń zapisanych czesto do pliku (wtedy uzywa sie magicznego słowa "wyuczone" lub czegos w tym stylu, a mózg to biologiczny superkomputer z mnóstwem optymalizacji (np stratna kompresja wspomnień ) , AI nie musi działać na poziomie biologicznym, musi byc po prostu złożone i wydajne

    • Like 1
  2. Godzinę temu, brain napisał(a):

    Nie za bardzo można porównać człowieka, który się czymś inspiruje na bazie np. jednego dzieła w galerii sztuki (tylko przykłąd), do maszyny, która się niczym nie inspiruje, nie myśli kreatywnie, do której ludzie nielegalnie (bez pozwolenia, bez licencji) wgrali miliardy (czy ile tam tego jest) obrazków z całego internetu. Na bazie tych wszystkich (nielegalnie użytych) obrazków, AI dopiero się nauczyło (od zera) jak ma "tworzyć" (kopiować/kraść).

    to z czym sie mogę zgodzic w takich debatach to fakt ze obecne AI nie rozumie co robi, po prostu generuje piksele i nie mysli nad tym co generuje (dlatego między innymi są babole typu dłonie itd) i jeszcze wiele czasu upłynie zanim AI zacznie rozumiećto co robi i to co ogląda/analizuje

     

    .....ale jesli chodzi o tzw inspirację to to sie zupełnie nie zgadzam, człowiek ma mnóstwo wbudowanych mechanizmów obronnych które dbają o jego poczucie zajebistosci ale prawda jest taka ze w kazdej sekundzie zycia oglądamy świat (i czasami czyjeś prace) i mózg to wszystko przetwarza a potem efekt tych kompilacji uwalniamy w procesie tworzenia (oczywiscie jest to bardziej złożone niz obecne AI ale takze opiera sie na danych wejsciowych bo bez nich nic bysmy nie stworzyli)

  3. W dniu 18.01.2023 o 10:52, brain napisał(a):

    to nie wina ai tylko wina tych co przygotowywali dane do uczenia ze wrzucili takie materiały ze znakami wodnymi i innymi napisami, a w necie burza taka jakby to AI samo wybrało te obrazki do uczenia , pozatym idąc dalej tym tropem artysci nie powinni miec wstępu do galerii sztuki (bo sie napatrzą i potem zrobią nieswiadomie cos podobnego co uznają za swoje)

  4. Mateusz Staniszewski i Piotr Dąbkowski zawstydzili Google, Amazona i Microsoft i swoją technologią zamierzają podbić świat.

    „Stoję przed wami nie jako ekspert, ale jako zaniepokojony obywatel” – mówi Leonardo DiCaprio ze sceny podczas szczytu klimatycznego ONZ. Tak zaczyna się krótkie nagranie, które firma Eleven Labs zamieściła 6 września 2022 roku w serwisie YouTube. Do piątej sekundy nie dzieje się nic zaskakującego. Ale potem hollywoodzki gwiazdor zaczyna przemawiać głosami kolejno Joe Rogana, Steve’a Jobsa, Roberta Downeya Jr., Billa Gatesa i Kim Kardashian. Za każdym razem zachowując płynność wypowiedzi, bezbłędnie oddając emocje, z idealnie odwzorowanym tembrem głosu.

    Eleven Labs, start-up założony przez Mateusza Staniszewskiego i Piotra Dąbkowskiego w 2022 roki, już zachwycił rynek rozwiązaniem, które pozwala generować syntetyczny głos na podstawie tekstu albo klonować głos na bazie dostarczonej próbki dźwiękowej. Staniszewski i Dąbkowski wierzą, że dzięki tej technologii są w stanie zrewolucjonizować szeroko rozumiany sektor rozrywkowy – od branży audiobookowej po filmową i gamingową. A ich inwestorzy liczą, że młodzi start-upowcy naprawdę mogą tego dokonać – dlatego zainwestowali w ich biznes 2 mln dolarów.

  5. Photor AI

    https://photor.io/photoscore

    opis ze strony 🤭

    Photor AI to narzędzie, które wykorzystuje zaawansowaną technologię rozpoznawania obrazów i uczenia maszynowego do analizowania i wybierania najlepszych zdjęć do użytku profesjonalnego lub osobistego na platformach takich jak Linkedin, media społecznościowe i aplikacje randkowe. Pomaga zaprezentować najlepszą wersję siebie. 

     

     

    LangoTalk

    https://www.langotalk.org/

    Ucz się hiszpańskiego, angielskiego, francuskiego, niemieckiego, holenderskiego lub włoskiego 6x szybciej dzięki czatowi z AI.

     

     

     

    GenieAI

    https://genieai-app.vercel.app/

    GenieAI to aplikacja internetowa, która wykorzystuje sztuczną inteligencję do generowania tytułów , opisów , tagów i pomysłów na miniatury treści.

     

    • Like 2
  6. Głębia obrazu (Depth-to-image) w Stable Diffusion 2

    Wszystko, co musisz wiedzieć

    Depth-to-image (Depth2img) to niedoceniany model w Stable Diffusion v2. Jest to rozszerzenie funkcji image-to-image (img2img), które wykorzystuje informacje o głębi podczas generowania nowych obrazów.

    W tym samouczku zajrzymy pod maskę, aby zobaczyć, co to jest, jak go zainstalować i używać oraz co może dla Ciebie zrobić.

    Co może zrobić głębia obrazu

    Dzięki funkcji głębi obrazu masz lepszą kontrolę nad osobną syntezą obiektu i tła.

    Powiedzmy, że chcę zamienić tę romantyczną scenę w La La Land w pojedynek zapaśniczy

    lala-land.png?w=744&ssl=1

    Później zajmiemy się bardziej szczegółami, ale na razie traktuj głębię do obrazu jako ulepszoną wersję obrazu do obrazu . Można ich używać dokładnie w ten sam sposób — biorąc pod uwagę obraz i monit tekstowy, wygeneruje nowy obraz.

    Powiedzmy, że używam zachęty "zdjęcie dwóch walczących mężczyzn" zarówno dla obrazu do obrazu, jak i głębi do obrazu. Poniżej przedstawiono wyniki z siłą odszumiania w zakresie od 0,4 do 1,0. (Pamiętaj, że im wyższa siła odszumiania, tym bardziej zmieni się obraz.)

    image-60.png?resize=1024,479&ssl=1

    Przyjrzyjmy się generacjom obrazu do obrazu (górny rząd). Napotkaliśmy problem: przy niskiej sile odszumiania obraz nie zmieniał się wystarczająco. Przy dużej sile odszumiania widzimy dwóch zapaśników, ale oryginalna kompozycja zostaje utracona.

    Głębia obrazu rozwiązuje ten problem . Możesz zwiększyć siłę odszumiania aż do 1 (maksimum) bez utraty oryginalnej kompozycji!

    Skoro już wiesz, co potrafi technologia głębi do obrazu, zobaczmy, jak to działa.

    Czym jest głębia obrazu?

    Przypomnij sobie, że w przypadku obrazu do obrazu Stabilna dyfuzja pobiera obraz i monit jako dane wejściowe. Generowanie obrazu jest oparte ZARÓWNO na obrazie, jak i na monicie. Ostateczny obraz przypomina obraz wejściowy w kolorze i kształtach.

    W przypadku głębi do obrazu Stabilna dyfuzja podobnie pobiera obraz i monit jako dane wejściowe. Model najpierw szacuje mapę głębi obrazu wejściowego za pomocą MIDaS , modelu AI opracowanego w 2019 r. do szacowania postrzegania głębi przez jednooczne (czyli szacowania głębokości z jednego widoku). Mapa głębi jest następnie używana przez Stable Diffusion jako dodatkowe uwarunkowanie generowania obrazu.

    Innymi słowy, głębokość do obrazu wykorzystuje trzy warunki do wygenerowania nowego obrazu: (1) monit tekstowy, (2) oryginalny obraz i (3) mapa głębi.

    Model wyposażony w mapę głębi ma pewną wiedzę na temat trójwymiarowej kompozycji sceny. Generacje obrazów obiektów pierwszego planu i tła można rozdzielić.

    Mapa Głębi

    Nie musisz dostarczać mapy głębi, aby korzystać z głębi do obrazu. Ta sekcja odtwarza mapę głębokości do celów edukacyjnych.

    Mapa głębi to prosty obraz w skali szarości o tym samym rozmiarze co oryginalny obraz, kodujący informacje o głębi. Kompletna biel oznacza, że obiekt jest najbliżej Ciebie. Więcej czerni oznacza dalej.

    Oto przykład obrazu i jego mapy głębi oszacowanej przez MIDaS.

    00702-854471792-Amber-Heard_-Ana-de-Arma

    depthmap-00702-854471792-Amber-Heard_-An

    Zainstaluj model głębi do obrazu

    Jak zainstalować

    Aby zainstalować model głębi do obrazu w GUI AUTOMATIC1111:

    Pobierz plik modelu ( 512-depth-ema.ckpt )

    Pobierz  plik konfiguracyjny , zmień jego nazwę na 512-depth-ema.yaml

    Umieść oba w katalogu modelu:

    stable-diffusion-webui/models/Stable-diffusion

    Jak używać

    Aby użyć modelu, naciśnij przycisk odświeżania obok skrzynki kontrolnej w lewym górnym rogu. Wybierz 512-depth-ema.ckpt, aby załadować model.

    image-61.png?resize=768,124&ssl=1

    Zwróć uwagę, że model głębi może być używany do obrazka i malowania , ale nie do obrazka. Jeśli spróbujesz to zrobić, zobaczysz błąd.

    Aby skorzystać z modelu, przejdź do zakładki img2img . Postępuj zgodnie z instrukcjami dla img2img i inpainting .

    Jak wynika z nazwy modelu, jest to model 512. Oznacza to, że działa najlepiej, gdy co najmniej jedna strona nowego obrazu ma 512 pikseli.

    Kilka pomysłów na wykorzystanie

    Przejdźmy teraz przez kilka przypadków użycia.

    Alternatywa dla img2img

    Załóżmy, że masz takie zdjęcie portretowe.

    joseph-gonzalez-iFgRcqHznqg-unsplash.jpg

    Chcesz mieć trochę różnorodności, włączając azjatkę. Ale zaprojektowałeś już dodatkowe elementy otaczające go, więc nie chcesz, aby kształt osoby się zmienił.

    Możesz to zrobić za pomocą img2img, ale nie możesz ustawić zbyt wysokiej siły odszumiania, ponieważ stracisz oryginalny kształt.

    Dzięki img2img to najlepsze, co możesz zrobić:

    2.1-img2img-denoise-0.58-00128-288246929

    Obraz do obrazu. Podpowiedź: piękna, szczęśliwa Azjatka z idealnie szczegółowymi oczami, szczegółowymi rysami twarzy, szczegółową skórą, naturalnym oświetleniem, długimi włosami. Siła odszumiania: 0,58

    Jest trochę zmian w kształcie, ale nie jest tak źle. Jednak siła odszumiania jest wciąż zbyt niska, aby odbiegać od koloru skóry pierwotnego mężczyzny. Nie zastosowano się również do zachęty dotyczącej długich włosów .

    Teraz dylemat: Zwiększenie siły odszumiania do 1 dałoby to, czego chcemy, ale stracimy pierwotny kształt:

    2.1-img2img-long-hair-00126-458374445-a-

    Użycie modelu głębi do obrazu pozwoliłoby nam ustawić siłę odszumiania na 1 bez utraty oryginalnego kształtu:

    long-hair-00124-2487370671-a-beautiful-h

    Głębia obrazu z tym samym monitem i siłą odszumiania ustawioną na 1.

    Zwróć uwagę, że kształt mężczyzny jest całkowicie zachowany, a Stable Diffusion jakoś wymyśla, jak oddać długie włosy.

    Malowanie

    W podobny sposób możesz użyć głębi do obrazu w malowaniu, albo do naprawy defektów , albo do stworzenia czegoś nowego.

    Chcesz użyć głębi do obrazu, jeśli zależy ci na zachowaniu oryginalnej kompozycji.

    W14ShotToHERO.jpg?w=800&ssl=1

    00098-1555620215-two-lions-holding-each-

     

    Transfer stylu

    Zaletą funkcji głębi do obrazu jest to, że możesz ustawić siłę odszumiania aż do 1 bez utraty kompozycji. Ułatwia to przekształcenie sceny w inny styl.

    Oto kilka przykładów:

    00190-4163774329-cubism-painting_1.5-a-m

    00183-694140991-unreal-engine-a-man-with

    00182-362111397-Aype-Beven-scott-william

    00178-124542128-in-art-nouveau-painting_

    Ukraść pozę

    Trudno jest wygenerować konkretną ludzką pozę za pomocą stabilnej dyfuzji. Dzięki funkcji głębi do obrazu możesz użyć zdjęcia z wybraną pozą jako obrazu podstawowego. Ustaw siłę odszumiania na 1 i gotowe! Poza zostanie całkowicie zachowana dzięki funkcji głębi do obrazu. Zdjęciem może być scena filmowa, obraz lub zdjęcie zrobione telefonem.

    Koniec z dodatkowymi kończynami, dziwnymi dłońmi i niekończącym się malowaniem , aby naprawić pozy!

    Streszczenie

    Głębia do obrazu to świetna alternatywa dla obrazu do obrazu, zwłaszcza gdy chcesz zachować kompozycję sceny.

    To potężne narzędzie nie zyskało zbytniej uwagi od czasu jego wydania. Mam nadzieję, że ten artykuł zainspiruje Cię do zastanowienia się nad włączeniem go do swojego przepływu pracy.

    źródło

  7. Pracownik techniczny sprzedaje książkę dla dzieci, którą stworzył przy użyciu sztucznej inteligencji. Profesjonalni ilustratorzy są wkurzeni.

    Ammaar Reshi powiedział BuzzFeed News, że otrzymał groźby śmierci i wiadomości zachęcające do samookaleczenia w mediach społecznościowych.

    sub-buzz-7898-1670958583-4.png?downsize=

    28-letni Ammaar Reshi od dziecka fascynował się technologią. „Zawsze byłem ciekawy, a mój tata pozwolił mi bawić się swoim komputerem, gdy miałem 5 lat” — powiedział. Dorastał w Pakistanie, zanim jego rodzina przeniosła się do Wielkiej Brytanii, gdzie Reshi studiował informatykę w Londynie. Praca w Palantir Technologies zaprowadziła Reshiego do Palo Alto w Kalifornii, a od 2020 roku pracuje w firmie fintech Brex, gdzie obecnie jest kierownikiem ds. projektowania.

    Kiedy w ciągu ostatnich kilku miesięcy na rynku pojawiła się seria generatywnych narzędzi sztucznej inteligencji, Reshi zaczął przy nich majstrować. Na początku tego miesiąca wpadł na pomysł stworzenia książki dla dziecka swoich najlepszych przyjaciół, które urodziło się w tym roku, przy użyciu sztucznej inteligencji. „Powiedziałem, że wezmę weekend, aby spróbować to opublikować” - wspomina.

    Najpierw Reshi wykorzystała ChatGPT do wymyślenia opowieści o Alice, młodej dziewczynie, która chce poznać świat technologii, oraz Sparkle, uroczym robocie, który jej pomaga. „To dało mi podstawę do opowieści” — powiedział Reshi. "Było dobrze. Miało to oczywiście swoje problemy. Więc zacząłem go poprawiać”.

    Poprosił ChatGPT, aby Alice była nieco bardziej ciekawa, a Sparkle bardziej świadoma siebie. Następnie Reshi użył aplikacji AI Midjourney do stworzenia obrazów, które chciał. „Po prostu zacząłem dodawać podpowiedzi, takie jak„ młoda dziewczyna ”i niektóre deskryptory:„niebieskie oczy”,„prosta sukienka”,„podekscytowany”,„ciekawy”” – powiedział. „To przyniosło pewne rezultaty. Teraz powiem ci, że niektóre z tych wyników były absolutnie szalone. Gdybym umieścił tam te wczesne ilustracje, stałby się horrorem”.

    Spędził godziny na poprawianiu podpowiedzi udzielonych Midjourney, szacując, że odrzucił „setki” ilustracji, aby uzyskać 13, które wypełniają 14-stronicową książkę. „Prawie się poddałem, bo nie wiem, czy to możliwe , ale potem po prostu przepchnąłem się na końcu” – powiedział.

    sub-buzz-4225-1670960004-27.png?downsize

    Reshi przesłał wyniki do Kindle Direct Publishing firmy Amazon, co umieściło Alice i Sparkle na Amazon 4 grudnia, zaledwie 72 godziny po tym, jak wpadł na ten pomysł. Początkowo Reshi zamierzał zrobić tylko książkę dla dziecka swoich przyjaciół. Ale kiedy podzielił się wiadomością na Instagramie, że stworzył książkę przy użyciu sztucznej inteligencji, jego szerszy krąg przyjaciół zaczął pytać, czy mogliby ją kupić. (Do tej pory powiedział, że sprzedał ponad 70 książek i podarował około „40 do 45”)

    . Inni zachęcali go do szerszego rozpowszechniania informacji o wydaniu. Ale kiedy Reshi napisał o książce na Twitterze , ludzie, w tym ilustratorzy książek dla dzieci, skrytykowali go za automatyzację procesu kosztem ludzkiej kreatywności.

    Jednym z krytyków jest Anupa Roper, autorka książek dla dzieci mieszkająca w Wielkiej Brytanii, która powiedziała, że miała „uczucie zapadania się w żołądku”, kiedy zobaczyła tweeta Reshi. „Zastanawiam się, czy naprawdę tak łatwo jest stworzyć coś, w co musiałem włożyć całe serce i duszę? Roper powiedziała.

    Inna brytyjska autorka książek dla dzieci, Josie Dom , odmówiła pobrania książki Reshiego. „Uważam, że nie zasługuje na jakiekolwiek pieniądze z książki, ponieważ tak naprawdę nie włożył w nią wiele pracy” — powiedziała. czytając przykładowe strony na Amazon, Dom powiedziała, że „jest zaniepokojona, że wykorzystanie sztucznej inteligencji do tworzenia historii spowoduje mnożenie się historii niskiej jakości, zarówno po stronie pisania, jak i ilustracji”.

    Dom powiedział, że Alice i Sparkle mają „całkiem sporo anomalii” na ilustracjach — do niektórych z nich sam Reshi przyznał się w mediach społecznościowych.

    Jest również zaniepokojona faktem, że generatywne platformy sztucznej inteligencji są szkolone w zakresie pracy innych osób, co wielu artystów wcześniej podkreślało jako problem . „Artyści często są niedopłacani, a to im nie pomoże” – powiedział Dom. „W zasadzie ich praca jest kradziona”.

    Autorka książki dla dzieci powiedziała, że historia była „formułowa” — naturalnym rezultatem stworzenia programu komputerowego. „Jest też płaski i nudny” — dodał Dom. „Wszyscy czytelnicy zasługują na bogate, pełne wyobraźni historie — zwłaszcza te dla dzieci. Służą zarówno zabawie, jak i edukacji”. Powiedziała, że książka Reshi zawiodła pod tym względem.

    Tymczasem Corey Brickley, ilustrator, który pracuje nad okładkami książek, skrytykował grafikę generowaną przez sztuczną inteligencję Reshi za pomocą tego tweeta:

    Brickley nie odpowiedział na prośbę o komentarz do tej historii.

    Reshi powiedział, że nie przewidział reakcji. „Najbardziej denerwuje mnie to, że całkowicie uważam, że to bardzo ważne, że ci artyści naprawdę się martwią, reagują z pasją i czują się zagrożeni” – powiedział. „Całkowicie rozumiem jako artysta, jeśli postrzegasz to jako egzystencjalne zagrożenie dla swoich środków do życia. To ma absolutny sens. (Dodał, że wiele osób skontaktowało się z nim, aby powiedzieć, jakie wrażenie zrobiły na nich wyniki modeli AI).

    Reshi powiedział, że otrzymał groźby śmierci i wiadomości zachęcające do samookaleczenia. „Jeśli nie możemy prowadzić dyskursu bez zachowywania się uprzejmie, nie zrobimy postępu” – powiedział. Dodał, że siła reakcji skłoniła go do zastanowienia się nad bieżącymi problemami. „Z pewnością sprawi, że będę miał więcej pracy domowej” — powiedział. „Chcę postąpić właściwie. Chcę pomóc wspierać artystów, jeśli mogę”.

    Reshi powiedział, że teraz uważa, że platformy takie jak OpenAI muszą być przejrzyste w kwestii danych, na których szkolone są ich modele. „Nie wiem, dlaczego nie możemy powiedzieć:„ Oto cała sztuka, która została wykorzystana do stworzenia tego ”, powiedział, „abyśmy mogli wyjaśnić, czy dzieła sztuki są naprawdę kradzione, czy też biorą materiały chronione prawem autorskim ”. Powiedział, że wierzy, że takie platformy muszą współpracować z artystami dotkniętymi rewolucją AI.

    Ogólnie rzecz biorąc, postrzega to doświadczenie jako uczące i karcące. „Jestem wdzięczny, że nagłośniono bardzo krytyczną debatę i dyskusję, która ma się odbyć” – powiedział. „Szczerze mówiąc, jestem po prostu zasmucony przebiegiem tej debaty. Nienawistna retoryka i obelgi naprawdę nie są przyjemne do czytania.

    Jeśli chodzi o to, czy będzie drugi rozdział w historii Alice i Sparkle , Reshi nie jest pewien. „Myślę, że wstrzymam się z tym do Dowiaduję się więcej o tym, jak ta sztuka jest wykorzystywana i czy istnieją sposoby, aby ją wykorzystać, jednocześnie chroniąc artystów” – powiedział. „Nie chcę tego tylko głosić – chcę to praktykować”.

    źródło

  8. 15 minut temu, Kalberos napisał(a):

    Masakra. Ja musze sie odciac od tego szamba na jakis czas bo dostaje artblocka.

    dla bardziej kreatywnych to mysle sobie ze to całe AI powinno służyc bardziej jako okazjonalne narzędzie które moze w niektórych przypadkach oszczedzic czas lub pieniądz (np robimy duzą panorame miasta w 2D lub 3D i potrzebujemy duzą ilosc fejkowych nieistniejących retro plakatów na sciany lub billboardy, albo robimy strzelaninę 2D i potrzebujemy duzej ilosci backgroundów które będą na 3 planie przesuwały sie w paralaksie)

    Bo jesli osoba która do tej pory była kreatywna i samodzielna nagle zacznie intensywnie uzywac czegos takiego to moze zrobic nam sieczke z mózgu na dłuższą mete😎

  9. temat znaków wodnych był juz wałkowany w wątkach na forum ale nie wszyscy chyba czytają wiec w kółko o tym samym

    teraz nieco na wesoło 😊, byc może wiecie albo nie wiecie (wpadłem na to przypadkiem) ale jest potencjalna opcja dla bardzo bardzo bardzo leniwych, okazuje się ze jesli sie w polu wpisywania promptów (w MidJourney) użyje emotikonki z discorda (np . ❤️🙀 ) to zostanie ona przeanalizowana i na jej podstawie AI coś tam tobie wymyśli, poniżej parę przykładów zrobionych na podstawie tylko jednej emotki.

    W przypadki niektórych emotek wynik jest dosyc nietypowy, sami zobaczycie

    gHJlJZD.png

    dM6QQyY.png

    FC984vF.png

    PnyXcpN.png

    KUCFnkc.png

    yZQlFIC.png

    UksdHmO.png

     

    • Like 2
  10. 6 minut temu, Mortom napisał(a):

    @OldMan To nie domena naszego mózgu... cała przyroda i świat jest tak "ustawiony" aby działać po najmniejszej linii oporu. Bo to po prostu jest efektywne i się sprawdza. 

    nie wiem czy sie zrozumielismy, chodziło mi o to ze ludzie chętniej wybieraja przyjemnosci (np oglądanie filmów na tiktoku niż siedzenie miesiącami i rozgryzanie jak działa nowy program od 3D), oczywiscie zwierzęta postępują podobnie ale o nich nie rozmawiamy w tym wątku

    • Like 1
  11. 3 godziny temu, michalo napisał(a):

     

    Coś  co  wyręcza człowieka, tak naprawdę upośledza go. Ewolucja, rozwój polega na walce z trudnościami, wyślianiu umysłu i ciała. 

     

    smutne ale tak to niestety działa, dodatkowo mózg to wygodne zwierzątko i jesli ma wybrać droge na skróty to czestą ją wybierze

  12. Godzinę temu, michalo napisał(a):

    Ale to praktycznie żaden obrazy wygenerowany przez ai nie jest legalny, bo powstał gwałcąc prawa autorskie, regulaminy itp. Dziwne, że serisy stockowe nie podnoszą alarmu. Przecież te ich znaki wodne to najlepszy przykład i dowód jak powstaje obraz z ai. 

     

    Wyobraź sobie taką historię. Pracujesz od lat dla firmy, tworzysz im obrazy. Oni teraz mogą sobie to ai wytrenować i dalej tworzyć w twoim stylu ale ciebie już się pozbędą. 

    Jesteś właścicielem swojego stylu? Nieee. 

    Obrazy im sprzedałeś z prawami autorskimi więc wytrenowana na tym ai teoretycznie jest już legalne? 

     

    Musi to być jakoś chronione. AI do rozpozanawania AI 😉  

    Myślałem, że duże nazwiska w branży mają jakąś siłę. Ale za nimi nie stoją korporacje jak w muzyce. Nic nie zdziałamy. Trzeba jakoś z tego korzystać jak ktoś może, póki może 😉 

    znając życie to czarno widzę te chronienie, jakby ktos za długo spał pod kamieniem to informuje że zyjemy w czasach masowego podpierdal**nia wszystkiego od wszystkich 

    - motywy muzyczne

    - design samochodowy

    - architektura

    - fabuła w filmach (tutaj to już plagiaciarstwo  10-te okrążenie robi)

    - grafika użytkowa

    itd itp

    wiec czarno to widze, pozatym korporacje mają w dupie ze cos podpierd***ą , liczy sie to ile na tym zarobią (zwłaszcza jak autor juz poszedł do piachu)

    1 godzinę temu, SebastianSz napisał(a):

    Filozoficzne gadanie o sensie sztuki i kierunku rozwoju ludzkości nie ma znaczenia. Ta technologia jest i będzie bo zwyczajnie działa i już.

     

    Brutalne ale prawdziwe

    • Like 2
  13. 1 godzinę temu, SebastianSz napisał(a):

     

    Inną kwestią, jest fakt, że AI nie tworzy niczego, tylko inteligentnie miksuje prace innych ludzi. Nie chodzi tylko o AI art, mówię to również o idenycznym problemie z GitHub Copilot czy ChatGPT. Sorry, ale AI umie emulowac styl G. Rutkowskiego bo na jego pracach było uczone, a nie, że samo do tego doszło.

    Argument, że człowiek uczy się tak samo, poprzez podpatrywanie innych, mnie nie przekonuje. Tak jak inna jest sytuacja kiedy ja znam Twoj adres i podam go komuś, a inna kiedy Facebook/Microsoft/Google napisze algorytm, który na podstawie Twojej aktywności w necie ustali Twój adres i tą informację sprzeda innej firmie. To nie to samo i wymaga innej regulacji.

     

    zeby sie o tym przekonac trzeba by trzymac w zamknięciu bez swiatła/obrazu grupe ludzi od urodzenia do pewnego wieku a potem dac im kartki niech cos narysują, wtedy bysmy wiedzieli ile prawdziwej wyobrazni jest w ludzkiej głowie , oczywiscie zaraz podniosą się głosy ze tak nie wolno bo taka izolacja uposledza rozwój mózgu (zapewne będą mieli racje), druga sprawa ze nikt takiego testu nie przeprowadzi wiec sie nie dowiemy i pozostaje gdybanie a ludzie ego w wiekszosci przypadków bedzie bronić swoich racji. Na koniec dodam że w sumie to nikt nie wie jak działa naprawde wyobraźnia w głowie (oprócz tego że działa)

    • Like 1
  14. 2022-12-06_094241.jpg

    jeden z komentarzy z reddita:

    To jest ta rzecz. Od kilku miesięcy słyszycie tutaj, szczególnie tutaj na tej łodzi podwodnej, jak sztuczna inteligencja zmieni to, co dzieje się na świecie, na małe i duże sposoby, i nie można wsadzić dżina z powrotem do butelki bez względu na to, jak wściekasz się na to.

    Z mojej perspektywy jest to jeden z tych momentów, które udowadniają, że ponad sentymentem. Ci, którzy mają perspektywę, widzą, jak wychodzi to, co się wydarzy.

    Te rzeczy zostaną zintegrowane z naszą codziennością na tak wielu poziomach, nie tylko obrazu, ale prawie wszystkiego.

    Dla śmiechu zastanawiam się, ilu ludzi z mediów społecznościowych, którzy sprzeciwiali się obrazowi AI, zainstalowało to i używało go do bałaganu z własnymi zdjęciami. Chciałbym myśleć, że liczba ta jest dość wysoka, ale nie ma sposobu, aby to udowodnić. Po prostu miej tu przeczucie.

    Jesteśmy u świtu czegoś, możesz być świadkiem, jak to się dzieje. Na każdego artystę, który „stracił dziś pracę”, jakiś twórca aplikacji zarobił kupę kasy. Czy więc naprawdę chodzi tu o gospodarkę? A może jest to brak przewidywania, który niektórzy mają w porównaniu z perspektywą pomyślnego patrzenia w przyszłość, jaką mają inni? Kilka miesięcy temu powiedziałem tutaj, że ci, którzy mają perspektywy na przyszłość, są gotowi odnieść ogromny sukces w tej wschodzącej dziedzinie. Ci, którzy patrzą wstecz na przeszłość, która już nigdy nie będzie, zostaną pozostawieni w tyle. Wszystko po prostu interesujące dla mnie, aby obserwować, jak to się dzieje.

    Założę się, że muzyka będzie następna. Ci, którzy pracują teraz nad aplikacjami, które pozwalają dodawać własne teksty i wybierać styl oraz otrzymać z powrotem specjalnie wykonaną piosenkę AI, zostaną ustawieni na całe życie. Bez względu na to, jak bardzo muzycy w mediach społecznościowych będą zdenerwowani, ktoś tam jest gotów wykorzystać to wszystko. Jeśli chodzi o pieniądze, to chodzi o pieniądze, ludzie są oczywiście skłonni zapłacić za te rzeczy. Gdzie będziesz, gdy paradygmat całkowicie zmieni się w powszechne nasycenie?

    Pół miliona smackeroonies zrobionych na wschodzącym polu w ciągu jednego dnia, a utrata 30-dolarowej prowizji od Patreona za pornografię z mackami. Gdzie będziesz, dokąd zaprowadzi Cię edukacja, ile poświęcisz czasu i wysiłku na naukę. Pytanie może do młodych ludzi, którzy dopiero zaczynają. Może nadszedł czas, aby naprawdę spojrzeć na to, jak świat będzie wyglądał wystarczająco szybko i zacząć myśleć o ścieżce naprzód.

  15. Godzinę temu, brain napisał(a):

    MJ: "You basically own it"

    image.png.c584d4c5d0d1aa84fe9147f77096a551.png

    Obrazek z dzisiaj, lol. Myślę, że mam do tego całość praw autorskich i mogę używać komercyjnie! 

    Nie ma tu nic podejrzanego!

    AI zadbało jak widac o odpowiednie zabezpieczenia (żeby nikt nie naruszył twoich praw autorskich do niego) 😎

    • Like 1
    • kekw 3
  16. 9 minut temu, Nezumi napisał(a):

    @OldMantygrys zajebisty. Jak juz mnie przeciagnales na mroczna strone mocy 😛  to - jesli chcesz i mozesz - podzielilbys sie promptem? Mam obsesje od zawsze do wszystkich wilkolakowatych stworzen, probowalem z "anthropomorphic" ale roznie to wychodzi. Poza tez spoko.

    anthropomorphic tiger as a animal god of war and courage, grizzled and muscular, leather armor, facial scars, full-body portrait, dynamic posing, atmospheric, wandering the mountains, bandaged arms, cool tone, in the style of alan lee --ar 2:3

     

    a potem zamiast TIGER wpisujesz co tam zechcesz 

     

    • Thanks 1
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności