Skocz do zawartości

OldMan

Members
  • Liczba zawartości

    398
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    7

Zawartość dodana przez OldMan

  1. nalezy tez pamietac o jednej rzeczy - nie kazdy rzemieslnik bedzie robił rzeczy lepsze niz fabryka (to ze cos wyszło spod ludzkiej ręki nie znaczy automatycznie ze bedzie to 8 cud świata) To samo tyczy sie ilustracji, to ze cos zostało zrobione od początku do końca przez czlowieka nie oznacza ze bedzie swietne widzialem fajne obrazki zrobione przez AI i mnóstwo kiepskich zrobionych przez AI widziałem fajne obrazki zrobione przez ludzi i mnóstwo kiepskich zrobionych przez ludzi przykład z brzegu , wejdzmy sobie np na ARTSTATION i wpiszmy w wyszukiwarce słowo "helmet' parę "ludzkich" przykładów jak widać nie trzeba AI żeby zrobić coś co wygląda do bólu generycznie żeby nie rzec ze bezsensownie, ludzie wystarczą
  2. rozwinę zeby była dobrze zrozumiana moja wypowiedź: czy człowiek robiący krzesła za pomocą rękodzieła smieje się z maszyny która stoi w hali i robi tysiące zwykłych krzeseł dziennie? (pytanie retoryczne) ...nie smieje się (zna swoje miejsce w szeregu, robi je sobie dla własnej przyjemnosci/samorozwoju/ lub np dla wymagającego klienta). Krzyczącym na AI "Artystom" jeszcze troche brakuje zeby osiągneli ten próg myślowy co w/w człowiek robiący krzesła.
  3. gdy jakis "didżej" zrobi muzyke lepiąc swoje "dzieło" z cudzych sampli i fragmentów utworów ...uuuu artysta gdy jakiś grafik zrobi fotomontaż / matte painting bazujący np zdjęciach itp ...uuuu artysta gdy ktoś napisze apkę która robi to samo z obrazkami czy innymi rzeczami ....beeeee jak tak można kisnę XD ale za jakiś czas ten bek się skończy, popłaczą i sie przyzwyczają do zmian.
  4. na grupach FB polskich poswieconych grafice już płacz ze jakies nowe książki w Polsce dostały okładki zrobione przez AI (za które oczywiscie ktoś dostał kase ) 😅
  5. odchodząc od generatorów graficznych tym razem z nieco innej beczki, poniżej cytat jakiegos anonima z internetu odnosnie tekstowego AI: "Jako kogoś zajmującego się AI na co dzień strasznie wkurwia mnie ten cały sztuczny hype i rzesze pseudoeksperów, którzy obejrzeli 10 minutowy filmik o ChatGPT od "entuzjasty technologii" i już wszystko rozumieją. Modele bazujące na tej architekturze co GPT4, czyli na Transformerach nie są stanie osiągnąć poziomu AGI i zyskać świadomości. W zasadzie to co odróżnia GPT4 od modelu który można sobie wytrenować w domu to rozmiar sieci oraz przede wszystkim liość danych na których został wytrenowany. GPT nie jest w stanie uczyć się nowych rzeczy po zakończeniu trenowania. Wiem, że jak podacie mu coś na wejście jako kontekst to będzie to pamiętał, jednak kontekst ten ma ograniczoną wielkość i po zakończeniu sesji generacyjnej jest resetowany. Nie zmienia on wag sieci (czyli takiego w pewnym sensie mózgu), a co za tym idzie sieć się nie uczy. Przykładem jest choćby to, że świetnie radzi sobie z zadaniami algorytmicznymi które zostały zamieszczone przez zakończeniem treningu. Jednak nowe zadania, które wymagają analogicznych umiejętności są dla niego nierozwiązywalne. Powód jest prosty: w danych treningowych znalazły się gotowe rozwiązania. Ten sam efekt uzyskacie wpisując treść polecenia w google. Ponadto jako model językowy kompletnie nie rozumie o czym pisze. Podczas generacji w każdej iteracji bazując na aktualnym kontekście zwraca prawdopodobieństwa wystąpienia następnych tokenów (subwordów), a potem losuje (pewnie jest tam jakiś bardziej zaawansywany algorytm przeszukiwania, ale i tak te z najwiąkszym prawdopodobieństwem będą najczęściej wybierane). Następnie wybrany token zostaje dodany do kontekstu. Zauważyliście pewnie, że ChatGPT nigdy nie powie, że czegoś nie wie, tylko będzie zmyślał jak podczas matury z polskiego. GPT4 to nie żaden przełom tylko po prostu brute force pod względem wielkości danych treningowych wsparty miliardami dolarów. Skoro już wytrenowali go na większości internetu, to co dalej? Moim zdaniem, by uzyskać AGI potrzebne będzie zupełnie nowe podejście do uczenia sieci. Przypominam, że parę lat temu był hype na samojeżdżące samochody i Tesle miały być autonomiczne już dawno temu. Tymczasem autopilot osiągnął swój peak i hype wygasł. Zaraz pewnie jakiś ekspert od AI, który jeszcze niedawno był specjalistą blockchaina się ze mną nie zgodzi no ale cóż." źródło https://wykop.pl/wpis/70866957/biedanonim-jako-kogos-zajmujacego-sie-ai-na-co-dzi
  6. Artstation nawet przed epoką AI było w duzym stopniu generyczne, wyrózniających sie prac nie jest wcale tak duzo. Sporo ludzkich twórców mających konta na AS działa podobnie jak AI (ale o tym nie wie, lub sie do tego nie przyzna)
  7. ja nie uwazam AI za SYF bo to po prostu technologia , jeden uzyje jej w gównianym celu a inny w bardziej ambitnym, obecne AI potrafi generować obrazki dobre jakosciowo ale samo w sobie jest dosyc prymitywne i mocno niedokładne w zakresie generowanie czegos innego niż to do czego zostałoprzeszkolone wiec jesli ktos chce wykorzystywać je w celach bardziej profesjonalnych to trzeba mimo wszystko sporo dodatkowej pracy. Łącząc jedno z drugim mozna wyjsc poza ograniczenia w/w generatorów. Dzisiaj przeglądałem internetowy sklep z ksiązkami , i w pewnym momencie zacząłem analizować okładki ksiązek pod kątem AI, wyszło mi ze jakies 20 procent mozna zrobic bez dodatkowej pracy, a jakies 80 procent z dodatową pracą grafika (przy duzym wykorzystaniu AI jako narzędzia)
  8. Ubisoft Ghostwriter to narzędzie SI do tworzenia dialogów i reakcji NPC. Producent pod ostrzałem krytyki Francuski producent i wydawca z dumą ogłosił stworzenie Ubisoft Ghostwriter, narzędzia, które ma pomóc w opracowywaniu nowych gier. Sztuczna inteligencja będzie odpowiadać między innymi za dialogi i reakcje bohaterów niezależnych, jednakże jej przedstawienie nie spotkało się z entuzjastycznym przyjęciem. Oddział badawczo-rozwojowy Ubisoftu na czele z Benem Swansonem (R&D Scientist w La Forge Montreal) opracował Ubisoft Ghostwriter, czyli wewnętrzne narzędzie, które nie zastąpi scenarzystów, jednakże odciąży ich w „jednym z najbardziej czasochłonnych zadań”, czyli w przygotowywaniu szkiców fraz lub reakcji wydawanych przez postacie niezależne podczas rozmaitych zdarzeń w grze. Ubisoft wie, że rozmowy z tłumem, bądź też różne reakcje NPC-ów pozwalają jeszcze mocniej zagłębić się w grze – wszystkie sytuacje, kiedy widzimy dyskutujących ze sobą bohaterów, wypowiedzi podczas walki czy wymiany zdań dostrzeżone po wejściu do danego obszaru zapewniają „bardziej realistyczne doświadczenie świata”, dzięki czemu gracz ma wrażenie, że rozgrywka nie jest skupiona wyłącznie na nim. „Oba te rozwiązania wymagają jednak od scenarzystów czasu i kreatywności, który mogliby poświęcić na inne kluczowe elementy fabuły. Ghostwriter umożliwia zaoszczędzić ten czas, ale nadal pozwala scenarzystom na pewną kontrolę twórczą”. Ekipy Ubisoftu będą mogły korzystać z „pierwszych roboczych próbek” tekstów wygenerowanych przez SI, które podczas kolejnych sesji będą już dopracowywane i dostosowywane przez deweloperów. Inicjatywa posiada obiecujące założenia o możliwości dopasowania rozwiązania do potrzeb każdego zespołu koncentrującego się na konkretnej grze. „Dzięki przyjaznemu interfejsowi i procesom oraz potężnej infrastrukturze AI, scenarzyści, którzy zdecydują się włączyć tę technologię do swojej produkcji, będą mogli w końcu zwiększać swoje gry, być bardziej ambitni w swoich projektach narracyjnych, a wszystko to przy zachowaniu pełnej kontroli nad pracą”. Inicjatywa nie spotkała się jednak z optymistycznym przyjęciem części graczy. Ich zdaniem gigant branży przygotowuje narzędzie, dzięki któremu będzie mógł zwolnić scenarzystów, co bezsprzecznie niekorzystnie wpłynie na stan tworzonych pozycji. „To na pewno zaoszczędzi scenarzystom czas, który większość z nich będzie potrzebowała na znalezienie innej pracy. Ubisoft naprawdę dba [o swój kurs akcji]”. „To do czego posuną się ludzie, by nie płacić scenarzystom jest zdumiewające”. „Nieprzerwany ciąg złych decyzji Ubisoft jest w tym momencie imponujący”. „Ubisoft wyróżnia się w jednej rzeczy, w której nie jest zły - podejmowaniu złych decyzji. Gratulacje!” „Wow, co za niesamowity i porywający kawałek technologii AI! Mam nadzieję, że korporacyjni oligarchowie AAA nie wykorzystają jej do podcinania skrzydeł prawdziwym autorom gier wideo i wypychania ich z tego medium, pozostawiając ich całkowicie bez pracy, głodujących i rujnujących jakość gier w tym procesie!” „Wow! Narzędzie, które pomoże sprawić, że Ubisoft będzie pisał jeszcze gorzej niż pisał! Co za niewiarygodna innowacja”. „Wyobraź sobie publiczne ogłoszenie, że twoje studio stało się leniwe i właśnie zwolniło 75% swoich zespołów pisarskich”. „Oczywiście tylko Ubisoft mógł pomyśleć o chwaleniu się tak bezlitosnym narzędziem, zarząd jest tak bezlitosny, że nie zauważa tych oczywistych rzeczy”. zrodlo
  9. czyli reaguje podobnie jak MJ, wielbicielom tworzenia bez cenzury pozostaje SD
  10. Odpaliłem ten generator Bing-a i jako pierwsze prompty do testów wpisałem: nice ass in the morning light tak jak podejrzewałem zamiast ładnego tyłka w porannym świetle dostałem black screen z ostrzeżeniem czyli apka do bani 🤭
  11. własnie dostałem maila od Adobe o treści: Chcieliśmy, abyście jako pierwsi dowiedzieli się, że firma Adobe przedstawiła Adobe Firefly nową rodzinę kreatywnych generatywnych modeli sztucznej inteligencji. Początkowy nacisk Firefly na obrazy i efekty tekstowe jest teraz dostępny w wersji beta na firefly.adobe.com . Pierwszy model Firefly jest szkolony w zakresie obrazów Adobe Stock, treści na otwartej licencji i treści należących do domeny publicznej, do których wygasły prawa autorskie, i jest przeznaczony do generowania obrazów bezpiecznych do użytku komercyjnego. W fazie beta zasoby wygenerowane przez Firefly nie mogą być wykorzystywane do celów komercyjnych. Inwestujemy w generatywną sztuczną inteligencję, aby pomóc twórcom zmienić sposób, w jaki wyobrażają sobie i badać możliwości. Zależy nam na odpowiedzialnym rozwoju generatywnej sztucznej inteligencji, z twórcami w centrum. Dzięki wysiłkom takim jak Content Authenticity Initiative opowiadamy się za odpowiedzialnością, odpowiedzialnością i przejrzystością w generatywnej sztucznej inteligencji. Opracowujemy model wynagrodzeń dla dostawców Giełdy i udostępnimy szczegóły tego modelu, gdy Firefly wyjdzie z wersji beta. Możesz przeczytać więcej o naszym ogłoszeniu tutaj . Więcej informacji na temat wersji beta Firefly można znaleźć w często zadawanych pytaniach . Pozdrawiam, Matthew Smith, wiceprezes Adobe Stock, Marketplace i społeczność
  12. OldMan

    AI tests

    mozesz spróbowac te wersje https://github.com/EmpireMediaScience/A1111-Web-UI-Installer
  13. OldMan

    AI tests

    nie sądziłem ze to bedzie mozliwe z tak padackiej jakosci a jednak , odpowiednio przeszkolony model AI np "4x_eula_digimanga_bw_v1_860k" jest w stanie odbudować znaczną część punktów rastra w komiksie https://slow.pics/c/lp9O3GnZ (klikając myszką na obrazku przełączamy sie pomiedzy oryginałem a obrobionym) wystarczy go sciągnąć z netu stąd https://upscale.wiki/wiki/Model_Database zainstalować CHAINNERA https://github.com/chaiNNer-org/chaiNNer/releases i odpowiednio skonfigurować (tutki są na jutubie)
  14. OldMan

    AI tests

    ten artykuł to są takie ogólniki (ale wrzuciłem dla formalnosci) w rzeczywistosci w zaleznosci od tego jak sie rozmowa potoczy robienie w ten sposób moze zająć wiecej czasu niz tradycyjnie
  15. wracając do tabletów, mam w domu dwa tablety (duży wacom intuos 3 (A4) i mniejszy wacom bamboo kupiony duzo pozniej) pierwszy ma bardzo gładką powierzchnię (imho za sliską nieco) a drugi (bamboo) ma powierzchnię która stawia wiekszy opór (bardziej mi to odpowiada) jak to wygląda w innych tabletach z jakimi mieliscie do czynienia (nowsze wacomy, wacomy z ekranem i bez, xp-peny i hujony)
  16. Pytanie dla ludzi od 3D , czy to prawda że z roku na rok zarabia się coraz mniej na 3D (może nie w każdej dziedzinie ale uśredniając) lub mówiąc nieco inaczej , czy to prawda że z roku na rok żeby zarobic te same pieniądze trzeba wykonac duzo więcej roboty dla klienta.
  17. miałem rózne karty (takze takie które w momencie kupna były topowe i nigdy nie piszczały , zasilacze zawsze miałem topowe) nie wiem moze mialem szczescie
  18. Ciekawe jest to że nie mialem nigdy karty która piszczała , obecnie mam GeForce RTX3060TI Aorus Elite, moze to kwestia zasilacza jak niektórzy twierdzą (mam Seasonic FOCUS GX-850 GOLD )
  19. Matko Bosko !! 😲 ta twarz wygląda jakby grafik usiadł pierwszy raz w zyciu przed programem 3d i próbował zrobić jakąś głowe z tutoriala , te oczy, te usta ...już zapomniałem że to tak wyglądało ehhh to były czasy
  20. OldMan

    Demoscena

    jakiś geniusz kodowania na Amige napisał engine 3D na gołą Amigę 1200 bez akceleratora 😲 https://youtu.be/7QzU89LVMHA?t=53 warto też przeczytać całą dyskusje (od początku do końca ) na ten temat tutaj (gosc stosuje sporo sztuczek optymalizacyjnych i szuka ludzi do pomocy zeby zrobic z tego cos wiecej niż tech demo) https://eab.abime.net/showthread.php?t=113573
  21. z ciekawosci zrobiłem na szybko test porównawczy TOPAZ PHOTO AI vs CODEFORMER ORYGINAŁ CODEFORMER (fidelity 0) CODEFORMER (fidelity 0.7) - ustawienie domyślne aplikacji CODEFORMER (fidelity 1 - w ustawieniu 1 program stara sie zrobic jak najbardziej podobne zdjecie do oryginału ) TOPAZ PHOTO AI (domyslne ustawienia z włączonym FACE ENCHANCE) ORG + CODEFORMER (fidelity 1) + TOPAZ PHOTO AI obok siebie subiektywna opinia: - włosy minimalnie lepsze w codeformerze - odcień skóry bardziej wierny oryginałowki w topazie - oczy i brwi odrobine wyrazniejsze w codeformerze - wydaje mi sie ze detale twarzy i skóry lepiej wypadają w topazie - bardzo widoczna granica działania rekonstrukcji (na kołnierzu) w TOPAZIE, dodatkowo niepotrzebne rozmycie ubrania poza twarzą w obszarze działania rekonstrukcji w TOPAZIE test oczywiscie nie jest miarodajny , trzeba by przeprowadzic wiele porównań na setkach zdjęc w roznej jakosci i rozdzielczosci by wyciągnąć sensowniejsze wnioski
  22. Jesli dobrze pamietam tego typu upscalowanie/rekonstruowanie twarzy jako pierwsze w usłudze online na rynku pojawiło się w serwisie myheritage , moze w tym szalenstwie jest metoda (chodzi mi o to że byc moze ktos pomyslał, skoro ludzie lubię trzymac zdjęcia przodków (których nikt na oczy nie widział lub nie pamieta (np jakaś prababcia itp) to zaoferujmy im usługę ulepszania takich zdjęć Co do samego efektu wynikowego (w przypadku zdjęć w niskiej bardzo rozdzielczosci) to mysle ze jest on uzalezniony od tego na ile twarz rekonstruowana była realu podoba/niepodobna do zdjęć uzytych przez firmę do uczenia/tworzenia modelu obliczeniowego Pamietaj też że jesli informacji jest zbyt mało czyli zdjęcie bedzie zbyt rozmyte lub zbyt zniszczone to program w magiczny sposob nie domysli sie jak mają wygląda oczy dziadków (bo nie ma z czego) pokaze na przykładzie przygotowałem taki oto plik testowy efekt po obróbce CODEFORMER W PS-ie też już jest podobnie działająca technologia no i oczywiscie TOPAZ (Topaz Photo AI, lub TOPAZ Gigapixel )
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności