Skocz do zawartości

OldMan

Members
  • Liczba zawartości

    407
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    7

Zawartość dodana przez OldMan

  1. To ty nie rozumiesz że AI to jest tool o zajebistych mozliwosciach, jeden wygeneruje sobie całą prace przy jej uzyciu i sie bedzie z tego cieszył (tak jak ktoś sie cieczy ze zrobionego przypadkiem ładnego zdjęcia) a inny uzyje go w bardziej zaawansowany sposób.
  2. Tak drukowałem, moja praca przez wiele lat polegała na przygotowaniu rzeczy do druku (pracowałem w drukarni offsetowej i fleksograficznej i przygotowalni fleksograficznej) jakbyś przejrzał ten wątek to sam byś zobaczył że czesto sam pisze o ograniczeniach jakie ma obecnie ta technologia (sam wiele razy pisałem że ograniczeniem jest rozdzielczosc) i tak srednio co 3-4 strony wyskakuje w dyskusji jakiś rodzynek i pisze "aleeee rozdzielczosc" (wtedy ja pisze że już o tym rozmawialismy) i tak w kółko 😊 Do formatu A3 to co generują obecne silniki MJ i SD (zakładając 300 punktów na cal papieru) jest całkiem dobrze stosując odpowiednie upscalery, np do wielu rzeczy świetnie sprawdza się Real ESGRAN x4plus (w trybie real-life)
  3. hahahaha jesteś bezbłędny w swoim rozumowaniu 😂 To tak jakbyś wszedł na wątek poświęcony Z-Brushowi i napisał O czym mozna tu mowic? Ktoś wrzucił pierdylion przykladow no ale co z tego wynika wszystkiego? Jest program do rzezbienia. I? Co dalej? Beda nowe testy wrzucane i mozna powiedziec najwyzej "no spoko" albo w ogole nic bo nie bardzo jest co. 🤭 Nezumi Nezumi po raz kolejny 😎 - wątek o testach jest wątkiem o testach , pojawia sie nowy ficzer w SD to go komentuję i tyle, wszystko rozwija sie dosyć szybko (przynajmniej na tym początkowym etapie)
  4. "kretynskie" bo sie same zrobiły to kretyńskie? a jak człowiek zaingerował to juz nie kretyńskie tak? skomentuję to tak: hahahahahahaha 😂 masz tutaj najbardziej podstawową galerie MJ (przypominam że MJ to taka łopata, w wiekszosci przypadków wpisuje sie prompty i brrrrr wylatuje obrazek) https://www.midjourney.com/showcase/top/ wiele z tych obrazków mogłoby spokojnie wisiec w galerii i sam bys sie nad nimi spuszczał jakie są OH i AH jakby były podpisane nazwiskiem człowieka ale nie są wiec nimi gardzisz 😂 ja ci powiem jak będzie choć pewnie ci sie to nie spodoba AI z nami zostanie, "artysci" będą mieli ból dupy a potem sie przyzwyczają tak jak malarze przyzwyczaili sie do istnienia fotografii a sprzedawcy koni przyzwyczaili sie do istnienia samochodów i traktorów, proste
  5. dobrze prawisz ale ja ci powiem o co kaman to jest forum dla grafików , co drugi sie uwaza za "artystę" a tacy reagują bardzo emocjonalnie 🤭 Gdyby tp była rozmowa na temat uzycia AI w jakiejs innej dziedzinie byłoby duzo spokojniej, ale generowanie obrazków (w dodatku lepiej niz 80% ludzi na tym forum) paanie przecież to obraza majestatu 😅
  6. mamy to omówione (w skrócie wynika to z ograniczeń technologicznych bo to dopiero początek tej technologii) , w czasach 8 bitowego Atari i C-64 symulatory wyglądały tak Teraz wyglądają tak kazda nowa technologia ma swoją drogę i swoj progress co wymaga czasu
  7. w stosunku do czego niby są to argumenty? bo nie rozumiem 🤭 ...skoro Blender nie jest wiodący to wiodący jest jakis inny program na komputer ...skoro Kinect nie jest wiodący to jakis inny kontroler jest wiodący ...skoro Google glass miało opanować ale nie opanowało to jakies inne urządzenie opanowało (wstaw sobie tutaj np ulubioną firmę od smartfonów) jak jedziesz autem i włączasz nawigacje to wlasnie maszyny cie prowadzą, to maszyny a nie ludzie a dlaczego, ano dlatego ze robią to lepiej (szybciej i o wiele dokładniej niz ludzie) Tak samo jest z kazdą inną dziedziną, np tokarka czy frezarka CNC Cały swiat funkcjonuje dzieki maszynom i komputerom które powstały po to zeby robic cos szybciej i lepiej niz człowiek. W kazdej dziedzinie początki są trudne ale po jakims czasie wszedzie gdzie ma to sens bedzie stała maszyna doskonalsza w tym zakresie od człowieka lub po prostu szybsza lub tansza w utrzymaniu . Oczywiscie dalej będą ludzie którzy dla wlasnej przyjemnosci będą np malować czy tkać (nikt im tego nie zabroni ) ale masowo takie rzeczy będą produkowały maszyny (bo bedzie o wiele szybciej i taniej) najwybitniejszych efektów? co masz na mysli? rozwiń bo jestem niezmiernie ciekawy ☺️ uderz w stół a Nezumi się odezwie 😅
  8. jak powstawały pierwsze programy szachowe to leciały teksty że "komputer nigdy nie wygra z człowiekiem", smieje sie z tego do tej pory, tak samo bedzie ze "sztuką" i kazdą inną dziedziną bo wszystko mozna sprowadzic do odpowiedniej ilosci obliczeń na odpowiednio duzych zbiorach danych. Gdy ta chwila nastąpi podniesie sie lament i pseudoargumentacja ze ludzka sztuka to cos wiecej bo ten twórca to obciął se ucho wiec jego obrazy to SZTUKA!!! a tamten zginął bo był ćpunem i cierpiał na depresje wiec jego mroczne obrazy są "bardziej mroczne niż murzynska dupa w ciemną noc" i tym podobne bzdety. Zaś jesli chodzi o samą jakość obrazka (nie mam na mysli rozdzielczosci bo to ograniczenie wynika po czesci z ilosci pamięci podczas szkolenia modelu obliczeniowego) to powiem tak, srednio ogarniety "operator AI" moze wygenerować obrazki będące poza zasiegiem jakosciowym 80% grafików którzy uwazają sie za srednio-zaawansowanych, wiec ten ból dupy stąd sie po czesci zapewne bierze bo technologia najzwyczajniej w swiecie działa i działa dobrze (choc ma bardzo duzo ograniczeń póki co w zakresie generowanej tresci i kontroli nad tą trescią ) A gdy powstawnie prawdziwa sztuczna inteligencja (taka która rozumie to co widzi i w pełni rozumie to co sie do niej pisze) to juz wogole bedzie pozamiatane (kiedy to nastąpi? myslę ze nieprędko)
  9. Co rozumiesz pod słowem "jakość" w tym poście, bo jakość można bardzo różnie interpretować
  10. To prawda, mnie to interesuje od strony technicznej, bo to jest nowa generacja realtimowego retuszu (ciekaw jestem ile mocy to zjada i czy to obrabia serwer czy lokalnie) Oprócz w/w BOLD GLAMOUR z tych nowych filtrów TIKTOKA jest jeszcze TEENAGE FILTER , no powiem że całkiem grubo, oszukiwanie panów na portalach randkowych i kamerkach internetowych wchodzi w nową fazę 🤭
  11. jesli chcesz go wykorzystać do obróbki wideo lub obrazów to mozesz za pomocą tego programu (ostatnia wersja 3.99.01) ma dodaną obsługę RTX-Super Resolution https://github.com/AaronFeng753/Waifu2x-Extension-GUI/releases/tag/v3.99.01 ale nalezy pamietac ze to zostało zrobione by działać w realtime, bo jesli ktos wymaga lepszej jakosci to są lepsze sposoby, wg autora w/w programu "silniki skalujące" w jego aplikacji jesli chodzi o jakosc przedstawiają się w jego subiektywnej ocenie w ten sposób:
  12. czesc osób wie a częsc nie wie ale z "kronikarskiego obowiązku" 😉 wstawiam: cytat: Nvidia wypusciła nowe sterowniki GPU, które przeskalują stare rozmyte wideo internetowe na kartach RTX z serii 30 i 40. RTX Video Super Resolution to nowa technologia skalowania AI firmy Nvidia, która działa w przeglądarce Chrome lub Edge w celu ulepszenia dowolnego wideo w przeglądarce poprzez wyostrzenie krawędzi obiektów i redukcję artefaktów wideo. Nvidia będzie obsługiwać wideo w rozdzielczości od 360p do 1440p z częstotliwością odświeżania do 144 Hz i skalować do rozdzielczości 4K. To imponujące skalowanie do rozdzielczości 4K było wcześniej dostępne tylko w telewizorze Shield firmy Nvidia , ale ostatnie postępy w silniku Chromium pozwoliły Nvidii przenieść to do swoich najnowszych kart RTX z serii 30 i 40. Ponieważ działa to na każdym wideo internetowym, możesz go użyć do skalowania treści z Twitcha, a nawet aplikacji do przesyłania strumieniowego, takich jak Netflix, gdzie zazwyczaj trzeba dodatkowo płacić za strumienie 4K. Biorąc pod uwagę, że ta technika była już imponująca w telewizorze Shield, z pewnością zobaczymy wiele przykładów, w których można ją zastosować, aby poprawić stare i rozmyte filmy z YouTube. Nvidia od lat używa technik sztucznej inteligencji do ulepszania gier i filmów, przy czym najszerzej stosowany jest system Deep Learning Super Sampling (DLSS). Nvidia wypuściła również w zeszłym roku sterownik, który zawierał technologię Deep Learning Dynamic Super Resolution (DLDSR), aby renderować gry w rozdzielczości wyższej, niż może obsłużyć twój monitor, w celu poprawy jakości obrazu. Nvidia uruchomiła również w zeszłym miesiącu funkcję Eye Contact dla Nvidia Broadcast , która wykorzystuje sztuczną inteligencję, aby wyglądało na to, że nawiązujesz kontakt wzrokowy podczas rozmów wideo. koniec cytatu w skrócie napiszę: 1) robimy aktualizacje CHROME i EDGE (jesli ktos uzywa) 2) robimy aktualizacje sterowników karty 3) wchodzimy w panel sterowania nvidia Zaznaczamy opcje "UWYDATNIANIE OBRAZU WIDEO RTX" (są 4 stopnie) 4) wchodzimy w jutuba i odpalamy coś w rodzielczosci np 360p jak widać na obrazkach poniżej nawet 360p daje pewną poprawe jakosci Domyslam się ze efekt końcowy zalezy jest od : - rozdzielczosci natywnej filmu - tego czy film był kręcony analogowo czy cyfrowo i jak dawno temu (czystość obrazu) - uzytego kodeka i stopnia kompresji (nie tylko tej która jest na jutubie ale też tej którą mógł przejść po drodze wczesniej) Na razie sprawdziłem chrome i strony youtube oraz cda.pl ... w obu przypadkach działa
  13. artykuł z the verge Dlaczego TikTok nie potwierdzi, że filtr Bold Glamour to sztuczna inteligencja? TikTok wprowadził w zeszłym miesiącu nowe narzędzia AI do filtrów. Ale firma nie chce powiedzieć, czy wykorzystuje je jej nowy efekt Bold Glamour — a reakcja na filtr nie jest całkowicie pozytywna. Jeśli przeglądałeś TikTok w ciągu ostatniego tygodnia, prawdopodobnie widziałeś film, który wygląda mniej więcej tak: kobieta wygląda na zdumioną, gdy patrzy na swoją twarz w aparacie. Dotyka swoich ust, powiek, policzków, jakby zastanawiając się, czy części jej twarzy mogą być prawdziwe. „To wcale nie ja”, powiedział jeden z użytkowników . To dlatego, że w rzeczywistości twarz, której dotykają, nie jest tak naprawdę ich własną. Jest to wynik niezwykle imponującego nowego filtra twarzy o nazwie „Bold Glamour”, który zamiatał aplikację, a rzesze użytkowników filmowały swoje reakcje na to, jak wiarygodnie zmienia ich wygląd, czy to z fascynacją, zachwytem, czy wręcz przerażeniem. A relacje prasowe na temat filtra były naprawdę dzikie, a nagłówki odnosiły się do filtra jako „ wojna psychologiczna ” i „ przerażający ”. Reakcje są uzasadnione: Bold Glamour to jeden z najbardziej imponujących efektów TikTok do tej pory i wydaje się, że jest to pierwsze spojrzenie na to, w jaki sposób narzędzia oparte na sztucznej inteligencji mogą sprawić, że transformacje twarzy będą trudniejsze do wykrycia, a jeszcze lepsze w przekształcaniu wyglądu ludzi. Ale na razie TikTok ukrywa tajemnicę Bold Glamour — firma zignorowała wiele e-maili od The Verge z prośbą o potwierdzenie, że Bold Glamour używa sztucznej inteligencji, mimo że firma wprowadziła w zeszłym miesiącu nowy zestaw narzędzi do filtrowania sztucznej inteligencji dla twórców efektów . W aktualizacji z 22 lutego Effect House, swoich narzędzi do tworzenia filtrów, TikTok ogłosił, że twórcy efektów będą mieli teraz dostęp do kilku generatywnych efektów AI, które zmieniają rysy twarzy użytkownika w czasie rzeczywistym. Nowe efekty obejmują gumkę do brwi, efekt marszczenia ust i efekt uśmiechu, a twórcy z wczesnym dostępem stworzyli już filtry przy użyciu nowych narzędzi. W swoich przewodnikach dla twórców TikTok obiecuje, że efekty generatywne pasują do skóry użytkownika i są płynne. Techniki te różnią się od tego, jak większość efektów filtrów została wykonana do tej pory. Tradycyjne filtry zwykle pobierają obraz z kamery 2D i mapują twoją twarz na przesadzony model 3D, mówi Luke Hurd, konsultant rzeczywistości rozszerzonej, który pracował nad filtrami Snapchata i Instagrama. Efekty te mogą się wypaczyć lub zakłócić, gdy je zablokujesz, ponieważ nakładka 3D ma trudności z przyleganiem do układu twarzy. „To kamień milowy i wskaźnik dziwności świata post-rzeczywistości, który nas czeka” — mówi Memo Akten , adiunkt sztuki obliczeniowej i projektowania na UC San Diego Visual Arts, który podkreśla filmy pokazujące, jak dokładnie efekt zmienia twarze. Bold Glamour przekształca twarze użytkowników w sposób, jakiego oczekujemy od tradycyjnych filtrów „upiększających”, ale w znacznie bardziej imponujący sposób. Dodaje ostrego konturowania po bokach twarzy i nosa na matowej, równomiernej cerze. Brwi są bujniejsze i symetryczne. Usta są pełniejsze. Oczy mają błyszczące, szkliste spojrzenie — obecne, ale puste. Odkąd zyskał na popularności w zeszłym tygodniu, ponad 9 milionów filmów korzystających z filtra zostało już udostępnionych na TikTok. Ale pomimo tropów filtrów twarzy obecnych w Bold Glamour, użytkownicy TikTok zauważyli, że coś w tym efekcie jest inne. W przeciwieństwie do innych filtrów, które sprawiają, że twarz użytkownika wygląda jak rysunkowe rzęsy lub przesadny cień do powiek, modyfikacje Bold Glamour wydają się poruszać wraz z ludzką twarzą pod nimi, a nawet dostosowują się po nałożeniu na męskie twarze. A co najważniejsze, filtr prawie się nie zniekształca, gdy użytkownik kładzie rękę przed sobą, co jest częstym zjawiskiem w przypadku innych efektów twarzy. Hurd mówi, że Bold Glamour prawdopodobnie wykorzystuje technologie uczenia maszynowego – a w szczególności Generative Adversarial Networks lub GAN – aby dokonać tego imponującego wyczynu. „Mówiąc najprościej, sieci GAN zmuszają do walki na śmierć i życie dwie konkurujące ze sobą sieci neuronowe” — mówi Hurd. W przypadku Bold Glamour jest to rywalizacja między spojrzeniem kamery na twoją twarz a stylem, w jaki TikTok chce cię przemienić. „Ponieważ wykorzystuje cię, porównuje aspekty twojej twarzy z zestawem danych obrazów, które zaczynają pasować do twoich policzków, oczu, brwi, ust i innych”. Ostatecznie technologia łączy dwa zestawy obrazów w jeden. „Jeśli zrobimy to wystarczająco szybko, możemy osiągnąć liczbę klatek na sekundę wideo” — mówi Hurd. „A teraz mamy efekt następnego poziomu, taki jak Bold Glamour!” Hurd mówi, że istnieją inne efekty, które działają w podobny sposób, takie jak efekt „ nastoletniego wyglądu ” TikToka i efekty zamiany płci na Snapchacie . Ale powodem, dla którego Bold Glamour bardziej się wyróżniał, może być to, że jest mniej przesadzony. „Jest wystarczająco subtelny, aby nadal być sobą i być przekonującym”. Akten twierdzi, że technologia stosowana przez Bold Glamour nie jest przełomowa. „Technologie te rozwijają się szybko w ciągu ostatnich kilku lat”. Chociaż technologia sama w sobie nie jest nowa, uważa, że Bold Glamour jest tak imponujący dzięki inżynierii, która umożliwia wprowadzenie tej technologii na urządzenia mobilne w bardzo solidny sposób z minimalnymi usterkami. „Było to już możliwe na komputerach stacjonarnych przy użyciu oczywiście specjalistycznego oprogramowania (np. deepfake )”, mówi Akten. „Ale to wymaga specjalistycznego oprogramowania i pewnej wiedzy technicznej. Filtr TikTok działa na urządzeniu mobilnym, dostępnym dla miliardów ludzi, bez wiedzy technicznej, w czasie rzeczywistym i często (nie zawsze) wygląda całkowicie wiarygodnie”. Chociaż wielu użytkowników TikTok jest pod wrażeniem filtra Bold Glamour, wielu jest również zaniepokojonych tym, jak jeszcze bardziej płynne narzędzie do modyfikacji twarzy może wpłynąć na samoocenę i poczucie własnej wartości użytkowników. Spencer Burnham, twórca AR, który stworzył popularne efekty na TikTok i Instagramie, zauważa, że włączenie pewnego poziomu retuszu w filtrach – nawet jeśli nie są to wyraźnie efekty makijażu lub „piękności” – jest normą, a nie wyjątkiem. Nawet filtry żartów często mają pewien poziom edycji twarzy, na przykład wyrównanie wyglądu skóry lub rozmycie trądziku. Oznacza to, że niesamowite uczucie towarzyszące Bold Glamour to dopiero początek. Użytkownicy TikTok prawdopodobnie zaczną widzieć coraz więcej filtrów wykorzystujących sztuczną inteligencję, ponieważ nowe narzędzia generatywne zostaną otwarte dla większej liczby twórców. Burnham martwi się, że posiadanie zestawu potężnych narzędzi, które zmieniają wygląd użytkownika w czasie rzeczywistym, może być „wylęgarnią dysmorfii ciała”. „Docieramy do nowego miejsca, w którym nie tylko rozszerza się rzeczywistość, ale ją zastępuje. Trochę mnie to przeraża – mówi. Te odczucia zostały również powtórzone w TikTok przez osoby korzystające z tej funkcji. Joanna Kenny , była kosmetyczka, która teraz rzuca wyzwanie nierealistycznym standardom piękna swoim ruchem #poresnotflaws, powiedziała w filmie, że filtrowi udaje się wyglądać naturalnie, tworząc efekt, który nie przypomina jej. „Wykonałem wiele pracy, aby oduczyć się, że komukolwiek zawdzięczam urodę” — powiedział Kenny. Powiedziała, że filtr sprawił, że poczuła się „brzydka” po usunięciu efektu (oglądać do końca) Istnieje coraz więcej dowodów na to, że filtry te są szkodliwe dla zdrowia psychicznego ze względu na nierealistyczne oczekiwania, jakie stawiają w stosunku do obrazu ciała. Badanie wpływu filtrów na społeczeństwo przeprowadzone w 2021 r. przez naukowców z City, University of London wykazało, że 94 procent kobiet i osób niebinarnych czuło presję, by wyglądać w określony sposób, a 90 procent przyznało się do używania filtrów lub edytowania swoich zdjęć w inny sposób . Inne badanie z 2017 r. przeprowadzone w czasopiśmie Cognitive Research wykazało, że ludzie rozpoznają manipulację obrazem tylko w 60–70 procentach przypadków. Wyniki te prawdopodobnie nie będą zaskoczeniem dla platform mediów społecznościowych, które tworzą i wdrażają filtry upiększające. Raport z The Wall Street Journal z 2021 roku ujawnił, że Meta już w momencie publikacji była świadoma, że Instagram sprawił, że 1 na 3 nastolatki źle się czuły w swoim ciele, a nastolatki korzystające z aplikacji odczuwały wyższy poziom lęku i depresji. Na razie większość reakcji na Bold Glamour polegała na podkreśleniu, jak szalony jest ten efekt, zwracając uwagę na jego zastosowanie i transformacje. Ale ponieważ coraz więcej platform przyjmuje i ulepsza filtry oparte na sztucznej inteligencji, prawdopodobnie niedługo twórcy będą używać filtrów upiększających i innych kosmetycznych efektów edycyjnych, które są nie do odróżnienia od rzeczywistości. Jest duża szansa, że już są. źródło
  14. OldMan

    AI tests

    fajny retusz realtimowej grafiki workflow
  15. Wraz z nagłym pojawieniem się tanich, łatwych w obsłudze generatorów grafiki i tekstu opartych na sztucznej inteligencji, które zmieniają sposób, w jaki różne dziedziny kreatywne podchodzą do swojej działalności, kwestie etyczne i prawne dotyczące korzystania z pracy generowanej komputerowo stają się coraz bardziej powszechne i gorące. Wydawca RPG, Paizo, twórca Pathfinder i Starfinder , zajął twarde stanowisko przeciwko pracy generowanej przez sztuczną inteligencję, publikując posty w mediach społecznościowych i na firmowym blogu , zobowiązując się do „pracy profesjonalistów” i obiecując umowny zakaz grafiki i tekstu generowanego przez sztuczną inteligencję . Paizo, które w 2021 roku stało się pierwszą firmą zajmującą się grami fabularnymi, która zrzeszyła się w związek zawodowy , wcześniej zajmowało stanowisko zorientowane na twórców, w tym angażując się w prawną bitwę o licencję Open Game (OGL) , dzięki której Pathfinder i wiele innych inspirowanych Dungeons & Dragons możliwe gry i obiecując pomóc w stworzeniu i wsparciu „licencji niezależnej od systemu” typu open source, która mogłaby zastąpić OGL, jeśli właściciel Dungeons & Dragons, Wizards of the Coast, zmieni licencję. W nowych postach Paizo stwierdza, że zmienia swoje umowy, aby dodać język, aby zapewnić, że wszystkie treści są tworzone przez ludzi, a nie maszyny, i że planuje również zakazać pracy generowanej przez sztuczną inteligencję na swoich rynkach społecznościowych. W ciągu ostatnich kilku miesięcy świat odnotował ogromny wzrost zainteresowania, wykorzystania i jakości obrazów i tekstu generowanych przez algorytmy. Odkąd założyliśmy firmę w 2002 roku, Paizo wyrobiło sobie reputację dzięki pomocy niezliczonych tradycyjnych artystów i pisarzy, którzy są tak samo integralni z sukcesem naszych gier, jak nasi wewnętrzni redaktorzy, dyrektorzy artystyczni, projektanci i programiści. Kwestie etyczne i prawne związane z „sztuką sztucznej inteligencji” i pisaniem szybkich programów – oraz poważne zagrożenie, jakie stanowią one dla źródeł utrzymania partnerów, którzy pomogli nam dotrzeć do miejsca, w którym jesteśmy dzisiaj jako firma – wymagają zajęcia zdecydowanego stanowiska przeciwko używaniu tej technologii w produktach Paizo. W najbliższych dniach Paizo doda nowe sformułowanie do swoich kreatywnych umów, które zastrzegają, że wszystkie prace przesłane do nas do publikacji są dziełem człowieka. Ponadto dodamy wskazówki do najczęściej zadawanych pytań dotyczących programów Pathfinder i Starfinder Infinite wyjaśniające, że zawartość generowana przez sztuczną inteligencję nie jest dozwolona na żadnym rynku treści społeczności. Nasi klienci oczekują ludzkiego podejścia do naszych wydań i tak długo, jak etyczne i prawne okoliczności związane z tymi programami pozostają niejasne i nieokreślone, nie chcemy w żaden sposób kojarzyć naszych marek z technologią. Mówiąc wprost — kupując produkt Paizo, możesz być pewien, że jest to dzieło ludzkich profesjonalistów, którzy spędzili lata na doskonaleniu swojego rzemiosła, aby wykonać najlepszą możliwą pracę. Paizo nie będzie wykorzystywać „twórczej” pracy generowanej przez sztuczną inteligencję w dającej się przewidzieć przyszłości. Dziękujemy ludzkim artystom i pisarzom, którzy byli tak integralną częścią naszego sukcesu w przeszłości, i cieszymy się na współpracę z nimi przez wiele nadchodzących lat. Problem wykrywania grafiki i tekstu tworzonych przez sztuczną inteligencję nadal pozostaje aktualny, podobnie jak trudność moderowania zalewu nowych treści generowanych przez sztuczną inteligencję . W tej chwili oświadczenie Paizo dotyczy bardziej intencji i praw twórców niż wykonania. Ale biorąc pod uwagę toczące się obecnie rozmowy na temat tego, jak łatwo jest naśladować charakterystyczne style twórcze ludzkich artystów za pomocą sztucznej inteligencji, wyjście z bramki z mocną, konkretną polityką wysyła znaczący komunikat, który inne firmy prawdopodobnie również podejmą w bliska przyszłość. źródło
  16. OldMan

    AI tests

    mi nie pasuje twoja "konstruktywna krytyka" bo nie zauwazyłem zeby była konstruktywna (wystarczy poczytac posty) wracając do tematu: objasnienie "control net " w Stable Diffusion dla bardzo bardzo początkujących (nie wiem czy da sie prosciej) angielski w wiekszosci na poziomie łopata wiec automatyczny translator (jeśli ktoś nie panimaju) w zupełnosci powinien wystarczyć
  17. wszystko jest dla ludzi, jeden bedzie chciał zobaczyc jak to jest trzymać dłuto lub glinę w ręce a drugi odpali Z-Brusha wybierze pędzelek i też bedzie zadowolony jak coś wirtualnie udłubie , a jeszcze inny wczyta gotowy model i tylko kolorki pozmienia albo teksturki, są więc różne poziomy współpracy z maszyną w zaleznosci na ile ktoś jest ambitny lub cierpliwy lub na ile ma czas i co go kręci (np są ludzie którzy lubią oglądać filmy i jest ich bardzo duzo ale mniej jest ludzi którzy lubią robic filmy)
  18. OldMan

    AI tests

    inne wykorzystanie control net w SD (jest troche baboli ale jesli nie byłoby wymagań co do rozdzielczosci to efekt jest akceptowalny po retuszach) obrazek wejściowy/źródłowy po przetworzeniu
  19. OldMan

    AI tests

    Interesuje mnie ta technologia i dlatego dużo o nie czytam i pisze 😃 , wiec idąc dalej tym tropem - jakbym sie nie "jarał" 😎 to bym na to nie tracił czasu i nie udzielał sie tutaj a ty skoro sie nie "jarasz" to po co tutaj sie tak produkujesz "dużo i nie na temat" 🤭 to jest dla mnie niepojęte 😅
  20. OldMan

    AI tests

    hahaha przeciez ja sam czesto pisze co jest zle w wygenerowanych obrazach (jakbys czytał co pisze to moze byc zauważył 🤭 ), mylisz bóldupizm ze spokojną krytyką i analizą
  21. ciekawe jest to że prace wygenerowane przez AI są odbierane w wielu grupach ludzkich jako "maszynowe"a zdjęcia są uznawane za "ludzką sztuke" mimo iż do wygenerowanie zwykłego zdjecia trzeba duzo mniej twórczej pracy i wysiłku niz do wygenerowania naturalnie wyglądającego nie popsutego obrazka AI (oczywiscie wszyscy zdajemy sobie sprawe ze dobra artystyczna fotografia do duza ilosc pracy/doswiadczenia ale wiecie co mam na mysli) moze mechanizm za tym stojący jest po prostu kulturowym przyzwyczajeniem, bo jedna rzecz to nowość a druga nie (troche jak uznawanie w polsce alkoholu za coś normalnego i "zdrowego dla organizmu " a marihuany za coś duzo bardziej szkodliwego niż alkohol i prowadzącego do uzależnień (jakby alkohol nie prowadził do uzależnień) znalazłem nawet jeden mem nawiązujący do tematu
  22. OldMan

    AI tests

    wytłumacze w punktach skoro co niektórym do tej pory nie dotarło: 1) To jest wątek poswiecony testom AI 2) wszyscy zdajemy sobie sprawe z ograniczeń AI jakie są na chwile obecną (było wałkowane tyle razy) 3) Skoro jest to wątek poswięcony testom to wrzucam tutaj w postach poswieconych testom przede wszystkim surowiznę bez zadnej korekty (czyli to co zostało wyplute za 1 razem bez dodatkowych przebiegów (np inpainting) na np poprawienie dłoni czy innych elementów które mogły sie za 1 razem zle wygenerować. 4) jesli tworze posty nie poswiecone testom tylko wrzucam jakis obrazek z netu jako dodatek do wypowiedzi to wtedy jest duza szansa ze był on poprawiany za pomocą roznych metod (choc czasami zdarzy sie ze od razu sie wygeneruje prawidłowo , miałem tak całkiem sporo razy, niektóre modele obliczeniowe mają duzo lepszą anatomie niż bazowy SD) P.S. kompletnie nie ogarniam po co napisałes to co napisałeś, dla mnie to zwykły bóldupizm i tyle. Wątek poswięcony testom, posty poswięcone testom i nowym opcjom i mozliwosciom jakie pojawiają sie kazdego miesiąca a ten sie czepia juz chyba sam nie wie czego, że palce popsute, że cos sie zle wygenerowało 😅 bóldupizm w tym temacie zilustruję równie durnym ale jakże prawdziwym memem ☺️
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności