Skocz do zawartości
View in the app

A better way to browse. Learn more.

Max3D.pl

A full-screen app on your home screen with push notifications, badges and more.

To install this app on iOS and iPadOS
  1. Tap the Share icon in Safari
  2. Scroll the menu and tap Add to Home Screen.
  3. Tap Add in the top-right corner.
To install this app on Android
  1. Tap the 3-dot menu (⋮) in the top-right corner of the browser.
  2. Tap Add to Home screen or Install app.
  3. Confirm by tapping Install.

Oldman

Members
  • Rejestracja

  • Ostatnia wizyta

Zawartość dodana przez Oldman

  1. tez mialem takie momenty , ale potem okazało sie ze to są na szczescie tylko momenty (na szczescie dla niektórych i na nieszczescie dla innych 😆) z AI to jest totalna loteria, są ultratrudne rzeczy (trudne np dla człowieka) które AI przypadkowo zrobi zajebiscie dobrze by potem położyc sie całkowicie na jakiejsc banalnej korekcie. Nie ma powtarzalnosci czesto mimo zastosowania tego samego sposobu (model AI, prompty itd) czyli traktując serie obrazków tym samym AI z tym samym modelem obliczeniowym i tym samym poleceniem mozemy dostac zróznicowane wyniki na wyjsciu lub czasami zadnych wyników (co sie czasami zdarza np w Gemini Banana ) Sprawę utrudnia też sam mechanizm podawanie instrukcji dla AI czyli prompty, ludziom sie wydaje ze AI rozumie te polecenia, ze rozumie słowa jakie sie pisze w promptach, ale to nie do końca tak jest. Być moze jest na to jakis fachowy termin, ale każde słowo użyte w promptach ma coś co ja nazywam promieniowaniem znaczeń i powiązań. Jesli przykładowo w jakims AI uzyjemy polecenia "zmień ten Kobiecie włosy na takie jakie ma Joker z Komiksu" to Ai moze przykładowo zmienić jej włosy, zmienić jej twarz (dodać makijaż Jokera) albo dodatkowo zmienić jej ubranie na fioletowe . To jakie zajdą dodatkowe niechciane zmiany zalezy od tego jak szkolony był model, na jakim silniku AI to wszystko hula itd. I te promieniowanie powiązań i znaczeń moze byc tym silniejsze im bardziej popularna jest postać do której odnosi się słowo kluczowe lub/a także od tego czy model AI był szkolony z uzyciem duzej ilosci danych dotyczących słowa kluczowego. To brzmi troche jak bełkot ale uzywając roznych AI obserwowałem to zjawisko. Byc moze ono z czasem zostanie całkiem wyeliminowane. To wszystko powoduje ze uzywanie AI to jak jazda na narowistym byku który ma łyżwy po lodowisku. Totalny chaos i czasami coś wyjdzie (co akurat chcemy lub coś co jesteśmy w stanie zaakceptować)
  2. mnie ostatnio rozpierd**a inwazja gównofilmików (shortów) zrobionych przez AI na róznego rodzaju platformy (Youtube Shorts, FB, TikSrak i inne), jak to niedawno ktos powiedział w necie "takie treści są jak niesmaczne hot-dogi które wpychane są do twoich ust podczas przeglądania internetu", istna plaga prostująca zwoje mózgowe, twórcy przescigają się chyba w konkurencji kto zrobi głupszy filmik, kiedys oczywiscie tez powstawały głupie filmiki (robione tradycyjnie) ale teraz w erze AI kazdy mozne sobie to robic w ilosciach hurtowych i gówno wybiło korek https://www.youtube.com/shorts/KQUMsO8FSBY https://www.youtube.com/shorts/m1QisK8GGHE
  3. - ponad połowa rzeczy zamieszczanych np na artstation przez ludzi i robionych przez ludzi a nie przez AI to gówno i niewiele sie od wygenerowanych rzeczy przez AI różni (te same generyczne hełmy i pancerze z mnóstwem bezsensownego detalu, te same generyczne panienki z duzymi cyckami i mieczami w stylu ze jak widziałeś jedną to widziałeś juz wszystkie) - wiele obrazów malarskich w galeriach zrobionych przez "artystów" to gówno wyglądające jak wyplute przez AI - wiekszosc obecnej nowej muzyki to gówno wyglądające jak z generatora AI (np Suno) - większosc filmów zrobionych przez ludzi jakie trafiają do kin wygląda jak zrobionych z "generatora kasowych filmów" , w kółko te same ujęcia, te same dzwieki, te same schematy fabularne, te same dialogi. Ai to tylko slepe i jeszcze prymitywne narzedzie , jesli bedzie uzywane bezmyslnie to nic ciekawego nie powstanie, moze byc pomocne w pewnych okreslonych sytuacjach ale wymaganie od prostego miksera tysięcy zdjęć i artworków (bo tym defacto jest) zeby tworzyło arcydzieła jakis swiat nie widział to naiwność i głupota (to jeszcze nie ten etap o ile wogole to nastąpi bo nie wiadomo w jaką strone pojdzie technologia oraz szeroko rozumiana kultura i sztuka która już zjada własny ogon i to nawet bez pomocy AI)
  4. przez to że AI potrafi generować pewne style w miare szybko to niektóre style stały sie "modne", kliencie wybierają takie style bo im sie to podoba nakręca koło i powstają kolejne modele AI które obsługują takie style . To nie tak ze AI robi tylko gówno, Ai mogłoby robic rozne rzeczy np zamiast tej dziewczynki w okularach moglaby byc fotorealistyczna dziewczyna jakiej byscie nie odróznili od realnej ale nie problem w tym ze AI nie umie bo umie tylko problem w tym ze to ludzie swoimi wyborami , swoim gustem pchają AI w pewnych kierunkach. Dlatego wszedzie teraz na opakowaniach plakatach pełno stylizacji np z Pixara czy Disneya bo ludzie decydują i bo im sie to podoba (Ai samo w sobie nie jest temu winne to tylko narzedzie)
  5. Obserując zastosowanie AI w szeroko rozumianej grafice widze pewną analogię do tego co działo sie z fotografią , dawno dawno temu gdy klient chciał zamówic zdjęcie jakies to szedł do fotografa bo kupic nie było jak a nawet jesli to fotografia stockowa była mniej rozwinieta niz jest teraz i zasobów było duzo mniej. wiec klient szedł do fotografa robił sobie sesje płacił konkretną kase i miał. Nastepnym etapem było rozwiniecie fotografii stockowej i ewolucja modelu biznesowego (oprócz sprzedawania na sztuki doszedł tez subskrypcja roznego rodzaju i inne wynalazki (np podział zdjęć na zdjecia pro i na zdjecia free) wiec czesc klientów którzy kiedys płacili grubszą kase mogła sie teraz zadowolic zdjeciami stockowymi (o ile te pasowały do ich wymagań) Generalnie podział był z grubsza prosty: -chciałeś cos konkretnego dedykowanego oryginalnego to szłes do fotografa -chciałeś cokolwiek byleby pasowało od biedy do twoich potrzeb to szłeś do sklepu stockowego Podobny schemat widze teraz w zastosowaniu AI - Gdy zadanie jest bardziej ambitne i wymagające (lub budzet na to pozwala) to sięga sie po "prawdziwego grafika " - Gdy ma byc "cokolwiek" czyli zadanie nie jest wymagające ale ma byc szybko i tanio i duzo to sięga sie bardzo czesto po AI (np zaprojektowanie mnóstwa zapętlonych tekstur kwiatowych z zastosowaniem do nadruku na torebki papierowe do prezentów) I robią to coraz czesciej zarówno graficy freelancerzy jak i firmy. Oczywiscie drugą stroną medalu jest potem poprawianie tego co AI wyprodukowało (a z tym bywa różnie i nie zawsze łączny czas przygotowania wszystkiego po zsumowaniu z poprawkami bedzie sie opłacał) Duzym minusem jaki widzę w przypadku inwazji AI w grafikę to drastyczne obiżenie progu wejscia w te branzą dla ludzi którzy wpadli na pomysł by zostac grafikiem, taki proces przy zastosowaniu AI odbywa sie coraz czesciej po łebkach i bez znajomosci podstaw (rysunek, anatomia, digital painting, edycja zdjęć itp) i potem to co zrobi taki swieżo upieczony wannabie grafik jest trudne w dalszej edycji (w przygotowaniu np do druku), ponizej przykładowy komentarz sytuacji (z internetu) jesli nie zalezy nam (i klientowi) na konkretnym stylu i detalach oraz trafi sie klient który nie jest marudny i upierdliwy to koloryzacja za pomocą AI prostszych kompozycyjnie obrazków moze byc przydatna faktycznie (oczywiscie nie wrzucałbym czegos takiego sobie potem do portfolio bo to obraza majestatu by była 😅 ). Pozatym mozna w ten sposób wspomóc się i np traktować taką koloryzację jako wstęp do dalszej manualnej pracy (oczywiscie w pewnych sytuacjach ) lub potraktować taką koloryzacje jako testowy koncept (mozemy potem generować inne warianty kolorystyczne )
  6. ja sie czasami wspomagam AI ale za kazdym razem to jest totalna loteria, np wczoraj musialem wyedytować zdjecie bo Pani chciała zeby zamienić na zdjeciu brzydkie budynki na takie jak są np w Toskanii i zeby były kolorowe, robienie tego ręcznie to katorga i ogromna ilosc czasu bo zdjecie to była panorama a nie jeden budynek. Więc w ruch poszło Ai, troche to trwało zanim wyszło jako tako bo na początku budynki nie trzymały skali w stosunku do reszty (ale co ciekawe perspektywe nawet niezle uwzględniał) , gorzej poszło z kolorami (próba wyedytowania kolorów elewacji ogólnie za pomocą AI okazała sie fiaskiem, AI nie kumało promptów , a ja nie mialem czasu by zaznaczac ręcznie i pokazywac "ten mi zrób zielony" a "tamten niebieski"), z mojego doswiadczenia wiem ze AI to jest totalna loteria , moze zrobic czasami cos co ręcznie byłoby czasochłonne i przyspieszyc proces jako narzedzie wspomagające ale gdy chcemy cos zmienic poprawic to juz roznie z tym bywa i rzadko kiedy dostajemy to co konkretnie chcemy, raczej jest to na zasadzie "no dobra to nie to co chciałem ale nie mam juz siły i czasu wiec niech bedzie" Ale są rzeczy w ktorych AI potrafi byc pomocne na co dzień i oszczedzać czas, np uzupełnianie lub zmienianie zdjęć (jesli ktos duzo pracuje ze zdjeciami i czesto robi takie korekty to AI moze drastycznie przyspieszyc prace)
  7. sledziłem przez jakis czas te apke czekając na wersje natywną pod WIN (bez emulacji) az w końcu zapomniałem, a tu prosze taki news. zajebiscie, odpaliłem demo , w koncu na windowsa swietny relaksujący program do sculptingu o intuicyjnej obsłudze i względnie niskim progu wejscia.
  8. Podczas skrollowania jutuba trafilem na taki oto filmik pewnej ilustratorki z Polski (jest też sekcja komentarzy pod filmem) https://www.youtube.com/watch?v=ccJWJp2Ve-E i w sumie z wieloma wnioskami powiedzanymi w filmie sie zgadzam (ale nie ze wszystkimi) a co do konkursu to jest byc moze to była zwykła ustawka (jak to czasami z konkursami bywa) ale nie wykluczone ze faktycznie mogło sie tak stać jak to zostało opisane.
  9. obejrzałem rendery jakie to produkuje i stwierdzilem ze to straszne gówno jest i szkoda o tym wspominać wiec usunąłem wypowiedź zanik ktos odpisał (tzn takie było założenie)
  10. wydaje mi sie ze banana aka gemini jest bardziej szkolone pod kątem zdjęc i ich manipulacji a prace nad szeroko rozumianą grafiką została dołożona dodatkowo ale juz z mniejszym stopniu, są duze problemy np z okreslonymi stylami malarskimi (pod tym względem taki MJ bije go na głowę) ale za to lepsze rezulataty są przy interpretacji rysunków wejsciowych (Gemini lepiej niz inne AI odgaduje co jest na rysunkach i gdzie np kończy się dłoń a zaczyna kapelusz.)
  11. Podobne problemy do powyższego wystepują np przy przetwarzaniu i ponownej koloryzacji gotowych ilustracji, czasami uda sie je obejsc a czasami nie. przykład zabawy dzisiejszej, znalazlem taką ilustrację która mi sie spodobała i chcemy ją przerobic zeby wyglądała bardziej jak malarstwo cyfrowe i zeby postać była bardziej przestrzenna Po próbie zmuszenia AI do tego biorąc jako załącznik powyzszy obrazek uzyskałem nie to co chciałem (załącznik ponizej) w zasadzie niewiele sie zmieniło poza lekkim wygładzeniem faktur no to pomyslalem sobie to moze spróbuje inaczej, usunąłem kolor z obrazka początkowego całkowicie i wgrałem go jako odnosnik i napisalem te same polecenie i w efekcie otrzymałem cos juz bardziej zbliżonego do tego co chcialem uzyskać: Esksperymentalnie poprosilem jeszcze o wersje bardziej zblizoną do grafiki 3d dodając ponownie załącznik w odcieniach szarosci i otrzymalem cos takiego Pomyslalem sobie no moze nie jest to typowe 3D ale troche przypomina i zobacze co dalej da sie z tym zrobic, bardzo brakowało mi jeszcze nieco oswietlenia kierunkowego zeby zaznaczyc bryłe wiec poprosilem o swiatło słoneczne z góry i nieco bardziej przezroczystą wode ale nie dodawałem juz załącznika celowo tylko zostawilem bez załącznika wiec program odniósł sie do powyzszego obrazka , w efekcie otrzymalem cos takiego: Wiec tak mozna sie bawić w kolorowanie jesli obrazki są względnie mało skomplikowane pod kątem ilosci obiektów i przestawianej tresci . Więc przykładowo jesli ktos nie ma wymagań odnosnie stylu czy kolorystyki a z jakis przyczyn musi szybko pokolorować jakies szkice to to narzedzie faktycznie moze byc pomocne
  12. obrabiałem jakis czas temu jakies stare zdjęcie w Bananie dla testów (czyli próba odrestaurowania plus koloryzacja) nie było bardzo stare i nie było bardzo zniszczone , i napotkałem problem taki ze Banan nie chciał mi tego zdjęcie dobrze odrestaurować i pokolorować , to co wypuszczał wyglądało jak to samo co juz było tylko z lekkim odszumieniem i wygładzeniem , testowałem rózne prompty i nic. No to pomyslalem sobie, zrobie mały eksperyment, zabiedzę to zdjęcie jeszcze bardziej przed wgraniem go do Banana, dodałem więc niejednorodny szum o roznej granulacji i usunąłem resztki koloru. I stał sie "cud" 😅 zdjęcie zostało tak przetworzone jak chciałem i wyglądało naprawdę dobrze.
  13. no wlasnie, moze jest tak ze tam w obliczeniach związanych z promptami i ich analizą im dłuzej sie siedzi w projekcie tym większy smietnik sie robi i AI głupieje coraz bardziej i byc moze lepiej jest zrestartować projekt dodać na nowo załącznik i jechac od nowa. i jeszcze uczulam na jedną prostą sprawę bo nie każdy zwraca na to uwage i nie kazdy wie jesli przykładowo dodamy załącznik w pierwszym poleceniu (np czyjeś zdjęcie) i poprosimy o jakieś zmiany i zostaną one zrobione a w drugim poleceniu nie dodamy tego samego załącznika (bo np zapomnimy ) ale w promptach napiszemy zeby sie do niego odniósł to program (chyba zawsze nie jestem tego pewien) odniesie sie nie do poprzednio dodanego załącznika tylko do tego co zostało wygenerowane poprzednio (czyli jego obrazek zostanie poddany dalszym procesom AI, co moze prowadzic do coraz większej degradacji np twarzy) Oczywiscie czasami takie podejscie bedzie dla nas dobre i potrzebne ale trzeba miec swiadomosc jak to działa
  14. ta sytuacja jaką opisujesz niestety ma czesto miejsce w tym durnym Google gemini aka Nano Banana aka Gemini 2.5 Flash Image byc moze tylko mi sie wydaje ale czasami mam tak ze jesli na początku Banana nie skuma o co mi chodzi (czyli za pierwszym razem) to potem próba tłumaczenia mu dokladniej za pomocą promptów jest skazana na porażke i kolejne próby dają coraz gorsze efekty. W internetach piszą ze w przypadku Banana czasami lepiej jest zrobić cienkie kolorowe ramki w roznych kolorach na obrazku wraz z opisem słownym co chcemy zmienić i niz tłumaczyc w promptach (nie moge tego znalezc na przykładach ale gdzies na reddicie to było) dodatkowo czesto mam problem taki (w przypadku nano banana) ze dostaje taki sam wygenerowany obraz jak dostalem juz kiedys , nie wiem jak to zablokować ze stu procentową skutecznoscią. Czasami bywa tak ze prosze wyraznie zeby zrobił cos nowego zupełnie a on daje mi to samo co przed chwilą ale tylko zmienia kolor jednego obiektu. Sam silnik renderujący i korygujący zdjęcia jest chyba najlepszy na rynku (pod kątem zdjęc) ale moduł sztucznej głupoty która analizuje prompty jest chyba jednym z najgorszych
  15. ciekawi mnie ile w tym newsie jest prawdy https://www.ppe.pl/news/384519/narzedzia-ai-coraz-chetniej-wykorzystywane-do-tworzenia-gier-najnowsze-dane-szokuja.html
  16. zgadzam sie z tym co napisaleś , dokladniejsza pozniejsza edycja za pomocą promptów jest totalną loterią i stratą czasu i czesto prowadzi donikąd , ale przeglądając dzisiaj reddita trafiłem na coś takiego https://www.reddit.com/r/StableDiffusion/comments/1nn51kn/i_absolutely_love_qwen/ widze swiatełko w tunelu w zakresie "jakiejś tam kontroli i edycji obrazu"
  17. jest poprawa w zakresie jakosci wyników (w pewnych aspektach względem innych AI) ale samo "rozumienie" sie nie poprawia bo AI nie rozumie tego co tworzy tylko zgaduje na podstawie przeszkolonego modelu obliczeniowego , czasami zgadnie dobrze a czasami zle i trzeba mieć tego swiadomosc korzystając z takich narzędzi. Przykładowo wczoraj bawiłem sie w kolorowanie jednego szkicu (jakis fantasy rysunek panny z mieczem ) , testowałem na ile mozliwe jest nieco bardziej kreatywne działanie, napisze w skrócie jakie miałem przygody: 1) wrzucilem szkic do gemini i poprosilem o pokolorowanie, dostalem wynik ale kolory były zbyt płaskie (jak w starych komiksach), było to ładne ale nie o to mi chodziło, 2) wiec poprosilem o pokolorowanie w stylu farb olejnych detalicznym pędzlem, dostalem wynik który nie do końca przypominał olej (bardziej digital painting, ale byc moze po czesci wynikało to z rozdzielczosci wyjsciowej i jej ograniczeń) ogólnie efekt był fajny calkiem ale nie podobało mi sie oswietlenie (w sensie pora dnia i kierunek swiatła) 3) poprosiłem o to samo co w punkcie 3 wrzucając ponownie szkic do obliczen ale zeby oswietlenie było dramatyczne , wynik mi sie spodobał, był inny kierunek swiatła , obraz miał ciemniejszą kolorystykę (troche jak w czasie burzy) 4) Kolejny test, tym razem podladowalem inny obrazek dodatkowo i poprosilem o to zeby skopiował z niego styl, kompletna porażka, zupełnie mnie nie zrozumiał i pomylił obrazki 5) to samo co w punkcie 4 ale napisane inaczej , tym razem nie skopiował stylu ale nie pomylił obrazków, skopiował za to kolor włosów zamiast stylu 6) zarzuciłem próbe kopiowania stylu i wrocilem do tej dramatycznej wersji z pkt 3 ktora była całkiem niezła, poprosilem o dodanie swiatła konturowego z prawej strony w kolorze fioletowym. wynik był zbyt przerysowany intensywny 7) poprosilem wiec o złagodzenie efektu i zmiane koloru tego swiatła na żółty, wyszło całkiem dobrze ale robilem kilka podejsc kombinując z promptami było tego więcej ale juz nie bede pisał, podsumowując w mojej ocenie Ai nie rozumie (jak zwykle) tego co generuje (moze tylko trafnie zgadnąć) i poziom niezrozumienia jest w jakis sposób proporcjonalny do złożoności sceny , ilosci obiektów w scenie, oraz popularnosci danego obiektu/postaci w bazie danych, wiec jesli poprosimy o edytowanie przykładowo akordeonu (którego w przeszkolonym modelu moze byc mało) to bedziemy mieli wieksze problemy niz z edytowaniem/kreowaniem np samochodu jakiegos (którego w modelu moze byc duzo)
  18. na razie tylko bawie sie przez https://gemini.google.com/ raz miałem tylko w pracy zastosowanie dla gemini bo klient dostarczył grafikę która nie pasowała do wykrojnika a klient sie na nią uparł i trzeba było sporo dorobić zachowując styl , gemini poradziło sobie zaskakująco dobrze
  19. Pobawiłem się troche bananem i pod pewnymi względami to jest faktycznie game changer, a najwiekszym minusem i jednoczesnie ograniczeniem eliminującym to narzedzie dla pro zastosowań (no moze nie w kazdym przypadku) jest ograniczenie rozdzielczosci wyjsciowej, bufor obliczeń to prawdopodobnie 1024 na 1024 bo obrazki jakie wypluwa na to wskazują (niezaleznie od tego jak duze załadujemy), ale pomijając niską rozdzielczosc to program potrafi zaskoczyć, pare przykładów polecenie: pokoloruj mi ten szkic (zadnych dodatkowych promptów tylko jedno krótkie polecenie w tym przypadku) wynik: polecenie: pokoloruj mi ten szkic (zadnych dodatkowych promptów tylko jedno krótkie polecenie w tym przypadku) wynik: polecenie: pokoloruj mi ten szkic (zadnych dodatkowych promptów tylko jedno krótkie polecenie w tym przypadku) wynik: wynik nr 2 (polecenie: zmień porę dnia na zachodzące słońce ) polecenie: usuń napis BATMAN Wynik: polecenie: pokoloruj mi ten szkic wynik wynik nr 2 (Polecenie: pokoloru szkic (pora dnia: 8 godzina rano) Polecenie: zamień te ilustacje na rysunek ołówkiem wynik wynik nr 2 (tylko z poleceniem zamiany na lineart) wynik nr 3 (tylko z poleceniem zamiany na flat color) Polecenie: pokoloruj ten rysunek koncepcyjny wynik polecenie: pokoloruj ten rysunek koncepcyjny (czapka żółta, kombinezon zielony, buty białe) wynik: Polecenie: pokoloruj mi ten lineart wynik: Polecenie: usuń napis na 1 planie zachowując resztę wynik: Polecenie: pokoloruj szkic wynik wynik nr 2 (polecenie: pokoloruj szkic kredkami) wynik nr 3 (polecenie: pokoloruj farbami olejnymi grubszym pędzlem) Polecenie: pokoloruj ten szkic wynik: wynik nr 2 (polecenie: pokoloruj troche bardziej realistycznie ) wynik nr 3 (polecenie: pokoloruj troche bardziej realistycznie i ustaw światło słoneczne z lewej strony ) Oczywiscie nie zawsze jest dobrze, czasami są błędy a im bardziej złożona ilustracja tym wieksze prawdopodobieństwo popełnienia błędów (np w wskutek złej interpretacji szkicu przez AI)
  20. ANDROID.COM.PL - społeczność ent...Największy przełom modelu Google Veo 3 to nie jakość gene...Google Veo 3 zostało zaprezentowane na I/O 2025. Niby to model do generowania wideo, ale nie tu jest największy jego przełom.Podczas tegorocznej konferencji Google I/O firma zaprezentowała swoje najnowsze osiągnięcia w dziedzinie generatywnej sztucznej inteligencji. Największą uwagę przyciągnął Veo 3, pierwszy model Google zdolny do tworzenia wideo z dźwiękiem. To przełomowa funkcja, która pozwala AI nie tylko wygenerować obraz, ale również dopasować do niego odpowiednią warstwę audio – od śpiewu ptaków, przez odgłosy ulicy, aż po realistyczne dialogi zsynchronizowane z ruchem ust postaci. Veo 3 to pierwszy model AI Google zdolny do tworzenia wideo z dźwiękiem. Veo 3 - sztuczna inteligencja, która widzi i słyszy świat Google podkreśla, że Veo 3 nie tylko świetnie radzi sobie z tworzeniem realistycznych scen wideo, ale również rozumie zasady fizyki, co pozwala mu generować bardziej wiarygodne ruchy i interakcje w obrębie obrazu. Dodatkowo, funkcja lip-syncingu została znacząco udoskonalona i teraz AI potrafi dopasować ruchy ust do wypowiadanych kwestii z dużą precyzją. Obecnie Veo 3 jest dostępne jedynie dla subskrybentów Gemini Ultra w USA (w aplikacji Gemini), użytkowników biznesowych w ramach platformy Vertex AI oraz w nowym narzędziu filmowym Google, czyli Flow. Flow to rewolucja w tworzeniu filmów przez AI Flow to nowa platforma, która łączy możliwości modeli Veo, Imagen i Gemini, umożliwiając tworzenie kinowych scen i klipów na podstawie prostych opisów w języku naturalnym. Użytkownik pisze, co chce zobaczyć, a AI wykonuje resztę, od scenografii po efekty dźwiękowe. Nowa wersja Flow pozwala m.in.: -korzystać z referencyjnych zdjęć ludzi, obiektów i stylów, -kontrolować kamerę (obracać sceny, przybliżać obiekty), -zmieniać proporcje kadru (np. z pionowego na poziomy), -dodawać lub usuwać elementy ze scen. Na ten moment narzędzie jest dostępne tylko dla użytkowników Google AI Pro i Ultra w USA, ale Google zapowiada rychłą ekspansję na kolejne rynki. Imagen 4, czyli nowy poziom w generowaniu obrazów Równolegle Google zaprezentowało Imagen 4, najnowszy model do generowania obrazów. Jego największe zalety to nadzwyczajna precyzja w oddawaniu detali, takich jak faktury tkanin czy sierść zwierząt, umiejętność tworzenia realistycznych i abstrakcyjnych grafik, znacząca poprawa w renderowaniu tekstu i typografii oraz wsparcie dla różnych proporcji obrazu i rozdzielczości do 2K. Imagen 4 jest już dostępny w aplikacji Gemini, Vertex AI oraz w narzędziach pakietu Google Workspace, w tym w Docs i Slides. Wkrótce pojawi się także dziesięciokrotnie szybsza wersja Imagen 4 w porównaniu do poprzednika. SynthID Detector - sposób na weryfikację treści generowanych przez AI W dobie coraz bardziej realistycznych materiałów generowanych przez sztuczną inteligencję, Google uruchomiło również SynthID Detector, czyli specjalny portal umożliwiający sprawdzenie, czy dane zdjęcie lub wideo zostało stworzone przez AI. Wykorzystuje on technologię SynthID, czyli znak wodny osadzony w danych multimedialnych, który pozwala na identyfikację treści stworzonych przez modele Google. Choć Google udostępniło SynthID jako projekt open source, nie wszystkie generatory AI z niego korzystają, więc wykrywalność wciąż ma swoje ograniczenia. Mimo to, to istotny krok w kierunku większej transparentności i bezpieczeństwa w erze generatywnej AI. https://www.youtube.com/watch?v=Xy2VtdxqSJQ https://www.youtube.com/watch?v=Uw0Z6DZj534
  21. mnie osobiscie ten spidermen wymęczył strasznie, nic ciekawego nie widzialem w tej opowiesci a sam motyw multiversum i skakania po róznych versach w których mamy roznych spidermanów wydaje mi sie równie męczący jak bulletime w kolejny filmach po matrixie. Dodatkowo nie rozumiem tej durnej mody na zmniejszanie ilosci klatek (chodzi mi np o te sceny "akcji " które przez zastowany zabieg "klatkowania" są jeszcze bardziej męczące w odbiorze) jako ktos nie do konca rozumiał co mam na mysli to mała sciągawka: ----------------------------------------------------------------------------------------------------------------------------- Standardowa liczba klatek: Filmy animowane zazwyczaj są wyświetlane z prędkością 24 klatek na sekundę (fps). Animacja „on ones”: Każda z 24 klatek ma osobną, unikalną pozycję postaci – bardzo płynna animacja. Animacja „on twos”: Jedna pozycja postaci utrzymuje się przez 2 klatki – faktycznie 12 pozycji ruchu na sekundę – mniej płynna, bardziej „ręcznie rysowana” estetyka. Animacja „on threes” i dalej: Jeszcze mniej klatek na sekundę – bardziej stylizowana, „zgrzytliwa” animacja. Jak użyto tej techniki w „Spider-Man: Poprzez multiwersum”?Film słynie z bardzo świadomego, stylizowanego użycia klatkowania, które nie tylko wpływa na styl wizualny, ale też podkreśla cechy bohaterów i światów. Przykłady: Miles Morales – w pierwszym filmie (Spider-Man: Uniwersum) był często animowany „on twos”, a potem, gdy nabierał pewności siebie, zaczęto go animować „on ones”. To wizualna metafora jego rozwoju jako bohatera. Hobart „Hobie” Brown / Spider-Punk – jego styl to mieszanka różnych mediów: kolaż, zine’y punkowe, animacja „on threes” lub jeszcze mniej, zmieniana dynamicznie – totalna ekspresja chaosu i nonkonformizmu. Gwen Stacy – otoczenie zmienia kolory i intensywność w zależności od emocji, a jej animacja też jest zmienna, bardziej malarska, często stylizowana na akwarele i „on twos”.
  22. no i ludzie ciągle zapominają że przy uzyciu AI jest bardzo małe pole korekty lub nie ma go wcale, przykładowo jakas firma zrobi sobie clip gdzie za pomocą AI zrobi stado idących słoni na drugim planie (generując je setki razy by w koncu wyszły takie co mają najmniej błędów i ani jednej podwójnej trąby) a klient powie : o swietne słonie zajebiscie mi sie podobają to poprosze teraz zeby przysunąć kamere i ustawic ją nieco wyżej nad tymi słoniami bardziej nachyloną, i niech ten trzeci od lewej zamieni sie z tym co jest posrodku. A Prompterzy na to : przepraszamy ale sie tak nie da. Klient: jaja sobie robicie jak to sie nie da? I tak to jest narazie z tym AI.
  23. Ten guybrush wyszedł całkiem niezle (jak na AI) zwłaszcza biorąc pod uwage jakość danych wejsciowych ja sie troche pobawiłem tym softem ale w wiekszosci uzyskuję (mniej spektakularne wyniki) zdecydowanie daleko im do skanów 3D materiał wejsciowy - ilustracja rycerza (generowanie z jednej ilustracji) wynik https://3d.hunyuan.tencent.com/share?shareId=6d18e547-c4cc-4a87-99fd-4f5bdc74dff8 materiał wejsciowy - ilustracja czarodziejki (generowanie z jednej ilustracji) wy wynik https://3d.hunyuan.tencent.com/share?shareId=b59f2c5f-56ea-4531-b52d-d3878c6ec881 materiał wejsciowy - ilustracja Broni (generowanie z jednej ilustracji) wynik https://3d.hunyuan.tencent.com/share?shareId=599b7c42-a2c5-4ccf-ae89-358399878ad6 materiał wejsciowy - ilustracja Broni (generowanie z jednej ilustracji) wynik https://3d.hunyuan.tencent.com/share?shareId=1366da2c-9398-4a1f-974e-accb61df4864 materiał wejsciowy - zdjęcia statuetki batmana (generowane z 4 rzutów ) wynik https://3d.hunyuan.tencent.com/share?shareId=9d0b1add-8390-4a17-bdc6-03192cc5195e materiał wejsciowy zdjęcia figurki Anime (generowane z dwóch rzutów przedni i tylni) wynik https://3d.hunyuan.tencent.com/share?shareId=32aeff59-a3f2-4330-b269-ba97529a5f65 materiał wejsciowy - ilustracja (generowane z jednego obrazka) wynik: https://3d.hunyuan.tencent.com/share?shareId=6efb67aa-ad55-4b9f-b685-64269d9cf8af materiał wejsciowy - ilustracja (generowane z jednego obrazka) wynik https://3d.hunyuan.tencent.com/share?shareId=b1f00238-061a-4e20-97ed-1295e94e0e70 jak widać błędów jest cała masa (w przypadku figurek postaci które są bardziej złożone niż np filiżanka) względnie dobrze wypadają obiekty prostsze takie jak np koncepty prostych broni. Nie wiem na ile znaczenie ma rozdzielczosc materiału wejsciowego, zapewne znaczenie ma też stylistyka i ilosc detalu na texturach obiektów wejsciowych (za bardzo przekombinowane będą zle przetwarzane) Zaskakująco niezle (jak na AI) radzi sobie z domyslaniem się jak wygląda obiekt z tyłu (mimo braku informacji na ten temat w materiałach zródłowych (np dwa ostatnie przykłady) Mimo wad widze pewien potencjał w tym narzędziu, jesli ktoś potrzebuje duzo prostych statycznych obiektów w kreskówkowej stylistyce do dekoracji sceny lub nawet bardziej realistycznych ale takich które będą obserwowane z duzej odległosci to taki soft już na obecnym etapie moze sie przydać i przyspieszyć nieco prace. Do powazniejszych wymagających zastosowań to sie raczej na razie nie nadaje.
  24. mi chodzi o to że po gosciu który sam jest twórcą (jak pisze) oraz jest fanem twórczosci Miyazakiego spodziewałbym sie raczej ostrego hejtu na takie narzędzie a tutaj prosze zamiast hejtu jest entuzjazm, to dosyc zaskakujący imho punkt widzenia jak na taką osobę. Gosc jest podekscytowany tym ze to narzedzie może stworzyc mu pewną (oczywiscie uproszczoną ) iluzje wirtualnego przebywania w swiecie Miyazakiego . Nie chodzi mi o to ze go popieram tylko ze zaciekawił mnie taki punkt widzenia od takiej osoby jak on.
  25. wg tego wpisu na razie nie (ale nie wiem czy to aktualne) https://www.reddit.com/r/aiwars/comments/1jn7mp7/would_your_mind_change_at_all_if_studio_ghibli/?tl=pl ale zaciekawił mnie pewien komentarz który tam znalazłem wkleję fragment poniżej: Szczerze mówiąc, ten szał mnie zastanawia. Jako fan jego twórczości i sam artysta, odnalazłem radość w tym trendzie, bo czułem się jakbym w końcu mógł żyć w JEGO świecie. Jakby on był BOGIEM, a ja tylko istotą w jego wizji. I byłaby to prawdziwa klatka z mojego życia. Jak piękne to jest!! To sprawiło, że polubiłem jego styl jeszcze bardziej. W końcu jego sztuka JEST wzorem. Sztuczna inteligencja nie miałaby tych danych, gdyby on nie włożył w to tylu godzin pracy. AI tego nie stworzyła sama. On wciąż jest artystą. AI była tylko pędzlem w jego zestawie narzędzi. Dla mnie to tylko podkreśliło fakt, że tak wiele osób chce zagubić się w jego świecie, jest po prostu piękny. Patrzę na to pozytywnie, ten trend jakby udostępnił jego świat wszystkim. Zdemokratyzował go, można tak powiedzieć. Jego styl jest tak piękny, że każdy mógł na chwilę zromantyzować swoje życie. Spojrzeć na swoje życie jego oczami i poczuć się dobrze z tym. Ludzie kopiują sztukę...ale sztuka kopiuje życie...ale nie widzisz, jak Ziemia próbuje wzniecić tsunami nad moim domem za to, że próbuję naśladować jej kolory i ruchy. Jako osoba żyjąca w tym wieku, 90% rzeczy, które robimy, to naśladownictwo, nigdy nie wymyśliłem tych angielskich słów, które piszę, nigdy nie wymyśliłem tych ubrań, które noszę, wielu z nas NIE MA POJĘCIA, komu przypisać zasługę za większość rzeczy, które uważamy za oczywiste. Nigdy o tym nie myślicie? A jednak zatrzymujemy się, żeby pomyśleć tylko w tej jednej chwili? Dziwne, co? Po prostu żyjemy dalej i nazywamy to "mój styl, moje życie, moja kultura", podczas gdy...nie jest to naprawdę w pełni "nasze". Ale potem ludzie spieszą się, żeby zostać watażkami dla Miyazakiego, podczas gdy...jestem pewien, że żaden z nich nie zna bezimiennych juniorów, którzy też pracowali pod nim, musieli naśladować jego styl i nie mieć własnego, wykonywać jego instrukcje i pracować jak roboty, tylko po to, żeby on i nazwa studia zyskały uznanie, co? Filmy powstają dzięki wielu rękom, widzisz. I potrzebował technologii, żeby zszyć rysunki ręczne i odtworzyć je cyfrowo. Ale potem "Powiedział, że AI to obrazę życia, nigdy nie chciałbym, żeby ta technologia była w mojej pracy". Z tego, co rozumiem z RZECZYWISTEGO kontekstu jego cytatów, nie docenia on złej sztuki, która nie ma w sobie poczucia życia i wysiłku. Bo wie, ile krwi, potu i łez trzeba włożyć w stworzenie dobrej sztuki. Właściwie powiedział nawet, że wiele anime jest do bani i nie oddaje życia zbyt dobrze, nazwał je "Otaku", ale nie widzisz, żeby ludzie bojkotowali anime. Jeśli AI tworzy bezduszną, bezsensowną sztukę, będzie ją krytykował. Ale ponieważ AI połączyła prawdziwe obrazy i styl rysowania Miyazakiego...udało jej się uzyskać lepsze, bardziej realistyczne rezultaty. Ponieważ AI nie została stworzona tylko do kopiowania Miyazakiego...kopiuje nas...samo życie. Ironiczne jest to, że wielu "artystów", których widzę, wściekających się na ten temat...widzę na ich stronach pełno naśladowanych stylów artystycznych. "Makijaż w stylu Van Gogha" "Portret wiktoriański" "surrealizm" "sztuka anime" "mój kpop scrapbook, który zrobiłem drukując obrazki z Google i nie kupując oficjalnego merchu". Więc może, jak powiedziałeś w swoim pytaniu, może to przez ten konkretny cytat z 2016 roku, ludzie spieszą się, żeby wściekać się w jego imieniu? Na czym MOGĘ się zgodzić, to na tym, że jest to nieetyczne finansowo. Skoro potrzeba płatnej wersji ChatGPT , żeby to zrobić, oczywiste jest, że sprzedaż poszybowałaby w górę. Więc miałoby całkowity sens, gdyby Miyazaki pozwał za brak konsultacji finansowych w tej sprawie. Wtedy zgadzam się z cytatem o obrazie godzin pracy i życia. O co MOŻEMY walczyć, to o lepsze zarobki dla artystów, którzy pracowali w Studio Ghibli, lepsze zlecenia, większe wynagrodzenie, większy szacunek, ponieważ ich sztuka jest wykorzystywana ponownie i stała się zjawiskiem kulturowym...to jest lepszy argument i punkt dyskusji moim zdaniem.

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności

Configure browser push notifications

Chrome (Android)
  1. Tap the lock icon next to the address bar.
  2. Tap Permissions → Notifications.
  3. Adjust your preference.
Chrome (Desktop)
  1. Click the padlock icon in the address bar.
  2. Select Site settings.
  3. Find Notifications and adjust your preference.