Napisano 27 Kwiecień27 Kwi Jeszcze jeden Guybrush, tym razem generowany z czterech widoków. Można linkować, więc tutaj linki:https://3d.hunyuan.tencent.com/share?shareId=8b592e4b-76c7-42c9-8e89-63b51a759712https://3d.hunyuan.tencent.com/share?shareId=1464074b-2771-4825-8d23-940675808bc2Oferują też opcję rigowania, zatem tu animowana wersja:https://3d.hunyuan.tencent.com/share?shareId=b76bcbfd-2b63-423c-83c7-425bf9fda82eCo ciekawe jeszcze bardziej kanciasty wyszedł. Pomimo że wygląda jak lowpoly to ma tak na prawdę pół miliona trójkątów:Efekt jest podobny do skanów 3d. Filiżanka z galerii. To jest zdjęcie które ktoś wrzucił:Wygenerowany model:Ściągnięty plik .glb ma materiał PBR z dwiema teksturami: jedną z kolorem i drugą z Roughness na zielonym kanale i Metallic na niebieskim:@Nezumi Te klipy wyborcze to mniej więcej poziom fejsbukowego AI slopu z krewetkowym Jezusem na czele. Edytowane 27 Kwiecień27 Kwi przez Tvaroog
Napisano 27 Kwiecień27 Kwi Autor @Nezumi Nie wiem co gorsze to co widzę czy to co słyszę. Wiem, że ma to być prześmiewcza parodia i dlatego też "kandyduje" ale niewiele się to różni od prawdziwych wyścigów do koryta. Już wystarczy, że na ulicy patrzą z plakatów te mordy patusów i gangusów to nawet z prywatnych balkonów betonowych gett dla biedoty straszą całe w serduszkach. Ale jeszcze trochę i tym razem po wyborach to na pewno będzie lepiej, tym razem jak z komunizmem na pewno się uda bo do tej pory to nie była prawdziwa demokracja, pełnia władzy i rzeka dobrobytu w końcu zacznie płynąć. I tak całe życie PRL 2.0 Państwo z dykty odc. 2137 :) tu jeszcze kamerka skierowana na plakat żeby chronić czaskoskiego przed wrogiem narodu :D
Napisano 27 Kwiecień27 Kwi 1 hour ago, Destroyer said:Wiem, że ma to być prześmiewcza parodiaPowiem szczerze, ze patrzac na to co ludzie robia, to nie wiedzialem :D
Napisano 28 Kwiecień28 Kwi Autor 7 hours ago, Nezumi said:Powiem szczerze, ze patrzac na to co ludzie robia, to nie wiedzialem :DJeszcze mnie tak dawno podobnie wyglądały normalne spoty wyborcze więc można się pomylić :) Tylko to "niedawno" to niekoniecznie to samo znaczy dla każdego, ze 2-3 miesiące temu gadałem z chłopakiem 25lat i coś tam wspominam co było nie tak dawno w 2015 czy coś a on takie zdziwienie w głosie, że 10 lat to przecież bardzo dawno, i tak to powiedział jakby to była inna epoka :D Dla niego to pól życia temu a pierwszej połowy w większości i tak nie pamięta a jak pamięta to nie to co się działo w większej skali więc tamte czasy mogą być i na równi z dinozaurami :). Dla mnie dawno to lata 90-te gdy w Polsce była jeszcze jawna gangsterka na ulicach a nie jak teraz tylko w polityce, bankowości, urzędach i nieruchomościach :)
Napisano 28 Kwiecień28 Kwi Jak to jest, że ktoś puszcza wodze fantazji, robi sobie film że ujeżdzą smoka, ale nie wpadnie na to, z całym zasobem wiedzy jaki już zostal zgromadzony o wyborach i tym , czym sie kierują wyborcy przy głosowaniu, nie wpaść na to, że może skuteczniej by sie zmanipulowało gdyby dać sobie w tym filmie trochę więcej niż metr pięćdziesąt wzrostu? XDW ogóle zapomniałem, że za miesiąc wybory, może to dlatego zrobiło się tak politycznie? To jest poważny kandydat, czy ta kampania jest dla beki, jakiś eksperyment społeczny, jakaś forma dziennikarska żeby naświetlić jakieś zjawiska?
Napisano 28 Kwiecień28 Kwi Autor 53 minutes ago, EthicallyChallenged said:To jest poważny kandydat, czy ta kampania jest dla beki, jakiś eksperyment społeczny, jakaś forma dziennikarska żeby naświetlić jakieś zjawiska?To jest żart, chyba ze się uda :) Tak jak elon musk może memami i teetami zdobyć rzeszę wiernych fanów tak może i w Polsce się udać. Prawda? Prawda? :) Tylko w tym równaniu zabrakło opcji żeby porwać młodych wyborców i przyszłość tego narodu :D Gdy cicho otwierasz paczkę czipsów na tylnej ławce w klasie :)
Napisano 28 Kwiecień28 Kwi Przecież to Stanowski z Kanału Zero, on startuje dla beki. Chociaż też już nie jestem pewien gdzie jest granica między wydurnianiem się a prawdą,
Napisano 28 Kwiecień28 Kwi 11 godzin temu, Destroyer napisał(a):@NezumiNie wiem co gorsze to co widzę czy to co słyszę. Wiem, że ma to być prześmiewcza parodia i dlatego też "kandyduje" ale niewiele się to różni od prawdziwych wyścigów do koryta. Już wystarczy, że na ulicy patrzą z plakatów te mordy patusów i gangusów to nawet z prywatnych balkonów betonowych gett dla biedoty straszą całe w serduszkach. Ale jeszcze trochę i tym razem po wyborach to na pewno będzie lepiej, tym razem jak z komunizmem na pewno się uda bo do tej pory to nie była prawdziwa demokracja, pełnia władzy i rzeka dobrobytu w końcu zacznie płynąć. I tak całe życie PRL 2.0 Państwo z dykty odc. 2137 :)tu jeszcze kamerka skierowana na plakat żeby chronić czaskoskiego przed wrogiem narodu :DAle jak ty chcesz se ogarnac kamere dla wlasnego bezpieczenstwa to sad zakazuje :D Oj bedzie sie tu działo. https://www.youtube.com/watch?v=SKh82YJT5nU&t=63s
Napisano 28 Kwiecień28 Kwi Autor 4 minutes ago, Kalberos said:Ale jak ty chcesz se ogarnac kamere dla wlasnego bezpieczenstwa to sad zakazuje :D Oj bedzie sie tu działo. https://www.youtube.com/watch?v=SKh82YJT5nU&t=63sGdyby nie podwójne standardy na każdym kroku nie nie mielibyśmy żadnych :) Wszystkie zwierzęta są równe, ale niektóre są równiejsze od innych :)
Napisano 28 Kwiecień28 Kwi Wracajac do AI. Cos jakby cichla ta melodia jak to zaraz nas wszystkich AI zastapi... Pan z Autodesku przyznal sie ze chcieli zrobic UVki ejajowe ale im nie wyszlo, tutaj taka wypowiedz innego pana od gier:WccftechLarian Studios Boss Doesn't Think Gen AI Will Replace Gam...Larian Studios boss Swen Vincke recently shared some of his thoughts on generative AI, and how he doesn't think the tech will replace humans.Techno optymizm zaczyna konfrontacje z realiami? Ale jeszcze sporo wody uplynie, jeszcze beda probowac wygenerowac wszystko przez jakis czas na pewno 😊Tak mi sie przy okazji przypomnialy stare czasy postepu technologicznego, kiedy Disney wymyslil Ptex'a i to byl definitywny koniec UV-lek... 😜 Edytowane 28 Kwiecień28 Kwi przez Nezumi
Napisano 4 Maj4 Maj W dniu 27.04.2025 o 23:40, Tvaroog napisał(a):Jeszcze jeden Guybrush, tym razem generowany z czterech widoków.Ten guybrush wyszedł całkiem niezle (jak na AI) zwłaszcza biorąc pod uwage jakość danych wejsciowychja sie troche pobawiłem tym softem ale w wiekszosci uzyskuję (mniej spektakularne wyniki) zdecydowanie daleko im do skanów 3Dmateriał wejsciowy - ilustracja rycerza (generowanie z jednej ilustracji)wynikhttps://3d.hunyuan.tencent.com/share?shareId=6d18e547-c4cc-4a87-99fd-4f5bdc74dff8materiał wejsciowy - ilustracja czarodziejki (generowanie z jednej ilustracji)wywynikhttps://3d.hunyuan.tencent.com/share?shareId=b59f2c5f-56ea-4531-b52d-d3878c6ec881materiał wejsciowy - ilustracja Broni (generowanie z jednej ilustracji)wynikhttps://3d.hunyuan.tencent.com/share?shareId=599b7c42-a2c5-4ccf-ae89-358399878ad6materiał wejsciowy - ilustracja Broni (generowanie z jednej ilustracji)wynikhttps://3d.hunyuan.tencent.com/share?shareId=1366da2c-9398-4a1f-974e-accb61df4864materiał wejsciowy - zdjęcia statuetki batmana (generowane z 4 rzutów )wynikhttps://3d.hunyuan.tencent.com/share?shareId=9d0b1add-8390-4a17-bdc6-03192cc5195emateriał wejsciowy zdjęcia figurki Anime (generowane z dwóch rzutów przedni i tylni)wynikhttps://3d.hunyuan.tencent.com/share?shareId=32aeff59-a3f2-4330-b269-ba97529a5f65materiał wejsciowy - ilustracja (generowane z jednego obrazka)wynik:https://3d.hunyuan.tencent.com/share?shareId=6efb67aa-ad55-4b9f-b685-64269d9cf8afmateriał wejsciowy - ilustracja (generowane z jednego obrazka)wynikhttps://3d.hunyuan.tencent.com/share?shareId=b1f00238-061a-4e20-97ed-1295e94e0e70jak widać błędów jest cała masa (w przypadku figurek postaci które są bardziej złożone niż np filiżanka) względnie dobrze wypadają obiekty prostsze takie jak np koncepty prostych broni. Nie wiem na ile znaczenie ma rozdzielczosc materiału wejsciowego, zapewne znaczenie ma też stylistyka i ilosc detalu na texturach obiektów wejsciowych (za bardzo przekombinowane będą zle przetwarzane)Zaskakująco niezle (jak na AI) radzi sobie z domyslaniem się jak wygląda obiekt z tyłu (mimo braku informacji na ten temat w materiałach zródłowych (np dwa ostatnie przykłady)Mimo wad widze pewien potencjał w tym narzędziu, jesli ktoś potrzebuje duzo prostych statycznych obiektów w kreskówkowej stylistyce do dekoracji sceny lub nawet bardziej realistycznych ale takich które będą obserwowane z duzej odległosci to taki soft już na obecnym etapie moze sie przydać i przyspieszyć nieco prace. Do powazniejszych wymagających zastosowań to sie raczej na razie nie nadaje. Edytowane 4 Maj4 Maj przez Oldman
Napisano 8 Maj8 Maj Dziwnie to działa. Mówisz że niezłe generuje to czego nie widzi np plecy tej babki ostatniej, ale to co widzi dobrze tez jest całkowicie inne.To wygląda raczej jak dopasowanie do sylwetki z gotowych sklejek, taki kit bash z przerzuconą teksturą. Kształty dobrze rozpoznawalne na obrazku jak np. usta, twarz, oczy, są całkiem inne.. czar pryska już całkowicie jak się wyłączy teksturę.Ale zgadzam się, że może mieć to zastosowanie do pierdół. Czemu nie? Ale za chiny nie chciał bym dostać od klienta takiej "bazy" żeby z tego coś robić. Ooo nie, czyszczenie tego, rozłączanie, porawianie, retopo... i na koniec, jaki efekt by nie był nawet wstyd to publicznie pokazać to jest więcej roboty niż zrobienie takiej bazy pod koncept z kulki. Jeśli efekt ma być w tle, bez dodatkowej pracy to spoko. A jeśli to ma być baza to dziękuję za takie nowoczesne pomoce naukowe ;)
Napisano 21 Maj21 Maj ANDROID.COM.PL - społeczność ent...Największy przełom modelu Google Veo 3 to nie jakość gene...Google Veo 3 zostało zaprezentowane na I/O 2025. Niby to model do generowania wideo, ale nie tu jest największy jego przełom.Podczas tegorocznej konferencji Google I/O firma zaprezentowała swoje najnowsze osiągnięcia w dziedzinie generatywnej sztucznej inteligencji. Największą uwagę przyciągnął Veo 3, pierwszy model Google zdolny do tworzenia wideo z dźwiękiem. To przełomowa funkcja, która pozwala AI nie tylko wygenerować obraz, ale również dopasować do niego odpowiednią warstwę audio – od śpiewu ptaków, przez odgłosy ulicy, aż po realistyczne dialogi zsynchronizowane z ruchem ust postaci.Veo 3 to pierwszy model AI Google zdolny do tworzenia wideo z dźwiękiem. Veo 3 - sztuczna inteligencja, która widzi i słyszy światGoogle podkreśla, że Veo 3 nie tylko świetnie radzi sobie z tworzeniem realistycznych scen wideo, ale również rozumie zasady fizyki, co pozwala mu generować bardziej wiarygodne ruchy i interakcje w obrębie obrazu. Dodatkowo, funkcja lip-syncingu została znacząco udoskonalona i teraz AI potrafi dopasować ruchy ust do wypowiadanych kwestii z dużą precyzją.Obecnie Veo 3 jest dostępne jedynie dla subskrybentów Gemini Ultra w USA (w aplikacji Gemini), użytkowników biznesowych w ramach platformy Vertex AI oraz w nowym narzędziu filmowym Google, czyli Flow.Flow to rewolucja w tworzeniu filmów przez AIFlow to nowa platforma, która łączy możliwości modeli Veo, Imagen i Gemini, umożliwiając tworzenie kinowych scen i klipów na podstawie prostych opisów w języku naturalnym. Użytkownik pisze, co chce zobaczyć, a AI wykonuje resztę, od scenografii po efekty dźwiękowe.Nowa wersja Flow pozwala m.in.:-korzystać z referencyjnych zdjęć ludzi, obiektów i stylów,-kontrolować kamerę (obracać sceny, przybliżać obiekty),-zmieniać proporcje kadru (np. z pionowego na poziomy),-dodawać lub usuwać elementy ze scen.Na ten moment narzędzie jest dostępne tylko dla użytkowników Google AI Pro i Ultra w USA, ale Google zapowiada rychłą ekspansję na kolejne rynki.Imagen 4, czyli nowy poziom w generowaniu obrazówRównolegle Google zaprezentowało Imagen 4, najnowszy model do generowania obrazów. Jego największe zalety to nadzwyczajna precyzja w oddawaniu detali, takich jak faktury tkanin czy sierść zwierząt, umiejętność tworzenia realistycznych i abstrakcyjnych grafik, znacząca poprawa w renderowaniu tekstu i typografii oraz wsparcie dla różnych proporcji obrazu i rozdzielczości do 2K.Imagen 4 jest już dostępny w aplikacji Gemini, Vertex AI oraz w narzędziach pakietu Google Workspace, w tym w Docs i Slides. Wkrótce pojawi się także dziesięciokrotnie szybsza wersja Imagen 4 w porównaniu do poprzednika.SynthID Detector - sposób na weryfikację treści generowanych przez AIW dobie coraz bardziej realistycznych materiałów generowanych przez sztuczną inteligencję, Google uruchomiło również SynthID Detector, czyli specjalny portal umożliwiający sprawdzenie, czy dane zdjęcie lub wideo zostało stworzone przez AI. Wykorzystuje on technologię SynthID, czyli znak wodny osadzony w danych multimedialnych, który pozwala na identyfikację treści stworzonych przez modele Google.Choć Google udostępniło SynthID jako projekt open source, nie wszystkie generatory AI z niego korzystają, więc wykrywalność wciąż ma swoje ograniczenia. Mimo to, to istotny krok w kierunku większej transparentności i bezpieczeństwa w erze generatywnej AI.https://www.youtube.com/watch?v=Xy2VtdxqSJQhttps://www.youtube.com/watch?v=Uw0Z6DZj534 Edytowane 21 Maj21 Maj przez Oldman
Napisano 21 Maj21 Maj Playlista na kanale Google Deep Mind:Google DeepMindVeoIntroducing our state of the art video generation model Veo 3, and new capabilities for Veo 2. Edytowane 21 Maj21 Maj przez Tvaroog
Napisano 21 Maj21 Maj W tym miesiącu amerykański Copyright Office opublikował trzecią część raportu o AI.Part 1 Digital ReplicasPart 2 CopyrightabilityPart 3 Generative AI TrainingPadają tam krytyczne słowa na temat komercyjnego zastosowania AI trenowanego na utworach chronionych prawem:When a model is deployed for purposes such as analysis or research — the types of uses that are critical to international competitiveness — the outputs are unlikely to substitute for expressive works used in training. But making commercial use of vast troves of copyrighted works to produce expressive content that competes with them in existing markets, especially where this is accomplished through illegal access, goes beyond established fair use boundaries.Kilka dni po tym raporcie Trump zwolnił szefową Copyright Office.https://www.theguardian.com/us-news/2025/may/12/trump-fires-copyright-office-shira-perlmutterTymczasem brytyjscy artyści wysłali petycję do premiera:Creatives demand AI comes clean...Creatives demand AI comes clean on what it's scraping: Musicians, artists, writers, actors urge government to protect copyright
Napisano 1 Czerwiec1 Cze Autor W końcu udało się osiągnąć przełom i za pomocą przekazu audiowizualnego wywołać oraz znacząco przyśpieszyć rozwój raka mózgu.*przed objerzeniem skonsultuj się lekarzem lub farmaceutą lub zapoznaj się z ofertą najbliższego krematorium lub spalarni śmieci
Napisano 1 Czerwiec1 Cze 18 minut temu, Destroyer napisał:W końcu udało się osiągnąć przełom i za pomocą przekazu audiowizualnego wywołać oraz znacząco przyśpieszyć rozwój raka mózgu.*przed objerzeniem skonsultuj się lekarzem lub farmaceutą lub zapoznaj się z ofertą najbliższego krematorium lub spalarni śmiecitakie antyreklamy tylko mnie skłaniają ku bojkotowaniu sklepu, to jest antyludzkietutaj chillowa dyskusja na temat AI slop'uhttps://www.youtube.com/watch?v=Tm8RG1leX8c&t=1262s
Napisano 1 Czerwiec1 Cze Autor Aflofarm pozazdrościł Adamedowi i też wygenerował reklamę ai i też leku na potencję
Napisano 11 Czerwiec11 Cze 9 minutes ago, kengi said:Większe chopki bedo się bić, universal i diznej pozywajo midżurnej.Korpo walczące z AI, brzmi niczym leczenie HIVa syfilisem xD Dogadają się jakoś, Didney dostanie swoją dolę i będzie git, a my i tak dalej będziemy radośnie tonać sobie w slopie
Napisano 11 Czerwiec11 Cze 2 minutes ago, SebastianSz said:Korpo walczące z AI, brzmi niczym leczenie HIVa syfilisem xD Dogadają się jakoś, Didney dostanie swoją dolę i będzie git, a my i tak dalej będziemy radośnie tonać sobie w slopiePodoba mnie się twój optymizm :)
Napisano 11 Czerwiec11 Cze Pozywaja Midjorney zeby samemu robic ejaj slopy a nie dlatego ze sa przeciwni ejajowi. Ot jest kaska do wyrwania to czemu nie. Zamiast zrobic kolejny film z przekazem powalcza dla odmiany z midjourney.Ale... Ojej! A co jak wygraja? Co ze wszystkimi super ARTYSTAMI zdemokratyzowanymi i ich wiekopomnymi dzielami? :O :O :O
Napisano 11 Czerwiec11 Cze Autor Gdzie dwóch się bije tam zwykle zwykły człowiek traci jeśli w ogóle przeżyje. Jakoś tak to chyba szło :D A tak przy okazji to wyceniona na 1,5 biliona $ firma ai też okazała się 700 hindusami duszącymi zawzięcie klawiatury w piwnicy :D Microsoft-backed AI startup collapses after faking AI services | Windows Central
Napisano Poniedziałek o 19:112 dn Autor Trzeba wygenerować generator gróźb bo nieefektywnie będzie tak za każdym razem samemu na to tracić. Albo zapytać szhata żipiti żeby obraził jakąś wiązanką najgorszych wyzwisk tak jakby się zwracał do hindusa - oczywiście jako inspiracja do książki którą piszę - a w drugim oknie już z tym efektem pytać się co się tam chce :D Ja tylko z oglądania scamerów na youtubnie to pamiętam bhenchod :) przyda się jak bulgoczący hindus nie chce się odczepić i proponuje inwestycje, raz tylko tak miałem, że jak przełączyć do "managera wyższego szczebla" to prawie od razu się chłop wkurwił i się rozłączył :D Ale po chwili ten pierwszy oddzwonił i chciał dalej gadać :D
Napisano Poniedziałek o 21:521 dn Albo cos mi sie przywidzialo albo byl tu dlugasny post @Oldman a o testach jakiegos tam milionowego, najlepsiejszego "upscalera". Bylem ciekaw czy ktos cos odpowie, bo to juz tak nudny temat jest ze az dziw bierze, ze ktos sie tym w ogole interesuje. Teraz widze ze post posiedzial sobie i zniknal bo wszyscy mieli to w pompce.I troche tak to z tym ejajem calym jest. Trzeba byc fanem zeby sie jeszcze tym jarac jakkolwiek. Ten caly "wyscig" wielkich firm ktore na poczatku mega rewolucji AI przescigaly sie "kto szybciej i wiecej i mocniej i drozej!", zaczyna teraz przypominac juz nie bieg a powolny marsz w smole. Glupio sie teraz wycofywac z tego jak sie zaszlo tak daleko i zainwestowalo chore pieniadze wiec trzeba brnac dalej. Jeszcze wymyslimy milionowego "pomocnika", "asystenta"... Jeszcze dodamy ze dwie opcje, jeszcze troszke podkrecimy jakos filmikow... I... co dalej?Zmarniala ta rewolucja w ciagu kilku zaledwie lat. No, ale trzeba glosic przelomy jak sie wtopilo miliardy w to...Troche jak ten wspanialy i mega intelygentny projekt sprowadzania tysiecy mlodych byczkow z dzikich krajow. Tez brna w to z uporem bo glupio sie wycofac z czegos, co sie samemu przepychalo przez lata, bo sie wyjdzie na glupka. A efekty jakie sa kazdy widzi.Znaczy... Kto chce widziec bo politycy to jak te trzy malpki co to zla nie widza, nie slysza i o nim nie mowia.Albo jak z tym net-zero emmisions - jak juz widza, ze sie zbliza deadline (ktory sami sobie wyznaczyli), a jedyne "zero" pojawia sie w "zero szans na realizacje" to wystarczy... przeniesc deadline na pozniej i mozna doic kaske dalej na niemozliwy projekt. Bo to wcale nie tak, ze projekt jest niewykonalny tylko "zbyt ambitny termin realizacji" wyznaczyli. Ale projekt jest jak najbardziej wspanialy nadal.I tu tez tak brna, brna ale cos nie widze tej swietlanej przyszlosci. A latka mijaja. Co sie stalo z tymi przelomami bo newsy o "AI" jakos mocno takie sobie. Swiat udawania - musimy poudawac jeszcze troche. Jeszcze troche przelozyc terminy, jeszcze pare miliardow zainwestowac, jeszcze wepchnac udawane "AI" gdzies - obojetnie czy potrzebne czy nie. Bo trzeba mocno wierzyc w genialnosc "AI" a reszta jakos sama sie ulozy. Bo przeciez nie przyznamy sie do tego ze odrobinke przesadzilismy z tym wszystkim, i troszeczke ten balonik nadmuchalismy za bardzo.
Napisano Wczoraj o 09:30 1 dn Autor Widziałem tego posta @Oldman dobrze to wyglądało i było spójne z tym jaki był materiał źródłowy a był bardzo niskiej jakości. Gigapixel nieźle sobie radzi z upscalarem ale np z 720p na 1080p gdzie już w 720 jest wystarczająco dużo detalu i nie trzeba tak zgadywać co tam może być, ten nowy upscaler to można wrzucać thumbnailsy z wyszukiwarki obrazków i robić 4k, co może mieć zastosowanie jak się nie chce płacić złodziejom ciężkiego pieniądza za stocka z bazy :P
Napisano Wczoraj o 10:02 1 dn 12 godzin temu, Nezumi napisał:Zmarniala ta rewolucja w ciagu kilku zaledwie lat. No, ale trzeba glosic przelomy jak sie wtopilo miliardy w to...Jeśli chodzi o taki mainstream to chyba tak. Ale po cichu się to wpieprza coraz bardziej do workflowów wielu osób. To będzie jak na początkach photobashu i 3d w ilustracjach i konceptach - najpierw "beee" "lamerstwo" a potem większość (dane z dupy ale zakładam że tak jest z tego co widzę) i tak tego używa i jest to teraz całkowicie normalne a nawet pożądane bo daje szybsze efekty.
Napisano Wczoraj o 10:35 1 dn Autor No ja na początku roku robiłem projekt "AI" tzn i obrazki ludzi były wygenerowane zamiast ze stocka bo pewnie szybciej i bardziej spójne a cała reszta już tradycyjnie :) Teraz dostaję "koncepty" wygenerowane, do jdenj rzeczy "koncepciarz" się spóźniał bo wygnerował ponad 600 obrazków ale to ciągłe było nie to i pierwsze założenia, referencje i bazująca na tym wycena a koncepty to tak trochę niebo a ziemia, mało co się zgadza poza głownym tematem. Klienci jak to zwykle bywa ślepi i "oni nie widza znaczącej różnicy w stylu i detalu" :D I te "koncpety" są "zaakceptowane" ale weź zmień to i tamto, i zmień trochę charakter, to co się źle wygenerowało i jest bzdurą usuń, napraw, zmień, popraw - efekt jest taki, że koncepty swoje a ja swoje, robię co mi pasuje i co będzie szybciej i jak na razie zadowoleni bo ładne obrazki a że niepodobne to co tam, oni i tak nie widzą różnicy :D Sposób pracy się zmienił a wyżej wstawiona seria reklam AI komfort pokazuje że już można w pełni tworzyć całe kampanie reklamowe i świetnie to działa :)
Napisano Wczoraj o 11:31 1 dn 3 minutes ago, michalo said:Jeśli chodzi o taki mainstream to chyba tak. Ale po cichu się to wpieprza coraz bardziej do workflowów wielu osób.Nie do konca o to mi chodzi. Kazdy niech tam sobie leczy swoje leki "pozostania w tyle" czy inne FOMO na wlasna reke. Jak ktos uwaza, ze nie da rady bez ejaja, bo go wyprzedzi kumpel siedzacy obok, a ma to nieszczescie pracowac przy PRODUKCJI, to juz jego broszka. Kiedys gornicy wyrabiali normy i pracowali na akord - teraz biale kolniezyki sie scigaja kto wiecej przy biurkach. Rozne sa sytuacje, rozne mentalnosci i potrzeby - nie wnikam juz w to bo nie ma sensu. Ludzie sie boja caly czas czegos i z tego strachu robia to co inni bo tak sa zaprogramowani w wiekszosci. Poczucie oderwania od stada zapewne czyni ich egzystencje rownie niemila jak poczucie wcisniecia do stada czyni moja. Nie oceniam juz czegos, czego nie jestem w stanie zrozumiec.Chodzi mi bardziej o to, ze osiagnelismy bardzo szybko pewien pulap i teraz ogolnie updaty tej technologii sa biedniejsze niz updaty Mayi. I jesli nic sie nie zmieni to beda jak updaty Mudboxa 😄. Zasadniczo wszystkie wielkie korporacje glowkuja nad tym gdzie to jeszcze wepchac ale wyglada to juz niemal jak dreptanie w miejscu. Pomysly sie duplikuja, nikt nie wychodzi na wyrazne prowadzenie. To co mamy juz spowszednialo - post Oldmana o jego szczegolowym tescie jakiegos tam upscalera pozostal bez echa bo nikogo to juz nie interesuje. Zobaczcie jak "wspaniale" idzie kickstarterowi tego upscalera do arch wiz co tu koledzy pokazywali:https://www.kickstarter.com/projects/elevateimg/elevateimg-image-upscaler-and-enhancer?ref=discovery&term=Elevateimg&total_hits=1&category_id=21Nie bede sie znecal, bo autorzy chca po prostu zarobic na zycie, jak kazdy z nas. Ale pokazuje to, ze rynek jest przesycony tymi blizniaczo do siebie podobnymi "rewolucjami" technologicznymi.Jest pewne poczucie tego, ze widzielismy wszystko. Jak ktos jest mega fanem ejaja to pewnie sledzi kolejne updaty z potem skroplonym na czole i wzdycha na przyklady pokazane przez kolejna wersje Chata GPT czy innego tam "przelomowego!" Midjourneya czy co tam jeszcze. I niczym fanowi Blendera wydaje mu sie ze srodka banki w ktorej siedzi, ze po nastepnym updacie to juz na pewno zdominuje AI wszystko. Przeciez "coraz wiecej osob uzywa!" etc.Osobiscie widze coraz wieksze przesycenie rynku ale przede wszystkim brak pomyslu na dalszy rozwoj. Plywanie rozpaczliwcem w oceanie asystentow i generatorkow. Czesc z nich moze byc przydatna - spoko. Chodzi mi o gigantyczna dysproporcje pomiedzy zapowiedziami i oczekiwaniami a realiami. Pomiedzy kasa zainwestowana a kasa ktora sie zwraca. I minelo juz kilka lat a efektem tej rewolucji jest to ze "coraz wiecej osob wrzuca cos z ejaja do swojego workflow". Troche to dalekie od zapowiadanej Utopii gdzie mielismy tylko siedziec i konsumowac :D Albo od Skynetu - nadal sami sie zabijamy. No, ale teraz dronami, tak ze postep jest zasadniczo ;)
Napisano Wczoraj o 12:32 1 dn Autor A tak trochę z innej beczki to podobno ludzie zauważają ze gpt działa zauważalnie gorzej i podejrzewają, że to celowe żeby płacić za wersję pro czy tam inną która podobno działa lepiej jak wcześniej darmowa? Prawda to, ktoś potwierdzi takie obserwacje czy cały gpt ma już efekt zatrutej studni czy tylko takie wrażenie ludzie mają?
Napisano Wczoraj o 13:49 1 dn Godzinę temu, Destroyer napisał:A tak trochę z innej beczki to podobno ludzie zauważają ze gpt działa zauważalnie gorzej i podejrzewają, że to celowe żeby płacić za wersję pro czy tam inną która podobno działa lepiej jak wcześniej darmowa? Prawda to, ktoś potwierdzi takie obserwacje czy cały gpt ma już efekt zatrutej studni czy tylko takie wrażenie ludzie mają?Nie. Jest coraz lepiej, ale w przypadku (skoro mowa o gpt) to jest kwesta tego, że oni wypuścili ostatnio kilka modeli i ludzie nie wiedzą, którego jak używać. Domyślnie wybrany jest model "tańszy" dla nich. Koszt przez API jest podobny jak nie tańszy dzisiaj. Ale też OpenAI przegrywa walkę tutaj. Owszem, chatgpt jest najpopularniejszym rozwiązaniem, ale Claude czy Google dzisiaj go w wielu aspektach przegoniły (a gemini można używać za darmo czy nawet tych nowym modeli).
Napisano Wczoraj o 18:22 1 dn Autor No namnożyło się tych AI i pewnie będzie jak z netflixem, zobaczyli że w tym jest pieniądz i z jednego serwisu zrobiło się 50 i jak netlflix na początku był świetną i wygodną alternatywą do piractwa tak teraz piractwo jest świetną alternatywą dla tego całego szamba jakie jest teraz, jakby to powiedział rabin, tez dobrze :) A ai może być podobnie i zamiast zlecać to middlemanowi w jakimś systemi e mysleć czy grozić czy prosić dla lepszego efektu to można iść od razu do źródła i outsourcować do indii :D
Napisano Wczoraj o 19:01 1 dn Nie wiem jak tam jest z darmowym - mam dostep do platnego GPT i platny kleknal jak trzeba bylo wspolprace zrobic pomiedzy dwoma skryptami. Ale uczciwie moge powiedziec ze mialem tez dostep do platnych wersji Gemini i Claude'a i najlepszy z tych 3 byl chatGPT bo przynajmniej cos pomogl faktycznie i kleknal jako ostatni.Koniec koncow zatrudnilismy kogos kto sie zna na programowaniu (nawet bez uzywania ejaja).
Napisano Wczoraj o 19:33 1 dn GPT akurat do programowania nie używamy od dawna. W tej chwili cieżko dorównać Claudowi i Gemini. Ale uwaga, tutaj dzisiaj model to jedno drugi to jest agent do programowania. Bo jeśli ktoś traktuje te interfejsy czatowe do programowania - można, ale ciężko tak żyć. Dzisiaj Claude Code lub Cursor z dobrze skonfigurowanym środowiskiem pod dany projekt i podpięty pod historie kodu.Sonnet 4 na dzień dzisiejszy robi cuda i faktycznie dzisiaj to jest jak zlecanie midowi taski i ich review.
Napisano Wczoraj o 19:48 1 dn Ta no musze uwierzyc na slowo. Wiesz - moze jest tak ze faktycznie pomaga programiscie ktoremu przyspiesza prace. Latwo w to uwierzyc. Jak sie ledwo ledwo zna programowanie to nie zrobi za ciebie. A troche tak jednak AI jest reklamowane - "zastapi programistow!". No nie. To akurat jestem w stanie zweryfikowac sam ;) W chatGPT najbardziej mnie zaskoczylo ze moglem uploadnac screenshota na przyklad z drzewkiem pokazujacym strukture sceny i na podstawie tego dopasowal skrypt. To mnie zaskoczylo na prawde. Claude tego nie potrafil.
Napisano 8 godzin temu8 godz Wyjdź i baw się - oglądać bez logowania do Youtube'a: Edytowane 8 godzin temu8 godz przez Tvaroog
Napisano 6 godzin temu6 godz Ja ostatnio jestem zmuszony w robocie do używania Cursora i Warp'a (Warp to niby terminal, ale wali kodem też.) I na razie daje radę. Tylko, że mi się nie chce tego pilnować, ergo kod jest w wersji spaghetti. Teraz już człowiek tego nie ruszy, bo komponenty są pomieszane, stylowanie w 50 miejscach itp. Ale to jest tylko "prosty" landing produktowy na astro. No ale działają jakieś cuda wianki, że zasysa jakieś assety z githuba i wyświetla najbardziej aktualne na przykład. Kuzyn robi podobnie, ale on w przeciwieństwie do mnie jest frontendowcem i to wszystko ręcznie nadzoruje, też generuje sobie mniejsze kawałki niż ja i to jest potem do ogarnięcia przez człowieka. Ale ja walę z grubej rury. Bo jeżeli ktoś uznał, że ujajowiec z ejajem może to zrobić, to znaczy że nikomu na tym tak na serio nie zależy. Więc czemu akurat mi ma zależeć.Ostatnio zacząłem też odpisywać ludzikom z roboty przez czata, prompt zazwyczaj zaczynam tak: weź mnie te bluzgi zamień na kulturalną odpowiedź.... może ludzie nawet zaczną mnie lubić 🤣. Edytowane 6 godzin temu6 godz przez kengi
Napisano 6 godzin temu6 godz 3D obiekty z jednej fotki, chyba się poprawia. A jeszcze pięć lat nie minęło🤔: https://www.youtube.com/watch?v=XRFlnXeOdww
Napisano 6 godzin temu6 godz Autor Jeszcze brakuje segmentacji na oddzielne obiekty, czystej topologii pod subd, uv i wygenerowania wysokiej jakości tekstur PBR na UDIMach, no ale to dopiero 3 rok w 8 letniej rewolucji ai, dajmy im czas :)
Napisano 3 godziny temu3 godz Pamiętacie jak 3 lata temu straszyli, że nie warto się uczyć tego czy tamtego, bo ai to wszystko zrobić? Ciekawe jak się czują ci co porzucili naukę, pewnie mają takie samo FOMO jak wtedy, kiedy ją porzucali? A co co się uczyli pewnie już wymiatają i się cieszą, że było warto.
Napisano 3 godziny temu3 godz Ale nikt nie mówił, że nie warto się uczyć rozkładania uvalek, retopologii czy bakeowania teksturek, czyszczenia skanów czy tragicznie zaśmieconych mocapow. Nie warto natomiast rysunku, rzeźby czy animacji. 🤣
Napisano 3 godziny temu3 godz Autor 15 minutes ago, EthicallyChallenged said:Pamiętacie jak 3 lata temu straszyli, że nie warto się uczyć tego czy tamtego, bo ai to wszystko zrobić? Ciekawe jak się czują ci co porzucili naukę, pewnie mają takie samo FOMO jak wtedy, kiedy ją porzucali? A co co się uczyli pewnie już wymiatają i się cieszą, że było warto.Dobrze mówili, że nie warto się uczyć niczego bo po co się czegoś uczyć jak u niemca są szparagi do zebrania w niewolniczych warunkach za głodową stawkę? :)
Napisano 3 godziny temu3 godz Wygenerowałem test z tego zdjęcia.Generator z postów wyżej - tam z Monkey Island vs ten z filmiku z blenderowcem\Powiem wam, że źle to nie wygląda. Każdy trochę po swojemu coś kosmicznego odwala ale boję się że za niedługo branżę 3d print zaleje taki shit.. ciekawe czy zaczną też to odlewać.Jak tylko mój "kontakt" coś o tym wspomni lub wpadnie mi coś takiego w oko na forach modelarskich od razu melduję.A podejrzewam, ze mój "kontakt": byłby łasy na takie rzeczy
Napisano 3 godziny temu3 godz 19 minut temu, michalo napisał:Powiem wam, że źle to nie wygląda. Każdy trochę po swojemu coś kosmicznego odwalaFajna łopata, inteligencja jak zwykle nomen Omen w mig łapie o co chodzi i łączy fakty i rozumie kontekst lmao
Napisano 2 godziny temu2 godz Autor 19 minutes ago, michalo said:A podejrzewam, ze mój "kontakt": byłby łasy na takie rzeczyTen SkVarA? :P Model wygląda nawet nawet, coś tam też pogenerowałem przez chwilę dla testu i raz lepiej raz gorzej ale zawsze są jakieś błędy i mesh wszystko zlepione w jedną papkę, pod animację do niczego do łatwych zmian też do niczego bo zawsze generowało jakieś dziwaczną geometrię non manifold geometry więc ani niektóre narzędzia uv jak unfold nie działały albo sculpt w mayi, ba nawet zaznaczanie w tych problematycznych okolicach nie działało poprawnie i mjaka głupiała bo takie tam dziwactwa były, gorsze nawet niż model ze sketupa :D I tak pokiełbaszona geoemtria była, że nawet jak próbowałem ją oczyścić cleanupem to albo collapsowało z pół modelu albo nie pomagało, w mayi i hudim walczyłem i dałem sobie w końcu spokój :) Jak podobne kwiatki będą generowane to fajnie jak chcesz tylko wrzucić gotowca albo pokazać na smooth shading i na zblurowanym filmiku na youtubie z niskim bitratem ale jak masz coś poprawić, zrobić uv i malować teksturę, meić głądkie odbicia i łądne krawędzie to będzie mocno pod górę :)
Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto