-
Liczba zawartości
1 480 -
Rejestracja
-
Wygrane w rankingu
33
Typ zawartości
Profile
News
Forum
Kalendarz
Zawartość dodana przez kengi
-
Wizualnie mi się podoba. Wbrew, jak widać obiegowej opinii, ta Ciri mi osobiście bardziej się podoba, ale wiedzą z anatomii nie będę się popisywał ;P. Nie żeby mi się podobała jakoś wybitnie, ale wolę tę od wersji z trójki. No a ten medalionik rysia, czy kota... teraz, po Rozdrożu Kruków, koty chyba nie bardzo na propsie... ale to pierdoły... bylem, jak już wyjdzie ta 4 i już pójdę do kasy sprzedać akcje CDPu, wrócił cebulionowym milionerem.
-
Nie znam tego intelektualisty, czy to przedstawiciel szkoły frankfurckiej, post-postmodernizmu, czy raczej neoheglizmu-kierkegaardowskiego? Ze względu na bogaty poetycki sposób wysławiania się, stawiałbym na to ostatnie. Widać międzypokoleniową ciągłość myśli.
-
Jeez... to nie jest parodia... jeszcze przeczytałem w komentarzach, że to się zdarza in real life... let me die... thank you.
-
Ten @Nezumiego nawet dostał levelup i nie popsuł napisów. Nieźle. Tylko pan ochroniarz kibelka stracił niezwykle ważne wąsy. 🥲
-
Jeżeli RT znaczy 0.0002 fps, to jak najbardziej 😜
-
Piękne fuszki Panowie. Chapeau bas!
-
Wygląda na to, że masz na tym cylindrze wrzucony auto smooth, czyli de facto zestaw geonodów jako modyfikator. Wywal z komina/cylindra, którego potem wrzucasz na dach autosmooth-modyfikator. To nowe podejście do wygładzania. Jak widać w niektórych przypadkach jest to problem. Wtedy ten Set shade smooth powinien działać jak się wydaje, że powinien. Ew. zmień z Faces na Edges. To jest zestaw nodów z autosmooth, możesz to powtórzyć albo nawet skopiować i wrzucić do siebie jak potrzebujesz większej kontroli, np. kąta.
-
No to właśnie jest do tego, może gdzieś sobie to nadpisujesz jakoś, albo podajesz instancję jakoś przed smoothem... generalnie powinno to działać. Pokombinuj z kolejnością; ew. pokaż drzewko.
-
Ależ nie musisz zaraz przestać... bądź dumnym ile wlezie... a jak już dojrzysz jak nędzne są 😜 , to przestaniesz... skasujesz z otchłani internetu i będziesz udawał, że nigdy czegoś takiego nie popełniłeś... takie życie haha. A tak bardziej serio, to myślę, że na tym ostatnim bardziej widać co chciałeś pokazać i co jest najważniejsze. Chyba jest sensowniejsza hierarchia opowieści. Może jeszcze dałoby trochę jakbyś potrafił sobie odpuścić jeszcze bardziej gdzieniegdzie. Np. ta odcięta w powietrzu głowa, jest centralnie ustawiona do "kamery" jakbyś koniecznie musiał ją pokazać, na zasadzie konceptu szkaradnego ryja, wtedy en face jak najbardziej. Ale tutaj, ponieważ to jakiś czerep odpadający po potężnym ciosie, mógłby być wykręcony w jakieś mega dziwnej perspektywie, niczym pocisk, która nawet każe się nieco domyślać jak to szkaradztwo wygląda w rzeczywistości, ale wiadomo, że wyje...ało w kosmos, co jest ważniejsze w kontekście niż jak ten ryj wygląda. W ogóle, zwróć uwagę, że wszystkie gęby są zwrócone praktycznie w stronę kamery, przydałaby się większa różnorodność, ten czerep z przodu też tak en face, tylko przekrzywiony lekko, trochę jakby na komendę wszyscy: "teraz proszę się uśmiechnąć do kamery". Byłoby dynamiczniej. Nie pokuszę się o większą krytykę, bo mi nie wypada mistrza pouczać, ale tyle zauważyłem. Ale i tak mi się mega podoba ilustracja, żeby nie było.
-
Zdecydowanie lepiej ci idą illustracje w takich klimatach, niż te cyberpunkowe. Może to też kwestia "dla siebie"/"dla kogoś". Ale bardzo fajnie ten twój IP wychodzi. Mniam. Też na pewno komiks kupię.
-
Tutaj jeszcze zrobiłem testy stable diff, gdzie masz trzymanie się edges na 70% resztę sobie wymyśla. Bez upscale'u. Poniżej na 40%. It's a wild ride man haha. i 25%:
-
Większość tych rozwiązań opiera się o algorytm, który utrzymuje w ryzach te generacje. Najczęściej z inputu robi sobie krawędzie (jakiś edge detect algorytm), które są dla niego warstwą kontrolną. Możesz w tych modelach ustawić sobie nawet procentowo na ile ma się tego trzymać a na ile może sobie coś wymyślić. Niektóre online rozwiązania mają na to suwaki. Poniżej ekstremalny przykład, gdzie szkic zrobiony ręcznie pełni tę rolę. A taki https://magnific.ai/ poszedł nieco w drugą stronę i postawił na większy luz, przez co niektórzy się jarają wyplutymi tworami, bo dodaje detalu nie zważając na oryginał. Tutaj koledzy mają coś pośredniego z jakimiś ustawieniami pod kątem archvizu po prostu. Na jakimś comfyUI można sobie takie coś wyklikać, śmiem twierdzić. Ale może ktoś będzie chciał zapłacić i kickstarter się uda.🤔
-
Masz na stable diffusion w minutę x8.
-
Ale na co ten kickstarter? Macie gotowca input>output. Magii nie ma. Zróbcie zrzynkę z jakiegoś clipdropa i wsio. Ale czas 10min na jeden upscale to w sumie dużo. Bo na ten moment, chyba nie możecie zapuścić tego na kilku GPU na raz. Więc nie zapowiada się na łatwo skalowalne rozwiązanie... chyba że zbieracie na nowe 5090 ;P. Tutaj konkurencja wypluwa takie coś w minutę. Koń gorszy, i zbyt wyraźny sharpen, ale kto to zauważy, zwłaszcza, że raczej target na detale uwagi nie zwraca. Edit: za to mnie pokaleczył kolory i ogólnie bliżej oryginału siedzi. Może dlatego koń "gorszy" wyszedł, bo źródło kiepskie.
-
Bazowałeś na czymś, czy wolna amerykanka?
-
Czyli podszkolony stable diffusion.
-
Faktycznie zwierzątka i ludzie wychodzą ok. Przynajmniej jak sprawdziłem na wrapperze stable diffusion, ten kaleczy trochę konia... zgaduję, że wrappujecie fluxa. Zaraz każdy agregator AI enhanceruf, będzie to miał. Jak tylko podmienią modele na fluxa. Powodzenia nie życzę, bo AI śmierdzi gufnem, kradnie i fogule jest be. Zapraszamy do dyskusji:
-
Very cool shit... zobaczyłbym też chętnie w innym oświetleniu, jakbyś chciał to jeszcze ruszać. No i siateczki jakieś też by nie zawadziły. Może coś więcej o procesie, zawsze to fajnie poczytać, zobaczyć nawet jak dla sportu, a może właśnie tym bardziej, że dla sportu.
-
Ale z was rasiści, ksenofoby, mizogini i gejoboje!
-
Pytanie ilu ich tam jest, czy się trend odwróci... Co do samochodu, to zwykły jakiś taki, ani mnie ziębi ani grzeje. Kolorki tylko jak będą w klasycznej czerni, srebrny jakiś to może i nawet jakiś zwykły ziom kupi. No i to chyba prototyp, a do homologacji to się może zmienić kapkę 😁:
-
Ale wyobraź sobie, że już masz takiego (a i tak wszyscy wiemy, że zakupiłeś już w preorderze) i jedziesz sobie takim z dziewczyną na gofry... myślisz, że jeżyk nie podejdzie, nie przytupta, nie poprosi malutkimi łapkami goferka widząc taki piękny majami rusz? Nie kur.a, bo zdechł po poprzednim, którego mu dałeś! Nigdy ci tego nie zapomnimy.
-
Mamy to, nowy jaguar 🤣:
-
Jak zrobisz Apply Modifier z tego geonoda, to staje się zwykłą geometrią. Jak chcesz unwrapować jeszcze w geonodach, to musisz się już bawić proceduralnie jak tutaj np.:
-
Myślę, że tego typu wiedzę najlepiej uzyskasz z martwej natury. Pomaluj trochę nawet tego co masz wokół siebie. Postaw sobie może jakieś proste obiekty, albo skadruj coś co po prostu leży koło/na biurku. Ciężko na początku nauki, a nawet później uczyć się tego wszystkiego "z bani". Co do samych referencji ogólna zasada: im więcej refek tym lepiej, im więcej z natury, niż z fot; tym jeszcze lepiej. Edit: od razu polecajka dla inspiracji: https://www.behance.net/gallery/46789279/sketches-from-life
-
Dzięki, cóż, może to kwestia "zainteresowań" haha. A ten pierwszy z "kurą", to widok z okna mojej "pracowni", więc z rzyfca ciągnięty akurat btw. Chyba nie było zainteresowania moją tfurczością, chociaż jakieś mattepainty się robiło, ilustracje nawet, ale finalnie poszło bardziej w projektowe rzeczy. Za to chyba dzięki temu, to się stało moim hobby i dlatego jeszcze w ogóle sobie rysuje dla zabawy, bo jakbym miał jak taki biedny @Kalberos gdzie musi zrobić na ilość, żeby wielki klient mógł łaskawie wybrać i wskazać nędznemu artyście, który z jego szkicuf jest godny jego cebulionów i dalszej udręki artysty, i popraweczek oczywiście; to bym sczezł raniony piorunem własnego upodlenia zanim by mnie dosięgła wirtualna ręka ejaja czy innego jaja. Wygląda na to, że moja psyche nie była gotowa na tę ścieżkę kariery, więc może sam podświadomie klientów przez to zrażałem do siebie, bo takie mam chore podejście 🤔.