OldMan
-
Liczba zawartości
407 -
Rejestracja
-
Ostatnia wizyta
-
Wygrane w rankingu
7
Typ zawartości
Profile
News
Forum
Kalendarz
Odpowiedzi dodane przez OldMan
-
-
Pytanie dla ludzi od 3D , czy to prawda że z roku na rok zarabia się coraz mniej na 3D (może nie w każdej dziedzinie ale uśredniając) lub mówiąc nieco inaczej , czy to prawda że z roku na rok żeby zarobic te same pieniądze trzeba wykonac duzo więcej roboty dla klienta.
-
miałem rózne karty (takze takie które w momencie kupna były topowe i nigdy nie piszczały , zasilacze zawsze miałem topowe) nie wiem moze mialem szczescie
-
W dniu 6.02.2023 o 13:29, Destroyer napisał(a):
pro tip, kup sobie 4090 to piszczenie cewek zagłuszy wiatraczek tableta, chłodzenie komputera, nawilżacz powietrza, szum zapowietrzonego kaloryfera, ruch uliczny, startujące samoloty i bombardowania za oknem 🙂 Idzie oszaleć z tymi dźwiękami jak gpu jest pod obciążeniem, kupiłem drugą 4090 od gigabyte to nawet gorzej i wykonanie po taniości w stosunku do zotacka ale są ludzie którym podobni niemal bezgłośny gigabyte się trafił ale nie wiem czy w to wierzyć 🙂
Ciekawe jest to że nie mialem nigdy karty która piszczała , obecnie mam GeForce RTX3060TI Aorus Elite, moze to kwestia zasilacza jak niektórzy twierdzą (mam Seasonic FOCUS GX-850 GOLD )
-
-
jakiś geniusz kodowania na Amige napisał engine 3D na gołą Amigę 1200 bez akceleratora 😲 https://youtu.be/7QzU89LVMHA?t=53
warto też przeczytać całą dyskusje (od początku do końca ) na ten temat tutaj (gosc stosuje sporo sztuczek optymalizacyjnych i szuka ludzi do pomocy zeby zrobic z tego cos wiecej niż tech demo)
https://eab.abime.net/showthread.php?t=113573 -
-
z ciekawosci zrobiłem na szybko test porównawczy TOPAZ PHOTO AI vs CODEFORMER
ORYGINAŁ
CODEFORMER (fidelity 0)
CODEFORMER (fidelity 0.7) - ustawienie domyślne aplikacji
CODEFORMER (fidelity 1 - w ustawieniu 1 program stara sie zrobic jak najbardziej podobne zdjecie do oryginału )
TOPAZ PHOTO AI (domyslne ustawienia z włączonym FACE ENCHANCE)
ORG + CODEFORMER (fidelity 1) + TOPAZ PHOTO AI obok siebie
subiektywna opinia:
- włosy minimalnie lepsze w codeformerze
- odcień skóry bardziej wierny oryginałowki w topazie
- oczy i brwi odrobine wyrazniejsze w codeformerze
- wydaje mi sie ze detale twarzy i skóry lepiej wypadają w topazie
- bardzo widoczna granica działania rekonstrukcji (na kołnierzu) w TOPAZIE, dodatkowo niepotrzebne rozmycie ubrania poza twarzą w obszarze działania rekonstrukcji w TOPAZIE
test oczywiscie nie jest miarodajny , trzeba by przeprowadzic wiele porównań na setkach zdjęc w roznej jakosci i rozdzielczosci by wyciągnąć sensowniejsze wnioski
- 2
-
Godzinę temu, Nezumi napisał(a):
Wszystko rozumiem - poza jednym. Jezeli efekt koncowy tej "rekonstrukcji" zmienia postac na tyle ze jest to inna osoba. Sprawdzilem kiedys na zdjeciu syna, ktorego znam dosc dobrze 🤣 I dziecko na zdjeciu "zrekonstruowanym" bylo jakims randomowym dzieckiem po prostu. Podobnie zrobilo ze starym zdjeciem dziadkow - niby oni a po oczach widac ze nie oni. Czemu to ma sluzyc? Powaznie pytam. Ze jak kiepskie zdjecie policja zrobi to portret pamieciowy mozna lepszej jakosci mniej wiecej wygenerowac? Czy do czego tego ludzie uzywaja? Czy juz im zalezy na jakosci bardziej niz na tych ludziach ktorzy sa na zdjaciu?
Jesli dobrze pamietam tego typu upscalowanie/rekonstruowanie twarzy jako pierwsze w usłudze online na rynku pojawiło się w serwisie myheritage , moze w tym szalenstwie jest metoda (chodzi mi o to że byc moze ktos pomyslał, skoro ludzie lubię trzymac zdjęcia przodków (których nikt na oczy nie widział lub nie pamieta (np jakaś prababcia itp) to zaoferujmy im usługę ulepszania takich zdjęć
Co do samego efektu wynikowego (w przypadku zdjęć w niskiej bardzo rozdzielczosci) to mysle ze jest on uzalezniony od tego na ile twarz rekonstruowana była realu podoba/niepodobna do zdjęć uzytych przez firmę do uczenia/tworzenia modelu obliczeniowego
Godzinę temu, Nezumi napisał(a):Wszystko rozumiem - poza jednym. Jezeli efekt koncowy tej "rekonstrukcji" zmienia postac na tyle ze jest to inna osoba. Sprawdzilem kiedys na zdjeciu syna, ktorego znam dosc dobrze 🤣 I dziecko na zdjeciu "zrekonstruowanym" bylo jakims randomowym dzieckiem po prostu. Podobnie zrobilo ze starym zdjeciem dziadkow - niby oni a po oczach widac ze nie oni. Czemu to ma sluzyc? Powaznie pytam.
Pamietaj też że jesli informacji jest zbyt mało czyli zdjęcie bedzie zbyt rozmyte lub zbyt zniszczone to program w magiczny sposob nie domysli sie jak mają wygląda oczy dziadków (bo nie ma z czego)
pokaze na przykładzie
przygotowałem taki oto plik testowy
efekt po obróbce CODEFORMER
W PS-ie też już jest podobnie działająca technologia
no i oczywiscie TOPAZ (Topaz Photo AI, lub TOPAZ Gigapixel )
-
2 godziny temu, Tvaroog napisał(a):
Nie wszystkie typy zdjęć dobrze sobie radzą z Codeformerem, w niektórych zdjęć efekt skóry z Codeformera jest zbyt wygładzony (włosy całkiem niezle tutaj wyszły)
Jesli posiadamy zdjęcia bardziej współczesne w nieco wyższej rozdzielczosci i dobrym oswietleniu efekt jest lepszy niż powyżej (bardziej naturalny)
ale w powyższej rekonstrukcji nie wszystko mi sie podoba (np broda)
zrobiłem to samo za pomocą REMACRI
i za pomocą ULTRAMIX BALANCED
dla przypomnienia CODEFORMER
Efekt REMACRI i ULTRAMIX-a moim zdaniem jest lepszy niż z CODEFORMERA (w przypadku takiej rozdzielczosci wejsciowej i takiego detalu (wpółczesne zdjecie bez szumu/ziarnistosci)
CODEFORMER najlepiej chyba ze wszystkich metod poprawiania twarzy radzi sobie ze zdjęciami w bardzo niskiej rodzielczosci, tyle ze jak kolega wyzej wspomniał bedzie to bardziej 'domyślanie się jak wygląda twarz' obarczone duzym marginesem błędu
-
tło jest tak samo *ujowe jak było tyle ze jest w wiekszej rozdzielczosci bo zostało upscalowane (esgran uzyty w tym przypadku (są jego różne rodzaje) nie poradził sobie z tak kiepską jakoscią tła), tylko twarz jest rekonstruowana za pomocą codeformer
Lepsze efekty rekonstrukcji tła dałoby odpowiednie uzycie Stabilnej Dysfuzji i Control Net ale znalezienie odpowiedniego modelu obliczeniowego pasującego do zdjecia oraz odpowiednich ustawień byłoby czasochłonne (bo na razie robi sie to metodą prób i błędów)
P.S. teoretycznie byc moze dałoby sie wyszkolić codeformera do rekonstrukcji (nie tylko twarzy) ale ktoś musiałby przygotować pliki szkoleniowe , ktoś musiałby sie tym zająć itd (na razie są tylko twarze)
-
-
W dniu 24.01.2022 o 21:57, RaVirr napisał(a):
miałem kiedys siłownie (którą sam z bratem zrobilismy w pralni w bloku) i zacząłem własnym kosztem ją potem rozbudowywać , skończyło sie na tym ze połowa osiedla przychodziła poczwiczyć, posiadanie domowej siłowni ma swoje plusy i minusy (np plusy są takie że masz blisko, a minusy są np takie ze jak czwiczysz sam to masz mniejszą motywacje )
- 1
-
troche śmiechłem ale trzeba przyznać że rysunki oryginalne dawały bardzo szerokie pole do interpretacji 🤭
-
W dniu 12.10.2022 o 14:19, Mortom napisał(a):
No dobra przyznawać sie mi tu, kto robił z was tą wodę we Wrocławiu?! 😉
I ile dysków peta bajtowych poszło na generację symuliacji? 🙂Acha... do sarenki bym sie nie przyznawał... tak tylko mówie... Bo po cholerę zrobili to w 3D jak mogli dobrego real prop-sa sfilmować? 😛 No ale nie znam się, pewnie taniej wyszło 🙂
musze koniecznie obejrzeć z kronikarskiego obowiązku bo kawał dobrej roboty postprodukcyjnej tu widze (tym bardziej ze opłacam Netflixa dla syna bo sam mało co na nim ogladam (czesciej oglądam rzeczy na Apple TV, Paramount i HBO)
-
-
wracając jeszcze do upscalingu, robilem jakis czas temu upscaling tego komiksu (okładki ponizej)
w tym komiksie jest zarówno ostra kreska konturowa jak i malowana niejednorodna faktura w tle
po zrobieniu paru testów za pomocą silników które najczesciej ostatnio uzywam wyszło cos takiego
od lewej kolejno:
1) ORYGINALNA
2) RealESGRAN-NCC-VULKAN (w trybie ANIME)
3) Waifu2x-NCC-VULKAN (w trybie REAL LIFE)
4) RealESGRAN-NCC-VULKAN (w trybie REAL LIFE)
strona oryginalna
po przeanalizowaniu kilku stron wybrałem do końcowego upscalingu Waifu2x-NCC-VULKAN (w trybie REAL LIFE) mimo ze czesciej korzystam z opcji 4.
- faktura w tle na niektórych stronach upscalowana za pomocą RealESGRAN-NCC-VULKAN (w trybie REAL LIFE) była zbyt agresywnie wyostrzona i wychodziła na 1 plan
- faktury upscalowane za pomocą Waifu2x-NCC-VULKAN były bardziej rozmyte (wyglądały jak prosta inteproplacja) ale bardziej przypominały oryginalne faktury
- do czytania na monitorze efekt końcowy Waifu2x-NCC-VULKAN w przypadku tego konkretnego komiksu był lepszy
Nie ma złotej metody, każdy przypadek jest indywidualny i czasami mocno subiektywny
P.S.
Zaś co do samego komiksu to jest fajny i polecam
po angielsku tutaj
https://getcomics.info/?s=transporter
a po polsku (na razie 1 tom, kolejne bedą w ciągu 2 miesięcy) tutaj
Do upscalowania w tym przypadku użyłem
https://github.com/AaronFeng753/Waifu2x-Extension-GUI/releases
EDIT:
w związku z tym że dzis zainstalowałem kolejną aplikacje która posiada pare innych silników skalujacych AI postawilem zrobic dodatkowy test na szybko
od lewej
1) oryginalna
2) REMACRI (polecana czesto ostatnio jako jedna z lepszych)
3) ULTRAMIX_BALANCED
4) ULTRASHARP
Wnioski jak zwykle sybiektywne:
1) Ultrasharp to chyba tylko z nazwy 😉 odpadł od razu
2) po przejrzeniu całej strony wybór nie jest prosty, są miejsca które subiektywnie lepiej wyglądają obrobione REMACRI i są miejsca lepsze w wersji ULTRAMIX
zrobilem kolejne porównanie z poprzednimi zwycięzcami (już z pominięciem oryginału):
W moim subiektywnym odczuciu (w przypadku tego komiksu ) najlepszy jest REMACRI (upscalowane faktury bardziej przypominają oryginał odstając tylko miejscowo w jakosci od faktur ULTRAMIX-a przy okazji zachowując dosyc dobre ostre linie (dodatkowo zauwazylem ze ultramix potrafi faktury pokryć swoim wlasnym dosyc ostrym generowanym szumem który nie jest czasami miły dla oka)
Program za pomocą którego upscalowalem te bitmapy w 2 tescie mozecie pobrać tutaj:
https://github.com/upscayl/upscayl/releases/tag/v2.0.1
Gdyby bardzo zależało nam na jakosci i chcialoby nam sie bawić to mozna upscalować bitmape na kilka roznych sposobów i potem na alfa-kanale selektywnie odsłaniac konkretne fragmenty danej wersji (bo rozne upscalery radzą sobie lepiej lub gorzej z konkretnymi fakturami i detalami (np. akwarela, sierść, trawa, skóra itp)) Dodatkowo niektórzy eksperymentalnie przepuszczają bitmape przez kilka upscalerów (w odpowiedniej kolejnosci) zeby jeszcze bardziej wyciągnąć detal i zachowac własciwą interpretacje oryginału (ale to są zabawy dla wytrwałych poswiecone wielogodzinnymi testami)
- 2
-
16 godzin temu, daromir napisał(a):
Jest to tylko przykład, że AI może być dość skutecznym narzędziem traceującym.
Podobne efekty mamy już od dawna, ale to tutaj widzę, że jest dość obiecujące:)Jednak nie zaspokoiło to mojej ciekawości co do dobrego przykładu większego obrazka od AI;)
garść linków do przejrzenia bo to rozległy temat
https://www.reddit.com/r/StableDiffusion/search/?q=upscale&restrict_sr=1&sr_nsfw=
https://www.reddit.com/r/sdforall/search/?q=upscale&restrict_sr=1&sr_nsfw=
-
1 godzinę temu, Nezumi napisał(a):
Tak samo jak to "AI" nie jest tak na prawde "AI" tak samo ten "upscaling" nie jest "upscalingiem". To sie powinno "Frankenscaling" nazywac bo zlepia to ze zdjec dobrej jakosci innych ludzi dopasowujac mniej wiecej ksztalty do twarzy jakiej szukamy.
W taki sposób to "retusze" robią czesto ludzie 😂, Codeformer to bardziej zaawansowany sposob (chyba juz o nim pisalem gdzieś)
ale masz racje w tym że nie w kazdym przypadku zrekonstruowana twarz jest podobna do oryginału (jesli zdjecie ma bardzo małą rozdzielczosc to program domysla sie jak moze wyglądać twarz ale przy małej ilosci pikseli logiczne jest ze nie zawsze trafi). znakomicie za to nadaje sie do poprawiania zdjec w troszke wyzszej rozdzielczosci
choc ma sporo ograniczeń (a jaki program ich nie ma )
1) obliczenia są przeprowadzana w polu kwadratowym które codeformer sam sobie okresla wiec jesli przykladowo kobieta ma długi warkocz to zostanie on poprawiony np do połowy, a mówiac dokladniej w kwadratowym polu bedzie rekonstruowany za pomocą codeformera a poza tym polem bedzie upscalowany za pomocą esgrana , nalezy też pamietać o suwaku fidelity (nie przesadzać z nim bo twarz zostanie za bardzo "wyidealizowana" , domyślna wartosc 0,7 jest całkiem ok)
2) Jesli zdjecie posiada np szum (np szum termiczny) to moze byc tak ze przy okazji ten szym zostanie czesciowo usuniety (jesli wiec zalezy nam na przywróceniu tego efektu/defektu musimy to zrobic po upscalingu w postprocesie, przy okazji udaje mu sie tez czesto usunąć makrobloki kompresji jpg (co jest zaletą imho)
3) jesli gdzies w tle poza centralną postacią są małe twarze (poza polem ostrosci) to on na sile bedzie je poprawiał co daje komiczny efekt (widac ponizej na jednym ze zrobionych przezemnie przykładów)
4) jesli zdjęcie ma duzo pikseli ale tak naprawde ma ich mało (czyli zostało po chamsku przeskalowane w góre i na kazdy piksel detalu przypada np 5x5 pikseli to program sobie nie poradzi, trzeba w takich przypadkach przez upscalingiem przeskalować bitmape do własciwej niższej rozdzielczosci)
-
-
8 minut temu, michalo napisał(a):
Wtedy myślę nikt by tak nie płakał i każdy zaakceptował by to jako tylko nowy tool. Zwłaszcza, ze rozwój nie był by taki gwałtowny.
Zapewne w takim scenariuszu rozwój byłby dużo wolniejszy i mniejsze zainteresowanie ze strony typowego szaraczka
-
2 godziny temu, drakul napisał(a):
bardzo ciekawa dyskusja. az z checia przeczytalem. @OldMan zapomniales o 1 podstawowej kwestii dotyczacej AI i calej tej technologii AI i technologii w ogole. za tym wszystkim stoi czlowiek. Nie bedzie CNC jak czlowiek nie zrobi maszyny i nie zaprogramuje jej zeby dzialala tak jak ma dzialac. samochod sam z siebie nie pomyslal ze bedzie parkowac czy jechac i wozic pasazerow- to czlowiek spowodowal ze tak moze, wystarczy ze odetnie mu kabelek albo nie naleje paliwa i ten samochod ch..j sobie zrobic moze. te koparki zamiast lopaty same sie nie zrobily. Te super AI tez gowno zrobilo. opiera sie na tym co czlowiek zrobil. sformatuj dysk temu AI i co ono zrobi ? nawet je..b..nego bita nie przesle. Takze technologia jest przydatna bardzo ale to tylko dzieki czlowiekowi. sama sie nie zrobila i nic nie wymyslila. za wszystkim stoi czlowiek i to on wyznacza granice jej dzialania. zeby cokolwiek AI mogla zrobic to ty musisz mu dac prompty. zadac zadanie. to sie rano nie budzi z mysla, ze dzisiaj walne sobie piekny obrazek. to sie w ogole nie budzi, chyba ze wlaczysz wtyczke i cos napiszesz do tej bazy danych. jak ma to wypluje cos, jak nie to kupa. I tak, baza danych zwana AI zastepuje ludzi, bo to ludzie to spowodowali.
Doskonale o tym wiem, przecież to człowiek wymyśla rzeczy które są wstanie robić coś z czasem lepiej niż on sam ręcznie (na tym polega rozwój technologiczny, dotyczy to wielu aspektów życia (transport lądowy, morski, powietrzny, obróbka metali, tworzywa sztuczne, itd itp)
Problem polega na tym ze wiele osób zakłada że z rysowaniem/malowaniem obrazków tak nie będzie (że to niemożliwe 😂 ), fotogrametrii i symulacji tkanin kiedys nie było a teraz jest i działa zajebiscie
(magia no nie 🤭 )
Chyba już o tym pisałem ale powtórze, przypominają mi sie dyskusje w internecie o tym że animatronika i tradycyjne efekty nigdy nie zostaną zastąpione przez CGI (które oczywiscie kiedys było bardziej prymitywne)
lata mijały i powstał sobie taki film jak np "Szczęki" , w swoich czasach robił wrażenie, ale postęp rozwoju CGI spowodował że zamiast czegoś takiego
(z całym szacunkiem dla powyższej ekipy i ich cieżkiej pracy) wolę coś takiego:
różnica jest kolosalna niestety (oczywiscie w pewnych specyficznych sytuacjach dalej stosuje sie animatronike czy tradycyjne dekoracje w mniejszej skali , wszystko zalezy od tego co bedzie lepsze w danej sytuacji lub tańsze lub czasami szybsze)
-
45 minut temu, alex3d napisał(a):
Dla mnie to jest koniec tematu.
Nezumi też tak mówił i znowu jest z nami 🥰
3 minuty temu, alex3d napisał(a):Raczej mieliśmy, bo z mojej strony jest zamknięta.
hahaha nie tylko ciebie miałem na myśli kolego, pochlebiasz sobie 🤭
-
34 minuty temu, alex3d napisał(a):
To co podałeś za przykład to jest chłam.
Jasne 😂 idąc twoim tokiem rozumowania taki sam chłam znajde na artstation (generyczne hełmy S-F pełne detali które nie mają zadnego sensu i wyglądają jak zrobione przed AI , generyczne główki potworów wyglądające jak skrzyżowanie kalafiora z dupą dłubane w z-brushu 🤭, generyczne elfy/krasnoludy/trolle/smoki/panny z cyckami i mieczami robione w Phoshopie/Procreate/itd a jak pójde do galerii sztuki to znajde generyczne widoczki i generyczne portrety władców namalowane przez ówczesnych rzemieślników (nazwanych pozniej artystami zeby było bardziej cool)
Mam na mysli ze wśród wielu prac zrobionych przez człowieka mała ilosc to bedzie cos wartego uwagi , w przypadku AI te proporcje bedą oczywiscie jeszcze mniejsze (mniejsza ilosc prac wartych uwagi) bo ta technologia sie rozwija i na razie jest jeszcze bardzo prymitywna ale sledze ją z uwagą
-
1 minutę temu, Loocynka napisał(a):
hej, podrzucam, bo jest dziś: https://www.aimlmediaadvocacy.com/sign-up-ai-ml-summit
Dzisiaj się odbywa AI/ML Media Advocacy Summit, jak kogoś interesuje debata nt. etyki, ML i AI, możecie się zarejestrować.
debatę to my tutaj mamy 😂
wacom pro 27 vs Xp Pen 24 QHD
w Dyskusje o grafice
Napisano
wracając do tabletów, mam w domu dwa tablety (duży wacom intuos 3 (A4) i mniejszy wacom bamboo kupiony duzo pozniej) pierwszy ma bardzo gładką powierzchnię (imho za sliską nieco) a drugi (bamboo) ma powierzchnię która stawia wiekszy opór (bardziej mi to odpowiada) jak to wygląda w innych tabletach z jakimi mieliscie do czynienia (nowsze wacomy, wacomy z ekranem i bez, xp-peny i hujony)