Skocz do zawartości

OldMan

Members
  • Liczba zawartości

    407
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    7

Odpowiedzi dodane przez OldMan

  1. wracając do tabletów, mam w domu dwa tablety (duży wacom intuos 3 (A4) i mniejszy wacom bamboo kupiony duzo pozniej) pierwszy ma bardzo gładką powierzchnię (imho za sliską nieco) a drugi (bamboo) ma powierzchnię która stawia wiekszy opór (bardziej mi to odpowiada) jak to wygląda w innych tabletach z jakimi mieliscie do czynienia (nowsze wacomy, wacomy z ekranem i bez, xp-peny i hujony)

  2. W dniu 6.02.2023 o 13:29, Destroyer napisał(a):

    pro tip, kup sobie 4090 to piszczenie cewek zagłuszy wiatraczek tableta, chłodzenie komputera, nawilżacz powietrza, szum zapowietrzonego kaloryfera, ruch uliczny, startujące samoloty i bombardowania za oknem 🙂 Idzie oszaleć z tymi dźwiękami jak gpu jest pod obciążeniem, kupiłem drugą 4090 od gigabyte to nawet gorzej i wykonanie po taniości w stosunku do zotacka ale są ludzie którym podobni niemal bezgłośny gigabyte się trafił ale nie wiem czy w to wierzyć 🙂 

     

    Ciekawe jest to że nie mialem nigdy karty która piszczała , obecnie mam GeForce RTX3060TI Aorus Elite, moze to kwestia zasilacza jak niektórzy twierdzą (mam Seasonic FOCUS GX-850 GOLD )

  3. z ciekawosci zrobiłem na szybko test porównawczy TOPAZ PHOTO AI vs CODEFORMER

    ORYGINAŁ

    ORG.jpg

    CODEFORMER (fidelity 0)

    CODEFORMER4 (fidelity 0).jpg

    CODEFORMER (fidelity 0.7) - ustawienie domyślne aplikacji

    CODEFORMER4 (fidelity 0.7).jpg

    CODEFORMER (fidelity 1 - w ustawieniu 1 program stara sie zrobic jak najbardziej podobne zdjecie do oryginału )

     

    CODEFORMER4 (fidelity 1).jpg

    TOPAZ PHOTO AI (domyslne ustawienia z włączonym FACE ENCHANCE)

     

    TOPAZ-enhance-faceai.jpg

    ORG + CODEFORMER (fidelity 1) + TOPAZ PHOTO AI obok siebie

     

    COMP-3.jpg

    subiektywna opinia:

    - włosy minimalnie lepsze w codeformerze

    - odcień skóry bardziej wierny oryginałowki w topazie

    - oczy i brwi odrobine wyrazniejsze w codeformerze 

    - wydaje mi sie ze detale twarzy i skóry lepiej wypadają w topazie

    - bardzo widoczna granica działania rekonstrukcji (na kołnierzu) w TOPAZIE, dodatkowo niepotrzebne rozmycie ubrania poza twarzą w obszarze działania rekonstrukcji w TOPAZIE

     

    test oczywiscie nie jest miarodajny , trzeba by przeprowadzic wiele porównań na setkach zdjęc w roznej jakosci i rozdzielczosci  by wyciągnąć sensowniejsze wnioski

    • Like 2
  4. Godzinę temu, Nezumi napisał(a):

    Wszystko rozumiem - poza jednym. Jezeli efekt koncowy tej "rekonstrukcji" zmienia postac na tyle ze jest to inna osoba. Sprawdzilem kiedys na zdjeciu syna, ktorego znam dosc dobrze 🤣 I dziecko na zdjeciu "zrekonstruowanym" bylo jakims randomowym dzieckiem po prostu. Podobnie zrobilo ze starym zdjeciem dziadkow - niby oni a po oczach widac ze nie oni. Czemu to ma sluzyc? Powaznie pytam. Ze jak kiepskie zdjecie policja zrobi to portret pamieciowy mozna lepszej jakosci mniej wiecej wygenerowac? Czy do czego tego ludzie uzywaja? Czy juz im zalezy na jakosci bardziej niz na tych ludziach ktorzy sa na zdjaciu?

    Jesli dobrze pamietam tego typu upscalowanie/rekonstruowanie twarzy jako pierwsze w usłudze online na rynku  pojawiło się w serwisie myheritage , moze w tym szalenstwie jest metoda (chodzi mi o to że byc moze ktos pomyslał, skoro ludzie lubię trzymac zdjęcia przodków (których nikt na oczy nie widział lub nie pamieta (np jakaś prababcia itp) to zaoferujmy im usługę ulepszania takich zdjęć 

    2023-03-11_194202.png

    Co do samego efektu wynikowego (w przypadku zdjęć w niskiej bardzo rozdzielczosci) to mysle ze jest on uzalezniony od tego na ile twarz rekonstruowana była realu podoba/niepodobna do zdjęć uzytych przez firmę do uczenia/tworzenia modelu obliczeniowego

    Godzinę temu, Nezumi napisał(a):

    Wszystko rozumiem - poza jednym. Jezeli efekt koncowy tej "rekonstrukcji" zmienia postac na tyle ze jest to inna osoba. Sprawdzilem kiedys na zdjeciu syna, ktorego znam dosc dobrze 🤣 I dziecko na zdjeciu "zrekonstruowanym" bylo jakims randomowym dzieckiem po prostu. Podobnie zrobilo ze starym zdjeciem dziadkow - niby oni a po oczach widac ze nie oni. Czemu to ma sluzyc? Powaznie pytam. 

    Pamietaj też że jesli informacji jest zbyt mało czyli zdjęcie bedzie zbyt rozmyte lub zbyt zniszczone to program w magiczny sposob nie domysli sie jak mają wygląda oczy dziadków (bo nie ma z czego)

    pokaze na przykładzie

    przygotowałem taki oto plik testowy

    rozmycie input.jpg

    efekt po obróbce CODEFORMER

    rozmycie output.jpg

    W PS-ie też już jest podobnie działająca technologia

    no i oczywiscie TOPAZ (Topaz Photo AI, lub TOPAZ Gigapixel )

     

     

  5. 2 godziny temu, Tvaroog napisał(a):

     

    63d910a83cde2_o_large.jpg.d21c04cf655394c2b210561384d8deca.jpg

    gyver.thumb.jpg.4feb3103cf474333caaa2aabad01d460.jpg

    Nie wszystkie typy zdjęć dobrze sobie radzą z Codeformerem, w niektórych zdjęć efekt skóry z Codeformera jest zbyt wygładzony (włosy całkiem niezle tutaj wyszły)

    Jesli posiadamy zdjęcia bardziej współczesne w nieco wyższej rozdzielczosci i dobrym oswietleniu efekt jest lepszy niż powyżej (bardziej naturalny)

     

    2023-03-11_183617.jpg

    ale w powyższej rekonstrukcji nie wszystko mi sie podoba (np broda)

    zrobiłem to samo za pomocą REMACRI 

    4x_remacri.jpg

    i za pomocą ULTRAMIX BALANCED

    4x_ultramix_balanced.jpg

    dla przypomnienia CODEFORMER

    codeformer.jpg

    Efekt REMACRI i ULTRAMIX-a moim zdaniem jest lepszy niż z CODEFORMERA (w przypadku takiej rozdzielczosci wejsciowej i takiego detalu (wpółczesne zdjecie bez szumu/ziarnistosci)

    CODEFORMER najlepiej chyba ze wszystkich metod poprawiania twarzy radzi sobie ze zdjęciami w bardzo niskiej rodzielczosci, tyle ze jak kolega wyzej wspomniał bedzie to bardziej 'domyślanie się jak wygląda twarz' obarczone duzym marginesem błędu

     

    restoration_result2.png

    restoration_result1.png

  6. tło jest tak samo *ujowe jak było tyle ze jest w wiekszej rozdzielczosci bo zostało upscalowane (esgran uzyty w tym przypadku (są jego różne rodzaje) nie poradził sobie z tak kiepską jakoscią tła), tylko twarz jest rekonstruowana za pomocą codeformer

    Lepsze efekty rekonstrukcji tła dałoby odpowiednie uzycie Stabilnej Dysfuzji i Control Net ale znalezienie odpowiedniego modelu obliczeniowego pasującego do zdjecia oraz odpowiednich ustawień byłoby czasochłonne (bo na razie robi sie to metodą prób i błędów)

    P.S. teoretycznie byc moze dałoby sie wyszkolić codeformera do rekonstrukcji (nie tylko twarzy) ale ktoś musiałby przygotować pliki szkoleniowe , ktoś musiałby sie tym zająć itd (na razie są tylko twarze)

  7. W dniu 24.01.2022 o 21:57, RaVirr napisał(a):

    To zaczynam kolejną rundkę 😮
    Podczas pandemii wpadłem w kompulsywne kupowanie rzeczy i tak jakoś wyszło, że zrobiłem w piwnicy taki setup:
    721793797_silowniapiwniczna.thumb.jpg.0df3f7d151d17cf6cfc709d3553b5210.jpg

    Oczywiście jedyne czym się mogę pochwalić to tylko ten zestaw żelastwa, ale wierzę, ze na wiosnę będzie już super \o/

    miałem kiedys siłownie (którą sam z bratem zrobilismy w pralni w bloku) i zacząłem własnym kosztem ją potem rozbudowywać , skończyło sie na tym ze połowa osiedla przychodziła poczwiczyć, posiadanie domowej siłowni ma swoje plusy i minusy (np plusy są takie że masz blisko, a minusy są np takie ze jak czwiczysz sam to masz mniejszą motywacje )

    • Like 1
  8. W dniu 12.10.2022 o 14:19, Mortom napisał(a):

    No dobra przyznawać sie mi tu, kto robił z was tą wodę we Wrocławiu?! 😉
    I ile dysków peta bajtowych poszło na generację symuliacji? 🙂 

    Acha... do sarenki bym sie nie przyznawał... tak tylko mówie... Bo po cholerę zrobili to w 3D jak mogli dobrego real prop-sa sfilmować? 😛 No ale nie znam się, pewnie taniej wyszło 🙂 

     

    musze koniecznie obejrzeć z kronikarskiego obowiązku bo kawał dobrej roboty postprodukcyjnej tu widze (tym bardziej ze opłacam Netflixa dla syna bo sam mało co na nim ogladam (czesciej oglądam rzeczy na Apple TV, Paramount i HBO)

  9. wracając jeszcze do upscalingu, robilem jakis czas temu upscaling tego komiksu (okładki ponizej)

     

     

    1.jpeg

    2.jpeg

    3.jpeg

    w tym komiksie jest zarówno ostra kreska konturowa jak i malowana niejednorodna faktura w tle

    po zrobieniu paru testów za pomocą silników które najczesciej ostatnio uzywam wyszło cos takiego

    od lewej kolejno:

    1) ORYGINALNA

    2) RealESGRAN-NCC-VULKAN (w trybie ANIME)

    3) Waifu2x-NCC-VULKAN (w trybie REAL LIFE)

    4) RealESGRAN-NCC-VULKAN (w trybie REAL LIFE)

     

    comp 1.jpg

    comp 2.jpg

    strona oryginalna

    1NzNtfL.jpg

    po przeanalizowaniu kilku stron wybrałem do końcowego upscalingu Waifu2x-NCC-VULKAN (w trybie REAL LIFE) mimo ze czesciej korzystam z opcji 4.

    - faktura w tle na niektórych stronach upscalowana za pomocą RealESGRAN-NCC-VULKAN (w trybie REAL LIFE) była zbyt agresywnie wyostrzona i wychodziła na 1 plan

    - faktury upscalowane za pomocą Waifu2x-NCC-VULKAN były bardziej rozmyte (wyglądały jak prosta inteproplacja) ale bardziej przypominały oryginalne faktury

    - do czytania na monitorze efekt końcowy Waifu2x-NCC-VULKAN w przypadku tego konkretnego komiksu był lepszy 

    Nie ma złotej metody, każdy przypadek jest indywidualny i czasami mocno subiektywny

    P.S. 

    Zaś co do samego komiksu to jest fajny i polecam

    po angielsku tutaj

    https://getcomics.info/?s=transporter

    a po polsku (na razie 1 tom, kolejne bedą w ciągu 2 miesięcy) tutaj

     

    Do upscalowania w tym przypadku użyłem 

    https://github.com/AaronFeng753/Waifu2x-Extension-GUI/releases

     

    EDIT:

    w związku z tym że dzis zainstalowałem kolejną aplikacje która posiada pare innych silników skalujacych AI postawilem zrobic dodatkowy test na szybko

    od lewej

    1) oryginalna

    2) REMACRI (polecana czesto ostatnio jako jedna z lepszych)

    3) ULTRAMIX_BALANCED

    4) ULTRASHARP

     

    UPP_2.jpg

    UPP_1.jpg

    Wnioski jak zwykle sybiektywne:

    1) Ultrasharp to chyba tylko z nazwy 😉 odpadł od razu 

    2) po przejrzeniu całej strony wybór nie jest prosty, są miejsca które subiektywnie lepiej wyglądają obrobione REMACRI i są miejsca lepsze w wersji ULTRAMIX

    zrobilem kolejne porównanie z poprzednimi zwycięzcami (już z pominięciem oryginału):

     

     

    comp_last.jpg

    W moim subiektywnym odczuciu (w przypadku tego komiksu ) najlepszy jest REMACRI (upscalowane faktury bardziej przypominają oryginał odstając tylko miejscowo w jakosci od faktur ULTRAMIX-a przy okazji zachowując dosyc dobre ostre linie (dodatkowo zauwazylem ze ultramix potrafi faktury pokryć swoim wlasnym dosyc ostrym generowanym szumem który nie jest czasami miły dla oka)

    Program za pomocą którego upscalowalem te bitmapy w 2 tescie mozecie pobrać tutaj:

    https://github.com/upscayl/upscayl/releases/tag/v2.0.1

    Gdyby bardzo zależało nam na jakosci i chcialoby nam sie bawić to mozna upscalować bitmape na kilka roznych sposobów i potem na alfa-kanale selektywnie  odsłaniac konkretne fragmenty danej wersji (bo rozne upscalery radzą sobie lepiej lub gorzej z konkretnymi fakturami i detalami (np. akwarela, sierść, trawa, skóra itp)) Dodatkowo niektórzy eksperymentalnie przepuszczają bitmape przez kilka upscalerów (w odpowiedniej kolejnosci) zeby jeszcze bardziej wyciągnąć detal i zachowac własciwą interpretacje oryginału (ale to są zabawy dla wytrwałych poswiecone wielogodzinnymi testami)

    • Like 2
  10. 16 godzin temu, daromir napisał(a):

    Jest to tylko przykład, że AI może być dość skutecznym narzędziem traceującym. 
    Podobne efekty mamy już od dawna, ale to tutaj widzę, że jest dość obiecujące:)

    Jednak nie zaspokoiło to mojej ciekawości co do dobrego przykładu większego obrazka od AI;)

    garść linków do przejrzenia bo to rozległy temat

    https://www.reddit.com/r/StableDiffusion/search/?q=upscale&restrict_sr=1&sr_nsfw=

    https://www.reddit.com/r/sdforall/search/?q=upscale&restrict_sr=1&sr_nsfw=

  11. 1 godzinę temu, Nezumi napisał(a):

    Tak samo jak to "AI" nie jest tak na prawde "AI" tak samo ten "upscaling" nie jest "upscalingiem". To sie powinno "Frankenscaling" nazywac bo zlepia to ze zdjec dobrej jakosci innych ludzi dopasowujac mniej wiecej ksztalty do twarzy jakiej szukamy. 

    W taki sposób to "retusze" robią czesto ludzie 😂, Codeformer to bardziej zaawansowany sposob (chyba juz o nim pisalem gdzieś)

    ale masz racje w tym że nie w kazdym przypadku zrekonstruowana twarz jest podobna do oryginału (jesli zdjecie ma bardzo małą rozdzielczosc to program domysla sie jak moze wyglądać twarz ale przy małej ilosci pikseli logiczne jest ze nie zawsze trafi). znakomicie za to nadaje sie do poprawiania zdjec w troszke wyzszej rozdzielczosci

    choc ma sporo ograniczeń (a jaki program ich nie ma )

    1) obliczenia są przeprowadzana w polu kwadratowym które codeformer sam sobie okresla wiec jesli przykladowo kobieta ma długi warkocz to zostanie on poprawiony np do połowy, a mówiac dokladniej w kwadratowym polu bedzie rekonstruowany za pomocą codeformera a poza tym polem bedzie upscalowany za pomocą esgrana , nalezy też pamietać o suwaku fidelity (nie przesadzać z nim bo twarz zostanie za bardzo "wyidealizowana" , domyślna wartosc 0,7 jest całkiem ok)

    2) Jesli zdjecie posiada np szum (np szum termiczny) to moze byc tak ze przy okazji ten szym zostanie czesciowo usuniety (jesli wiec zalezy nam na przywróceniu tego efektu/defektu musimy to zrobic po upscalingu w postprocesie, przy okazji udaje mu sie tez czesto usunąć makrobloki kompresji jpg (co jest zaletą imho)

    3) jesli gdzies w tle poza centralną postacią są małe twarze (poza polem ostrosci) to on na sile bedzie je poprawiał co daje komiczny efekt (widac ponizej na jednym ze zrobionych przezemnie przykładów)

    4) jesli zdjęcie ma duzo pikseli ale tak naprawde ma ich mało (czyli zostało po chamsku przeskalowane w góre i na kazdy piksel detalu przypada np 5x5 pikseli to program sobie nie poradzi, trzeba w takich przypadkach przez upscalingiem przeskalować bitmape do własciwej niższej rozdzielczosci)

     

    2023-03-11_083717.jpg

    2023-03-11_083255.jpg

    2023-03-11_084811.jpg

  12. 2 godziny temu, drakul napisał(a):

    bardzo ciekawa dyskusja. az z checia przeczytalem. @OldMan zapomniales o 1 podstawowej kwestii dotyczacej AI i calej tej technologii AI i technologii w ogole. za tym wszystkim stoi czlowiek. Nie bedzie CNC jak czlowiek nie zrobi maszyny i nie zaprogramuje jej zeby dzialala tak jak ma dzialac. samochod sam z siebie nie pomyslal ze bedzie parkowac czy jechac i wozic pasazerow- to czlowiek spowodowal ze tak moze, wystarczy ze odetnie mu kabelek albo nie naleje paliwa i ten samochod ch..j sobie zrobic moze. te koparki zamiast lopaty same sie nie zrobily. Te super AI tez gowno zrobilo. opiera sie na tym co czlowiek zrobil. sformatuj dysk temu AI i co ono zrobi ? nawet je..b..nego bita nie przesle. Takze technologia jest przydatna bardzo ale to tylko dzieki czlowiekowi. sama sie nie zrobila i nic nie wymyslila. za wszystkim stoi czlowiek i to on wyznacza granice jej dzialania. zeby cokolwiek AI mogla zrobic to ty musisz mu dac prompty. zadac zadanie. to sie rano nie budzi z mysla, ze dzisiaj walne sobie piekny obrazek. to sie w ogole nie budzi, chyba ze wlaczysz wtyczke i cos napiszesz do tej bazy danych. jak ma to wypluje cos, jak nie to kupa. I tak, baza danych zwana AI zastepuje ludzi, bo to ludzie to spowodowali.

    Doskonale o tym wiem, przecież to człowiek wymyśla rzeczy które są wstanie robić coś z czasem lepiej niż on sam ręcznie (na tym polega rozwój technologiczny, dotyczy to wielu aspektów życia (transport lądowy, morski, powietrzny, obróbka metali, tworzywa sztuczne, itd itp)

    Problem polega na tym ze wiele osób zakłada że z rysowaniem/malowaniem obrazków tak nie będzie (że to niemożliwe 😂 ), fotogrametrii i symulacji tkanin kiedys nie było a teraz jest i działa zajebiscie

    (magia no nie 🤭 )

    spacer.png

    Chyba już o tym pisałem ale powtórze, przypominają mi sie dyskusje w internecie o tym że animatronika i tradycyjne efekty nigdy nie zostaną zastąpione przez CGI (które oczywiscie kiedys było bardziej prymitywne)

    lata mijały i powstał sobie taki film jak np "Szczęki" , w swoich czasach robił wrażenie, ale postęp rozwoju CGI spowodował że zamiast czegoś takiego

    (z całym szacunkiem dla powyższej ekipy i ich cieżkiej pracy) wolę coś takiego:

    różnica jest kolosalna niestety (oczywiscie w pewnych specyficznych sytuacjach dalej stosuje sie animatronike czy tradycyjne dekoracje w mniejszej skali , wszystko zalezy od tego co bedzie lepsze w danej sytuacji lub tańsze lub czasami szybsze)

  13. 34 minuty temu, alex3d napisał(a):

    To co podałeś za przykład to jest chłam. 

    Jasne 😂 idąc twoim tokiem rozumowania taki sam chłam znajde na artstation (generyczne hełmy S-F pełne detali które nie mają zadnego sensu i wyglądają jak zrobione przed AI , generyczne główki potworów wyglądające jak skrzyżowanie kalafiora z dupą dłubane w z-brushu 🤭, generyczne elfy/krasnoludy/trolle/smoki/panny z cyckami i mieczami robione w Phoshopie/Procreate/itd a jak pójde do galerii sztuki to znajde generyczne widoczki i generyczne portrety władców namalowane przez ówczesnych rzemieślników (nazwanych pozniej artystami zeby było bardziej cool) 

    Mam na mysli ze  wśród wielu prac zrobionych przez człowieka mała ilosc to bedzie cos wartego uwagi , w przypadku AI te proporcje bedą oczywiscie jeszcze mniejsze (mniejsza ilosc prac wartych uwagi) bo ta technologia sie rozwija i na razie jest jeszcze bardzo prymitywna ale sledze ją z uwagą

     

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności