Skocz do zawartości

adek

Administrators
  • Liczba zawartości

    12 381
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    33

Ostatnia wygrana adek w dniu 19 Marzec

Użytkownicy przyznają adek punkty reputacji!

6 obserwujących

Ostatnie wizyty

Blok z ostatnimi odwiedzającymi dany profil jest wyłączony i nie jest wyświetlany użytkownikom.

adek's Achievements

Rising Star

Rising Star (9/14)

  • Dedicated Rare
  • Reacting Well Rare
  • Posting Machine Rare
  • Collaborator Rare
  • First Post Rare

Recent Badges

658

Reputacja

  1. Reality Capture to zaawansowane rozwiązanie fotogrametryczne dla systemu Windows, które umożliwia tworzenie ultra-realistycznych modeli 3d. Użytkownicy mogą generować te modele na podstawie zestawów zdjęć oraz skanów laserowych. To potężne narzędzie znajduje zastosowanie w wielu dziedzinach, od archeologii po projektowanie gier i filmów, oferując niesamowitą dokładność i szczegółowość odwzorowania rzeczywistych obiektów. Cennik Reality Capture został niedawno zaktualizowany, co ma na celu dostosowanie kosztów do potrzeb różnych użytkowników: Plan Podstawowy - idealny dla początkujących użytkowników, którzy chcą eksperymentować z fotogrametrią. Plan Profesjonalny - rozszerzone funkcje i wyższe limity generacji dla profesjonalistów i firm potrzebujących zaawansowanych narzędzi. Plan Korporacyjny - dostosowany do potrzeb dużych przedsiębiorstw, zapewniający dedykowane wsparcie oraz niestandardowe możliwości integracji. Dzięki Reality Capture, przekształcenie zdjęć i skanów laserowych w trójwymiarowe modele, które wierne odzwierciedlają rzeczywiste obiekty, jest szybsze i bardziej efektywne niż kiedykolwiek wcześniej. Oficjalna informacja z bloga RealityCapture: Dzisiaj ogłaszamy zmiany w cenniku RealityCapture jako część nowej, szerszej oferty, którą wprowadzimy pod koniec kwietnia. Łączymy narzędzia RealityCapture, Unreal Engine i Twinmotion w ramach nowej subskrypcji, aby pomóc zespołom z różnych branż efektywnie tworzyć wysokiej jakości doświadczenia 3D. Naszym celem jest pełna integracja RealityCapture i Twinmotion z Unreal Engine. Rozpoczynając od wydania RealityCapture 1.4 i Unreal Engine 5.4, wprowadzamy nową subskrypcję Unreal, która obejmuje Unreal Engine, RealityCapture i Twinmotion za 1850 USD za miejsce na rok. Oferta ta jest przeznaczona dla twórców produktów niezwiązanych z grami (takich jak filmy i programy telewizyjne, wizualizacje architektoniczne oraz grafika do transmisji i wydarzeń na żywo), którzy generują więcej niż 1 milion USD rocznych przychodów. Więcej szczegółów na temat subskrypcji Unreal i jej odbiorców można znaleźć na tym blogu. Jeśli nie potrzebujesz używać Unreal Engine lub Twinmotion, lub jeśli podlegasz modelowi tantiem Unreal Engine, ponieważ używasz go do tworzenia gier lub aplikacji, które w czasie rzeczywistym korzystają z kodu Unreal Engine i są licencjonowane osobom trzecim, nadal możesz kupić RealityCapture jako oddzielną subskrypcję. Indywidualne miejsca w RealityCapture będą wycenione na 1250 USD za miejsce na rok, co obejmuje wszystkie aktualizacje wydane w okresie subskrypcji. Te ceny będą dotyczyć tylko firm generujących ponad 1 milion USD rocznych brutto przychodów. Z tymi aktualizacjami, RealityCapture stanie się darmowy, jeśli twoja firma zarabia mniej niż 1 milion USD rocznych przychodów. RealityCapture będzie również darmowy dla studentów, nauczycieli i hobbystów. Jeśli obecnie używasz RealityCapture 1.3.2 lub innej wcześniejszej wersji, zmiany cen i licencji nie będą miały zastosowania do ciebie, dopóki nie zdecydujesz się na aktualizację do wersji późniejszej niż 1.4. Jeśli masz wieczyste licencje na RealityCapture, możesz nadal z nich korzystać, bez względu na roczne przychody. Ponadto, gdy wydamy wersję 1.4, otrzymasz również dwanaście miesięcy aktualizacji, po których zakup subskrypcji będzie wymagany, aby uzyskać kolejne nowe wydania (jeśli nie kwalifikujesz się do darmowej wersji). Nie będziemy już oferować modelu płatności za dane wejściowe (PPI) od momentu wydania RealityCapture 1.4. Istniejący klienci z niewykorzystanymi kredytami PPI będą mogli wykorzystać je przez 12 miesięcy od tego czasu. Jeśli korzystałeś z modelu licencjonowania PPI, będziesz mógł otworzyć i kontynuować prace nad swoimi istniejącymi projektami PPI za pomocą RealityCapture 1.4, pod warunkiem, że masz dostęp do Internetu. Wsparcie oparte na społeczności i materiały edukacyjne pozostaną otwarte i darmowe dla wszystkich, tak jak jest to dziś. Możesz uzyskać do nich dostęp na Epic Developer Community. Blog firmy: https://www.capturingreality.com/realitycapture-14
  2. Reality Capture to zaawansowane rozwiązanie fotogrametryczne dla systemu Windows, które umożliwia tworzenie ultra-realistycznych modeli 3d. Użytkownicy mogą generować te modele na podstawie zestawów zdjęć oraz skanów laserowych. To potężne narzędzie znajduje zastosowanie w wielu dziedzinach, od archeologii po projektowanie gier i filmów, oferując niesamowitą dokładność i szczegółowość odwzorowania rzeczywistych obiektów. Cennik Reality Capture został niedawno zaktualizowany, co ma na celu dostosowanie kosztów do potrzeb różnych użytkowników: Plan Podstawowy - idealny dla początkujących użytkowników, którzy chcą eksperymentować z fotogrametrią. Plan Profesjonalny - rozszerzone funkcje i wyższe limity generacji dla profesjonalistów i firm potrzebujących zaawansowanych narzędzi. Plan Korporacyjny - dostosowany do potrzeb dużych przedsiębiorstw, zapewniający dedykowane wsparcie oraz niestandardowe możliwości integracji. Dzięki Reality Capture, przekształcenie zdjęć i skanów laserowych w trójwymiarowe modele, które wierne odzwierciedlają rzeczywiste obiekty, jest szybsze i bardziej efektywne niż kiedykolwiek wcześniej. Oficjalna informacja z bloga RealityCapture: Dzisiaj ogłaszamy zmiany w cenniku RealityCapture jako część nowej, szerszej oferty, którą wprowadzimy pod koniec kwietnia. Łączymy narzędzia RealityCapture, Unreal Engine i Twinmotion w ramach nowej subskrypcji, aby pomóc zespołom z różnych branż efektywnie tworzyć wysokiej jakości doświadczenia 3D. Naszym celem jest pełna integracja RealityCapture i Twinmotion z Unreal Engine. Rozpoczynając od wydania RealityCapture 1.4 i Unreal Engine 5.4, wprowadzamy nową subskrypcję Unreal, która obejmuje Unreal Engine, RealityCapture i Twinmotion za 1850 USD za miejsce na rok. Oferta ta jest przeznaczona dla twórców produktów niezwiązanych z grami (takich jak filmy i programy telewizyjne, wizualizacje architektoniczne oraz grafika do transmisji i wydarzeń na żywo), którzy generują więcej niż 1 milion USD rocznych przychodów. Więcej szczegółów na temat subskrypcji Unreal i jej odbiorców można znaleźć na tym blogu. Jeśli nie potrzebujesz używać Unreal Engine lub Twinmotion, lub jeśli podlegasz modelowi tantiem Unreal Engine, ponieważ używasz go do tworzenia gier lub aplikacji, które w czasie rzeczywistym korzystają z kodu Unreal Engine i są licencjonowane osobom trzecim, nadal możesz kupić RealityCapture jako oddzielną subskrypcję. Indywidualne miejsca w RealityCapture będą wycenione na 1250 USD za miejsce na rok, co obejmuje wszystkie aktualizacje wydane w okresie subskrypcji. Te ceny będą dotyczyć tylko firm generujących ponad 1 milion USD rocznych brutto przychodów. Z tymi aktualizacjami, RealityCapture stanie się darmowy, jeśli twoja firma zarabia mniej niż 1 milion USD rocznych przychodów. RealityCapture będzie również darmowy dla studentów, nauczycieli i hobbystów. Jeśli obecnie używasz RealityCapture 1.3.2 lub innej wcześniejszej wersji, zmiany cen i licencji nie będą miały zastosowania do ciebie, dopóki nie zdecydujesz się na aktualizację do wersji późniejszej niż 1.4. Jeśli masz wieczyste licencje na RealityCapture, możesz nadal z nich korzystać, bez względu na roczne przychody. Ponadto, gdy wydamy wersję 1.4, otrzymasz również dwanaście miesięcy aktualizacji, po których zakup subskrypcji będzie wymagany, aby uzyskać kolejne nowe wydania (jeśli nie kwalifikujesz się do darmowej wersji). Nie będziemy już oferować modelu płatności za dane wejściowe (PPI) od momentu wydania RealityCapture 1.4. Istniejący klienci z niewykorzystanymi kredytami PPI będą mogli wykorzystać je przez 12 miesięcy od tego czasu. Jeśli korzystałeś z modelu licencjonowania PPI, będziesz mógł otworzyć i kontynuować prace nad swoimi istniejącymi projektami PPI za pomocą RealityCapture 1.4, pod warunkiem, że masz dostęp do Internetu. Wsparcie oparte na społeczności i materiały edukacyjne pozostaną otwarte i darmowe dla wszystkich, tak jak jest to dziś. Możesz uzyskać do nich dostęp na Epic Developer Community. Blog firmy: https://www.capturingreality.com/realitycapture-14 Zobacz cały news
  3. Całkiem niezłe podsumowanie. Zakładaj teczkę, umiejętność przyjmowania i puszczania pewnej krytyki bokiem też wydaje mi się, że jest mocno potrzebna. Każdy kiedyś zaczynał. Umiejętność poddania się ocenie to też jest po części część tego zawodu. Trochę niepisana, ale nie da się inaczej. Zobacz kto może skomentować Twoją pracę 🙂 (patrz @SebastianSz : )
  4. Płacili za licencje ludziom, w ten sposób etyczne. Natomiast sam to napisałeś - nie ma regulacji więc siłą rzeczy mogli tego nie robić i pójść po najmniejszej linii oporu. Tutaj akurat pod tym względem oceniam to za dobry ruch z ich strony (który może zaprocentować w przyszłości).
  5. Nie widze całego artykułu - ale chodzi o to, że oni zapłącili, ale ktoś im sprzedawał obrazy jako wykonane przez niego, a generował w Midjourney? Sprytne 🙂 Natomiast nie zmienia to faktu, że dzisiaj to chyba "najzdrowszy" model AI (co pewnie tez idzie w parze z tym, że może być gorszy od midjourney). Natomiast od ilustracji, czy tych uzupełniej w PS daje rade.
  6. Co nowego w Adobe? 🙂 Ano AI AI AI. Ale wypuścili przeglądarkowego Firefly (który uwaga - działa na licencjonowanych źródłach).
  7. Wczoraj odbyła się konferencja w Londynie Adobe MAX 2024 na której Adobe zaprezentowała szereg nowości, które zobaczymy w ich produktach. Jeśli ktoś jest zainteresowany (całość do obejrzenia tutaj) (10 godzin). Polecam keynote'a (chociaż tylko na niego potrzebujecie ok. 2h czasu). Najważniejsze punkty: AI? 😀 Cóż, chyba tutaj raczej nikt nie spodziewał się niczego innego. Wszystko dzisiaj idzie w kierunku rozwoju i coraz to lepszych modeli generatywnej sztucznej inteligencji. Zachęcam jednak na rzucenie okiem na (krótki tym razem film) poświęcony Photoshopowi. Zobaczycie w wielkim skrócie co nowego. Natomiast tutaj chyba największym newsem jest Firefly 3. To model Adobe używany w ich pakiecie. Jeśli ktoś nie ma pakietu Adobe - tutaj też mało osób wie, ale możecie sobie posprawdzać jak to działa w wersji webowej (na razie dostępnej za darmo): https://www.adobe.com/pl/products/firefly.html 🔥 Adobe Firefly Image 3 Skrót informacji prasowej Adobe poświęconej nowej wersji modelu gen-AI Adobe Firefly 3. Podczas konferencji MAX London, Adobe zaprezentowało najnowszą wersję swojego narzędzia generatywnej sztucznej inteligencji - Adobe Firefly Image 3 Foundation Model (beta). Model ten, dostępny już dziś zarówno w aplikacji Photoshop, jak i na stronie internetowej Firefly, wprowadza znaczące innowacje w jakości i kontroli generowanych obrazów. Użytkownicy mogą teraz korzystać z nowych poziomów wyrażania twórczości dzięki funkcjom takim jak auto-stylizacja, które zapewniają wyższą jakość obrazów i większą różnorodność. Firefly Image 3 umożliwia tworzenie wysokiej jakości zdjęć z lepszym oświetleniem, pozycjonowaniem oraz większą dokładnością w generowaniu szczegółów i scen na podstawie skomplikowanych opisów. Znaczące postępy w prędkości generacji obrazów przyczyniają się do zwiększenia produktywności i efektywności procesu twórczego. Od momentu swojego debiutu w marcu 2023 roku, Firefly zostało wykorzystane do stworzenia ponad 7 miliardów obrazów na całym świecie. Najnowszy model jest dostępny w wersji beta, aby społeczność kreatywna mogła testować i dostarczać informacje zwrotne, które pomagają w dalszym rozwoju technologii. Bez wątpienia Adobe tutaj podejmuje rękawicę i chce rywalizować z Midjourney (moim zdaniem - temu ma też służyć udostępnienie szerokiej publiczności wersji przeglądarkowej). Warto dodać, że faktycznie na ten moment wyróżnikiem Firefly jest fakt, że działa na obrazach licencjonowanych. I tutaj Adobe też to podkreśla. Zobacz cały news
  8. Wczoraj odbyła się konferencja w Londynie Adobe MAX 2024 na której Adobe zaprezentowała szereg nowości, które zobaczymy w ich produktach. Jeśli ktoś jest zainteresowany (całość do obejrzenia tutaj) (10 godzin). Polecam keynote'a (chociaż tylko na niego potrzebujecie ok. 2h czasu). Najważniejsze punkty: AI? 😀 Cóż, chyba tutaj raczej nikt nie spodziewał się niczego innego. Wszystko dzisiaj idzie w kierunku rozwoju i coraz to lepszych modeli generatywnej sztucznej inteligencji. Zachęcam jednak na rzucenie okiem na (krótki tym razem film) poświęcony Photoshopowi. Zobaczycie w wielkim skrócie co nowego. Natomiast tutaj chyba największym newsem jest Firefly 3. To model Adobe używany w ich pakiecie. Jeśli ktoś nie ma pakietu Adobe - tutaj też mało osób wie, ale możecie sobie posprawdzać jak to działa w wersji webowej (na razie dostępnej za darmo): https://www.adobe.com/pl/products/firefly.html 🔥 Adobe Firefly Image 3 Skrót informacji prasowej Adobe poświęconej nowej wersji modelu gen-AI Adobe Firefly 3. Podczas konferencji MAX London, Adobe zaprezentowało najnowszą wersję swojego narzędzia generatywnej sztucznej inteligencji - Adobe Firefly Image 3 Foundation Model (beta). Model ten, dostępny już dziś zarówno w aplikacji Photoshop, jak i na stronie internetowej Firefly, wprowadza znaczące innowacje w jakości i kontroli generowanych obrazów. Użytkownicy mogą teraz korzystać z nowych poziomów wyrażania twórczości dzięki funkcjom takim jak auto-stylizacja, które zapewniają wyższą jakość obrazów i większą różnorodność. Firefly Image 3 umożliwia tworzenie wysokiej jakości zdjęć z lepszym oświetleniem, pozycjonowaniem oraz większą dokładnością w generowaniu szczegółów i scen na podstawie skomplikowanych opisów. Znaczące postępy w prędkości generacji obrazów przyczyniają się do zwiększenia produktywności i efektywności procesu twórczego. Od momentu swojego debiutu w marcu 2023 roku, Firefly zostało wykorzystane do stworzenia ponad 7 miliardów obrazów na całym świecie. Najnowszy model jest dostępny w wersji beta, aby społeczność kreatywna mogła testować i dostarczać informacje zwrotne, które pomagają w dalszym rozwoju technologii. Bez wątpienia Adobe tutaj podejmuje rękawicę i chce rywalizować z Midjourney (moim zdaniem - temu ma też służyć udostępnienie szerokiej publiczności wersji przeglądarkowej). Warto dodać, że faktycznie na ten moment wyróżnikiem Firefly jest fakt, że działa na obrazach licencjonowanych. I tutaj Adobe też to podkreśla.
  9. Przez jakiś czas (prawdopodobnie do jutra max3d.pl będzie działało wolno). Trwa migracja serwera i bazy danych (co mocno spowalnia pracę).
  10. @Nezumi zerknij na przykład na to: Ale efekty sprawdź na stronie projektu.
  11. VideoGigaGAN to projekt naukowców University of Maryland, College Park oraz Adobe Research. Przyznam szczerze, że to jeden z projektów, który zrobił na mnie największe wrażenie w ostatnich miesiącach. Czym jest VideoGigaGAN? W skrócie jest to technologia pozwalająca na poprawę jakości wideo. Ale no właśnie, w jaki sposób. Tutaj posłużę się tym co zostało zamieszczone na stronie projektu: Brzmi skomplikowanie, ale zachęcam jednak do rzucenia okiem na stronę projektu. Znajdziecie tam świetną dokumentację i masę przykładów, której pokazują efekty tych algorytmów. Strona projektu: https://videogigagan.github.io/ Nie wiadomo jeszcze kiedy będziemy mogli korzystać z tych algorytmów, ale biorąc pod uwagę, że konferencja Adobe MAX odbędzie się w ciągu kilku godzin od pisania tego tekstu - kto wie, być może właśnie jutro dowiemy się czy VideoGigaGAN zostanie dodany do któregoś z produktów z pakietu Adobe Cloud. Zobacz cały news
  12. VideoGigaGAN to projekt naukowców University of Maryland, College Park oraz Adobe Research. Przyznam szczerze, że to jeden z projektów, który zrobił na mnie największe wrażenie w ostatnich miesiącach. Czym jest VideoGigaGAN? W skrócie jest to technologia pozwalająca na poprawę jakości wideo. Ale no właśnie, w jaki sposób. Tutaj posłużę się tym co zostało zamieszczone na stronie projektu: Brzmi skomplikowanie, ale zachęcam jednak do rzucenia okiem na stronę projektu. Znajdziecie tam świetną dokumentację i masę przykładów, której pokazują efekty tych algorytmów. Strona projektu: https://videogigagan.github.io/ Nie wiadomo jeszcze kiedy będziemy mogli korzystać z tych algorytmów, ale biorąc pod uwagę, że konferencja Adobe MAX odbędzie się w ciągu kilku godzin od pisania tego tekstu - kto wie, być może właśnie jutro dowiemy się czy VideoGigaGAN zostanie dodany do któregoś z produktów z pakietu Adobe Cloud.
  13. No ja słyszalem co innego, ale zobaczymy. Może też w mocno ograniczonej formie. Jeśli to byłaby ta forma, którą pokazywali to subskrypcja będzie ultra droga. W momencie gdy brakuje GPU na świecie do przeliczania tych ich innych modeli podobno to nie jest jakiś super priorytet. Ale to się zmienia co chwilę.
  14. Rewolucja to modele językowe i możliwość wydawania poleceń właśnie w języku naturalnym. Tutaj rewolucja odbywa się np. programowaniu. Możesz tworzyć programy, którym polecenia możesz podawać w sposób naturalny i tutaj uruchamiać konkretne akcje. Nic tak w historii jeszcze nie przyspieszyło automatyzacji jak właśnie te modele. W tym sensie mi chodziło, że to nie sam generator obrazków czy chat gpt. Samo GPT jest już rewolucją. Dzisiaj naprawdę ciężko bez niego pracować w projektach programistycznych. I nie, nie piszą ad A do Z za ciebie wszystkiego. Natomiast prowadzą za rękę, przyspieszą pracę x10. Co do grafiki - cały szereg algorytmów przetwarzających obrazy (których trochę efektem ubocznym są te generatory obrazów). Ale same algorytmy upscalingu, edycji w locie. Jeśli chodzi o SORĘ - też źle chyba zostałem zrozumiany. Owszem, to jest rewolucja, ale to nie jest jeszcze coś co może zostać oddane jako produkt dla ludzi. Po prostu koszt generowania tych filmów dzisiaj jest ogromny i tyle. Machine Learning - owszem, to jest coś co było od lat. Ale lata temu nie mogliśmy nauczyć modeli większości tych tych rzeczy. Myślę, że każdy tutaj może mieć inny punkt odniesienia i OK. To co daje Adobe czy niektóre popularne programy to faktycznie są "zabawki" (chociaż w Photoshopie widziałem całkiem niezłe efekty tych zabawek). Jak znajdę chwilę to opiszę w newsie nowy model Adobe Research właśnie do upscalingu wideo, który jest wg mnie dużym wow (chyba, że jutro go na konferencji przedstawią). Ja mam wrażenie, że w programach typu Adobe Photoshop, telefonach - widzimy faktycznie pewne wodotryski - użyteczne, ale nie są to rzeczy, które zmieniają jakoś życie. Natomiast w IT - na poziomie tworzenia i pracy z modelami LLM. Uważam, że to jest rewolucja.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności