adek Napisano 2 Sierpień 2011 Napisano 2 Sierpień 2011 Lytro jest to projekt kilku naukowców, którzy przez lata pracowali nad pewną technologią, którą chcą wkrótce udostępnić. Stworzyli oni kamerę, która potrafi sfotografować nie tylko to co jest przed nią, ale i całą głębię światła. Najlepiej to chyba zobrazują przykłady zamieszczone na stronie twórców. Pełna treść wiadomości znajduje się na stronie głównej serwisu pod adresem: http://www.max3d.pl/news.php?id=1915
ZelvaBOi Napisano 3 Sierpień 2011 Napisano 3 Sierpień 2011 (edytowane) Ciekwe ile czasu trwa naswietlanie przez projektor DLP. Swoja droga to teraz dopiero moze sie zaczac zalew badziewnych zdjec, chociaz nie sadze by cena byla atrakcyjna jak zrobia produkt komercyjny. Niemniej dla profesjonalistow genialny patent - dzieki czemu uda sie skorygowac delikatne back/front focusy i nie bedzie potrzeba mikroregulacja obiektywu. Edytowane 10 Czerwiec 2013 przez ZelvaBOi
Sjon Napisano 3 Sierpień 2011 Napisano 3 Sierpień 2011 Kto by się przejmował zalewem zdjęć:). To jest moim zdaniem fantastyczne i szybko pewnie zostanie użyte w produkcjach filmowych. Jeżeli głębia jest osobno, pozwoli to np. na użycie warstwy, żeby szybko wyciąć postać bez potrzeby używania green screena.
Gith Napisano 3 Sierpień 2011 Napisano 3 Sierpień 2011 "Jeżeli głębia jest osobno, pozwoli to np. na użycie warstwy, żeby szybko wyciąć postać bez potrzeby używania green screena." ale zwykle brzmi to zbyt pięknie, by było idealne :) Zastanawia mnie sposób generowania bokehów. Domyślam się, że jest do tego software, który generuje je na podstawie jasności. Swoją drogą fajnie byłoby zaimplementować coś takiego w rendererach :)
Gith Napisano 3 Sierpień 2011 Napisano 3 Sierpień 2011 chyba, że to po prostu robi jednocześnie zdjęcia z różnymi punktami ostrości, wtedy mój powyższy post jest nieprawdziwy :)
maru Napisano 3 Sierpień 2011 Napisano 3 Sierpień 2011 Moim zdaniem to częściowo lipa. Widziałem sample z tego lytro, gdzie niektóre miejsca wyglądały na źle wycięte (obszar zblurowany nachodził na ostry, tudzież odwrotnie) więc to chyba kilka zdjęć złożonych w całość.
narwik Napisano 3 Sierpień 2011 Napisano 3 Sierpień 2011 Czemu lipa, przecież ilość możliwych do uzyskania punktów głębi jest skończona i na pewno niezbyt duża. Dwa, sposób prezentacji na stronie polega przecież na tym, że masz kilkanaście jpgów między którymi się 'przemieszczasz'. Pytanie o czas naświetlania jest zasadne, chciałbym zobaczyć np. zdjęcie kostki wpadającej do wody. Ale skoro udało się zrobić nieporuszone zbliżenie na wąsy kota to jest nieźle. W ogóle jest dużo pytań o kwestie techniczne. Jak wielka jest ta matryca, która zbiera informacje o wektorze padającego fotonu?
adek Napisano 3 Sierpień 2011 Autor Napisano 3 Sierpień 2011 No właśnie też mi się nie chce wierzyć, że to do końca "lipa". Taki "ficzer" daje naprawdę spore możliwości. @maru: gdzie są te sample? Gdzieś już pokazano samą kamerę? Ja nie znalazłem informacji.
olaf Napisano 3 Sierpień 2011 Napisano 3 Sierpień 2011 adobe z nvidią pokazywali coś podobnego w oparciu o technologię CUDA w czasie rzeczywistym więc raczej nie lipa, a raczej kolejny krok rozwoju fotografii.
SYmek Napisano 3 Sierpień 2011 Napisano 3 Sierpień 2011 (edytowane) Moim zdaniem to częściowo lipa. Widziałem sample z tego lytro, gdzie niektóre miejsca wyglądały na źle wycięte (obszar zblurowany nachodził na ostry, tudzież odwrotnie) więc to chyba kilka zdjęć złożonych w całość. Ta technologia w postaci eksperymentalnej istnieje od co najmniej 20 lat. Zdaje się na Stanfordzie kamerę do tej fotografii budowali studenci undergrad (więc nawet nie wielcy naukowcy), więc jaka lipa? Pierwszy z brzegu paper:http://graphics.stanford.edu/papers/lfcamera/ Nvidia natomiast pokazała sam algorytm zaimplementowany w CUDA generowania zdjęć z lightmapy w czasie rzeczywistym, bo właśnie czas renderowania był największą bolączką tej techniki. Edytowane 3 Sierpień 2011 przez SYmek
narwik Napisano 4 Sierpień 2011 Napisano 4 Sierpień 2011 Teraz zauważyłem, 200 stronicowy opis zasady działania z masą technicznych detali. Artykuł trudny i wymagający sporej dozy wiedzy matematycznej i fizycznej: http://www.lytro.com/renng-thesis.pdf
maru Napisano 6 Sierpień 2011 Napisano 6 Sierpień 2011 http://oh-so-coco.tumblr.com/tagged/Lytro Czwarte zdjęcie od góry, z modelką trzymającą się lewą ręką za głowę. Focus na łokciu, okolica łokcia wygląda co najmniej dziwnie. To samo z włosami po lewej stronie na górze głowy. Pojawia się jakiś pattern, jakby coś źle wycięli. Ale zaznaczam że napisałem CZĘŚCIOWO lipa, poza tym to tylko nędzna teoria spiskowa. ;)
SYmek Napisano 6 Sierpień 2011 Napisano 6 Sierpień 2011 http://oh-so-coco.tumblr.com/tagged/Lytro Czwarte zdjęcie od góry, z modelką trzymającą się lewą ręką za głowę. Focus na łokciu, okolica łokcia wygląda co najmniej dziwnie. Każda technologia ma swoje problemy. W tym doktoracie mówi się o różnych artefaktach związanych np. z undersamplingiem. Te zdjęcia są w końcu "sztucznie" składane z fragmentów sygnału zapisanych w przestrzeni spektralnej (?) albo innym ustrojstwie, więc ma to się gdzie zepsuć.
Rekomendowane odpowiedzi
Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto
Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.
Zarejestruj nowe konto
Załóż nowe konto. To bardzo proste!
Zarejestruj sięZaloguj się
Posiadasz już konto? Zaloguj się poniżej.
Zaloguj się