Skocz do zawartości

Czy to się da zrobić? Odwrócone 360 degree wideo


emptyman

Rekomendowane odpowiedzi

Wpadł mi do głowy trochę absurdalny pomysł, którego nie potrafię w sensowny sposób sprawdzić więc proszę was o pomoc w jego z głowy wybiciu :) a może kogoś zainspiruje...

 

Pewnie wiecie że ostatnio na youtube pojawiła się opcja oglądania filmów 360 stopni, np.

(działa na chrome i smartfonach)

 

Pomyślałem o tym, czy dałoby się taką panoramę odwrócić, czyli przygotować render jakiegoś obiektu z dużej ilości kamer zwróconych w stronę obiektu, ustawionych w sferze dookoła obiektu. Render z każdej kamery zbierałby tylko mały wycinek obrazu, tak aby obrazki z poszczególnych kamer się na siebie nie nakładały.

 

Kamerki wokół obiektu wyglądałyby mniej więcej tak:

2015-07-16%2000_33_10.png

 

Dlaczego to się nie może udać? (bo wydaje mi się że musi się nie udać : )

 

Po co?

Bawię się ostatnio trochę kręceniem 3d z kinectem, może można byłoby wyświetlić taki filmik w jakiś ciekawy sposób via YT?

Może w ogóle dałoby się oglądać animacje 3d (nie panoramy) na YT?

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 8
  • Created
  • Ostatniej odpowiedzi

Top Posters In This Topic

Top Posters In This Topic

No właśnie bardziej chodziło mi o to co trzeba zrobić z obrazem żeby wyświetlenie go w takiej przeglądarce panoram 360 stopni jak na YT spowodowało odwrotny efekt - obrotu wokół obiektu.

 

Oczywistym pomysłem mogłoby być little planet, np:

ale, co nie specjalnie dziwne, nie działa https://www.youtube.com/watch?v=C3KlyP6f9ck
Odnośnik do komentarza
Udostępnij na innych stronach

No właśnie bardziej chodziło mi o to co trzeba zrobić z obrazem żeby wyświetlenie go w takiej przeglądarce panoram 360 stopni jak na YT spowodowało odwrotny efekt - obrotu wokół obiektu.

 

Fotogrametria? Gdzieś widziałem przykłady sekwencji skanów 3d z możliwością podglądu w przeglądarce. tylko, że zajmuje to dużo pamięci i jest bardzo słabej rozdzielczości (zbliżonej do jakości skanów z kinekta).

 

Opcja 2d odpada z racji dużej ilości danych.

btw. czy tobie nie chodzi aby o efekt w stylu 'bullet time' z możliwością przełączania się pomiędzy kamerami w realtime?

Odnośnik do komentarza
Udostępnij na innych stronach

Wiem czym jest little planet i fotogrametria ;]

 

Jeszcze raz pytanie: czy myślicie że byłaby szansa tak wyrenderować animację obiektu w 3d aby w przeglądarce panoramy takiej jak YT była możliwa jej projekcja w sposób podobny do przeglądarek obiektów 3d np. w webgl

Odnośnik do komentarza
Udostępnij na innych stronach

Nie.

 

Opcja1 - Przeglądarka 3d w stylu sketchfab, do statycznych, (teoretycznie nie stoi nic na przeszkodzie żeby była do animacja, może wprowadzą taką opcję)

Opcja2 - seria wyrenderowanych animacji z każdej z kamer i podpięta pod przeglądarkę. Coś w stylu http://ggnome.pl/object2vr.html.

Opcja 3 - Napisać samemu kod. Kiedyś robiłem coś podobnego z papervision3d. Można było wrzucać też animację. Tu statyczny model: LINK

Edytowane przez PICsell
Odnośnik do komentarza
Udostępnij na innych stronach

Chcesz po prostu zrobic mape sferyczna obiektu... W youtube byloby to wyswietlane w taki sposob jakbys ogladal obiekt od wewnatrz... Zamiast 1000 kamer mozesz to zrobic w taki sposob:

-Robisz Bake tekstury na obiekcie.

- Dajesz 2 sided material i iluminacje na 100%.

- Wrzucasz kamere do geometrycznego srodka Twojego obiektu.

- Uzwasz fisheye 360 override dla lens camera

- Dostajesz taka mape od wenatrz ktora bedzie powiedzmy "tym samym" co zrobienie mapy od zewnatrz ze znieksztalceniami gdyby kamery znajdowaly sie w nieskonczonej odleglosci od obiektu.

 

Roznica miedzy jedna kamera a uzyciem "1000" patrzacych od zewnetrznej stgrony obiektu bedzie polegala na tym iz w przypadku kamer z zewnatrz bedziesz w stanie stworzyc mape sferyczna obiektu wrac ze znieksztalceniami. Tzn bedziesz mogl znormalizowac odleglosc kamer od powierzchni/ danego piksela lub zastosowac rozne wartosci. Watpie bys dal rade zrobic mape od zewnatrz bez jakiegos dodatkowego algorytmu ktory posklada to w calosc, ktory wypozycjonuje wartosci z kamer w danym segmencie mapy. Mozesz w sumie przygotowac czesciowo cos takiego w NUKE, Houdinim wciaz jednak wymagac to bedzie zrobienia projekcji na sfere z UV biorac pod uwage jaki wycinek powierzchni mapujesz i jak bardzo Twoj wycinek powierzchni rozni sie od idealnej sfery :). Im wiecej kamer bedziesz mial i mniejszy FOV tym mniejsze znieksztalcenia otrzymasz na brzegach map z kazdej z kamer. Mysle ze nie da sie tego zrobic w prosty sposob...higher mathematics.

 

Ogolnei caly proces troche przypomina np prob zrobienia mapy Ksiezyca, Ziemi etc.

http://maps.jpl.nasa.gov/textures/ear1ccc2.jpg

Jezeli wrzucilbys to na Youtube to bedziesz tam po prostu mial widok taki jakbys patrzyl ze srodka Ksiezyca... Ta mapa Ksiezyca to przyklad takiej znormalizowanej mapy.. Nie byloby jednak duzej roznicy gdybys mogl wykonac taka projekcje z wnetrza Ksiezyca poniewaz Ksizyc ma ksztalt bliski sfery.

 

Problem pojawia sie przy probie np stworzenia mapy dla obiektow o ksztalcie innym niz sferycznym gdzie powierzchnia jest ciagla. Zobacz np ze dla tej ostatnio popularnej komety do ktorej doleciala Rosetta ESA do tej pory nie opublikowala sferycznej mapy...

https://www.google.ca/search?q=67P/Churyumov%E2%80%93Gerasimenko+map&biw=1888&bih=1007&source=lnms&tbm=isch&sa=X&ved=0CAYQ_AUoAWoVChMIxOegqOfixgIVwXySCh2RSgPz#tbm=isch&q=67P%2FChuryumov%E2%80%93Gerasimenko+map+spherical+

 

Nie opublikowala poniewaz taka mapa bylaby niepraktyczna. Musialbys miec powyginane poludniki i rownolezniki by nie miec utraty informacji o powierzchni na takiej mapie. Z tego samego powodu nie jest praktyczna rzecza przygotoowywanie mapy UV nie pocietej na kawalki dla obiketow 3d o ksztalcie znacznie innym niz sfera.

 

Zawsze mozesz zrobic tez shell ze sfery wokol jakiegos obiektu 3d. Przemodelowywujesz sfere shell do ksztaltu zblizonego do Twojego obiektu ciagle trzymajac oryginalna UV na twoim shellu. Potem robisz projection bake z jednej UV do UV sfery shell. Dostaniesz cos bardzo zblizonego mysle do mapy ze znieksztalceniami ze "znormalizowanymi" odlegosciami kamer od powierzchni. Jednak w przypadku gdy w modelu bedziesz mial dziury... wtedy jestes w dupie i dostaniesz na takiej projekcji UV bledy.

Edytowane przez norden
Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się



×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności