Skocz do zawartości

olaf

Members
  • Liczba zawartości

    11 040
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    35

Zawartość dodana przez olaf

  1. nie jestem przeciwnikiem wosp, przystanku, nie jestem przeciwnikiem wspierania innych darowiznami, z mojego konta co miesiąc schodzi kwota na fundację X (bo w UK 100%kwoty idzie na cele statutowe, obsluga jest z mojego podatku ktory zwraca fundacji panstwo - czyli sporo bo 20%, gdzie standardem etycznym fundacji m.narodowych jest 10%) ale wkleje to dla rownowagi, bo czym byloby podejmowanie decyzji bez mozliwosci wysluchania argumentow roznych osob.
  2. diler Ci miesza stuff z jakims gónwem.
  3. uncle ja podchodze bardzo pozytywnie, to fajna rzecz i pewnie 2ga i 3cia generacja tej idei będzie gniotła suty w realtime, teraz nie mozesz zniszczyć ścany, bo i tak masz jej cień na podłodze. i nie mozesz puścić zadnego cienia na geometrie, bo po pierwsze nie wyliczysz tak miękkich, po drugie nadpiszą się z obecnymi co będzie nienaturalne jak cholera. Ta generacja nie nadaje sie na gre akcji ale widac znalazl sie ktos, kto chce zaryzykować - czemu nie, tacy ludzie pchają technologię do przodu, moze pojawią się niezłe pomysły jak to usprawnić dzięki dodakowym pieniądzom na rozwijanie technologii dla jej twórcy.
  4. dla mnie stylistyka nieczytelna, ale warsztat swietny, czekamy na prace po detoksie :)
  5. ale to jest z zeszlorocznego gdc zdaje sie.
  6. u mnie nie bardzo moze wzbogac prace o kilka procesow by uzyskac cos podobnego
  7. olaf

    Szybki gameart #2

    ok tu macie nagrane video z 1rdzeniowego urządzenia - jestem nawet bardzo zadowolony z płynności, szczegolnie, ze bałem się o kartę czy udzwignie animację intro przed pierwszym poziomem. Jak mówi max kolonko, czyniąc dluga historię krótką, mamy video:
  8. byloby super ale nie widzę w tej produkcji budżetu by dojść choć do 3ciego punktu.
  9. Nikt nie pisze, to wstawie sam - na CES zaprezentowano mobilnego keplera - nvidia K1 wraz z referrencyjnym urządzeniem, wiecej informacji w tym kanale: http://www.youtube.com/channel/UCHuiy8bXnmK5nisYHUd1J5g K1 wspiera unreal engine 4, dzięki czemu (w tym filmiku tego nie ma, ale Jason wspominal w innej prezentacji) przerobka trine2 na androida trwala ok 5tygodni. http://en.wikipedia.org/wiki/Tegra#Tegra_K1 urzadzenie ref porownując ikony andka do mojego tabletu ma nie wiecej niż 1280x800, ale bardziej wyglada na 1024x800 (-40px dolny panel andka). Tu jest (od 1:30), wygląda bardzo ubogo, K1 nie radzi sobie najlepiej z dx11 ale je wspiera więc np. prerender efektow bedzie możliwy. niestety zmieniła się strona wikipedii w ciagu ost. 2dni - nie ma już tabeli z ramem (4gb) ale dobry news jest taki, ze data premiery z 1q 2015 (4core 32bit) i 3q 2015 dla 2core 64bit zmienil sie na 2q 2014. Na pewno bardzo dobra wiadomosc dla kazdego studia pracującego nad czym w UE4 i nie biorącego pod uwage portow na mobile wczesniej.
  10. nie, tm nie bedzie zniszczeń, silnik skanowania jest nieco zbyt prosty. zeby nie bylo ze troluje, ogladałem kanał yt z tegorocznego (2013) siggraph i kanał yt disney lab czy jakos tak i tam widac ogrom pracy nad postprocesem obrazu, tu mamy tylko geometrię i tekstury. Jak autor dopisze postproces wyciagajacy dane z oswietlenia (czyli pewnie dodatkowy obiemtyw IR na dronie) mozna by to oświetlać chociażby - ale o ruszaniu terenem to nawet nie ma mowy. Licze ze nastepne wersje silnika beda to mialy, ale do tej gry nie ma szans tego wdrozyc i tak.
  11. nie znam sie na architekturz ale z kompozycyjnego punktu widzenia ciezko by male detale dobrze graly z plaszczyznami - w Twoim przypadku klinkier i gładki tynk.
  12. realtime to tez render tylko w realtime. to na pewno nie jest prerender. mam bardzo podobne wrazenia jak Hris. Z pewnoscia zaleta tej produkcji bedzie PCtowy ram na karcie. technologia ma mase ograniczen - licze ze poradza sobie z tymi paskudnymi oknami - ale od scenariusza w sumie zalezy czy bedzie nam to przeszkadzac w samej grze. gdyby gra opeierala się na czyms retrospektywnym jak w remember me czy beyond to efekt bylby fenomenalny, po zolniezach widac, ze to bedzie coś innego i tu bedzie znacznie trudniej przekonac widza, ze tak jest najlepiej. anyway to juz nie nawet zadanie dla grafikow ale scenarzystow, a to mozna zawsze szlifować w produkcji. dlatego trzymam kciuki.
  13. to super. na video nie maja z tego co widze. i nie chodzi mi o cienie obiektow dodanych tylko cienie z obiektow dodanych.
  14. nom czyli nie bedzie cieni z obiektów dodanych. Enviro robi wrazenie, reszta zmontowana tak, by nie było nic widać, a to chyba najważniejsze elementy. No nic macie roczek więc zyczę powodzenia i sukcesu. Nadal uważam, ze to powinno byc robione na komorki :D
  15. a od czego pada bateria jak nie od procesora? Kazdy skrypt client-side jest urzeczywistnieniem tego o czym mówię. Zwiększona moc i ujednolicona forma 'zrównoleglania' obliczeń da coś co klient chętnie wykorzysta, bo będzie dzięki temu tańsze i/lub wyższej jakości. A skala - ilość urządzeń - doprowadzi do opłacalności wdrożenia takich rozwiązań. Głupio się czuję opisujac takie rzeczy, jakbym na spotkaniu zarządu tłumaczył ludziom którzy nie wiedza jak działa technologia.
  16. w pierwszym akapicie nie bardzo zrozumiałeś ogólną myśl, albo koniecznie chciałeś napisać nie na temat więc się nie odniosę, w drugim - mam sporo rzeczy na dziś nie będę tłumaczył, że już obecnie udostępniają, bo też wyjdzie z tego gadka nie na temat.
  17. trzyma się, tylko nie ogarniasz ;) Napisałem, ze telefon ma niski pobór mocy i nie potrzebuje infrastruktury. Chmura to olbrzymie pieniądze na start i ogromny koszt za konsumpcje prądu. Dla przykładu już teraz do farmowania bitcoinów używa sie niskonapięciowych komputerków(i dodatkowo stawia w krajach gdzie prąd jest najtańszy), bo wazniejszy jest flops/Wat niż to czy jest coś 10tys razy szybsze. To tylko jeden ale bardzo jaskrawy przykład tego jak mała ilośc watów i niskie koszta stworzenia infrastruktury (zero logistyki, chłodzenia, bezp. energetycznego) potrafią uzasadnić funkcjonowanie projektu. Mam gdzies na dysku projekt oprogramowania zabezpieczającego i monitorującego strony www chroniąc userów przed infekcjami stron www w oparciu o rozproszone analizowanie danych (który działa!). Niestety żaden polski anioł biznesu nie był tym zainteresowany, ale to taki przykład projektu ktory można powołać za darmo bazując na wzajemnych obliczeniach. Skoro idea kas spółdzielczych sprawdza się w finansach to czemu nie w przetwarzaniu danych? Jedyna różnica to charakter waluty - tu ludzie pożyczają sobie prąd ;)
  18. K1 to zwykly SoC (system on a chip). Więc mozna go uzywac jak zwyklego SoC tylko masz juz devKita do Cuda. A zastosowanie wszędzie tam, gdzie SoC typu raspbery pi jest niewystarczajacy. Telefon ma kilka sensorow jakich nie ma serwer (zreszta po co serwerom akcelerometr itp.) ma niski pobór mocy i nie potrzebuje infrastruktury. Nie wsadzisz niewidomemu na plecy kompa, nie podłączysz serwera do samochodu, nie zrobisz chmury dronów z latajacymi laptopami. Jest wiele pozytywnych (legalnych) botnetów i taki pomysł nie jest absurdalny, ma swoje zastosowania, ale mobilna cuda przyniesie nowa skalę.
  19. pewnie jak zawsze - co się da normal, reszta dispem, ale jak był jakiś fajny patent albo zostało dorzeźbione to też chętnie usłyszę co wybraliście.
  20. dzieki, ze rzuciłeś swym super okiem w wątek ;) video z tych programów przejrzałem i dzieki za cynę. Faktycznie działają bardzo fajnie na szczęście/nieszczęście nie pokrywają się z moimi potrzebami i przeznaczeniem softu. Wczoraj rozpisałem się ale w nocy do głowy przyszedł mi pomysł lepszej optymalizacji. Widać to na video - niebieska otoczka. Teraz trakuję core twarzy i miejsce jej zanikania, co pozwala mi określić jak twarz się porusza, kiedy się np. przechyla i jak zmnienia się odległość od kamery. To pozwoli pewnie w tym mies wstępnie podpiąć cartoonka bez trakowania jeszcze punktów z czego w sumie jestem bardzo zadowolony, bo odpada cała masa obliczeń by ustalić te podstawowe stany. Są też suwaki, by aktor sobie dostosował otoczenie przed nagraniem.
  21. Mam nadzieje ze przekręcasz moje słowa celowo, a nie przez nieumiejętność zrozumienia treści.
  22. Upływ czasu jest nieubłagany. Albo podejmę rozmowę z Tobą albo ze znajomymi, którzy pracują nad takimi projektami.
  23. Fajnie podsumowane, ale gdybyśmy wyszli z piaskownicy, to można zauważyć, że NVIDIA pokazała na CES pierwszą kartę CUDA dla ARM - dla mnie prawdziwa rewolucja, jeżeli rozprzestrzeni się tak szybko jak tegra 4 to za półtorej roku będzie kilka/kilkanaście mln urządzeń mogących wykonywać równoległe obliczenia w mobilnej chmurze bez martwienia sie o infrastrukturę. Wiele badań naukowych będzie mogło wyjść z laboratorium, wiele innych dopiero wtedy będzie mogło się zacząć. Ale oczywiście gierki też są spoko.
  24. nie no, soft będzie za free, mysle ze import elementów twarzy z plików png i pozniejszy eksport metadanych lub sekwencji png jest do wykonania - adobe air sobie poradzi z tym spokojnie i pewnie na początek takie coś będzie dostępne. Inwestorzy potrzebni będą pozniej mam nadzieje, ze uda się w 2015 zrealizowac wieksze plany. Tymczasem niewielkim nakładem godzin, których ciągle mało, zrobiłem generowanie widma i trakowanie twarzy. Ten zoptymalizowany obszar (dolny obrazek, czerwony obszar) będzie finalnym obiektem badania skryptu. Nie wiem czy użyję kaskad (Haar Cascade) czy czegoś indywidualnego. Jak widać na obrazkach A i B mam marker-klip, który będę dopasowywał do obszaru. Pomoże mi złapać skalę twarzy, rotację (w razie jakby ktoś miał krzywy ryj) i inne rzeczy. Niebieskie punkty będą szukały oczu, reszta będzie pomagała interpolować możliwe położenia naszej twarzy, by szukanie oczu było wydajniejsze - szczególnie gdy osoba będzie przypadkowo przybliżać/oddalać głowę od obiektywu. Wiem, że to banalne, każdy 1-szo roczniak z polibudy zrobiłby to w matlabie, ale generalnie początek jest banalny, co nie zmienia faktu, że muszę go mieć zanim pójdę dalej. I najlepiej by nie zabijał kompa durnymi obliczeniami. Myślę, że wystarczy ok 16tys iteracji/klatkę by wytrakować wszytko czego potrzebuje w twarzy ze sporą dokładnością. Kazdy kolejny punkt dzieki mapom elastyczności znajdę w pewnie 64 krokach.
  25. ja mam subskrypcje cnet na YT i kanału nvidia - tu jest cała ponad godzina o ich projektach na 2014, bardzo mi się podoba rynek automotive - ich K1 troche za duzy na teblety ale jako chip do automatów jak uav/samochody idealny. kanał nvidii na YT: http://www.youtube.com/user/nvidia/videos
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Wykorzystujemy cookies. Przeczytaj więcej Polityka prywatności