reklama
reklama
reklama
reklama
© OSRAM
Technologie |

Wykorzystanie technologii LED w VR i AR

Projektowane w ostatnim czasie systemy wirtualnej i rozszerzonej rzeczywistości są najbardziej intuicyjną możliwością interakcji ludzi i sprzętów elektronicznych.

Wykorzystują one wbudowane czujniki do rejestrowania ruchów i dynamicznego odpowiadania na aktywność użytkowników oraz ich imersji w wirtualnym otoczeniu. Obserwowanie osób korzystających z ostatnich systemów wirtualnej albo rozszerzonej rzeczywistości przypomina obserwowanie tancerzy. Ubierając headsety albo specjalne okulary lawirują oni wokół przestrzeni, w której się znajdują poruszając rękami w powietrzu w sposób, który dla obserwatora z zewnątrz wydaje się nie mieć jakiegokolwiek sensu. Jednak ten pozornie nieskoordynowany taniec stanowi jedną z najbardziej nowoczesnych i intuicyjnych form interakcji z grą komputerową, czy właściwie bezpośrednio z samym oprogramowaniem. Czujniki wykorzystujące zazwyczaj światło podczerwone rozpoznają pozycję użytkownika, rejestrują jego ruchy i gesty, na które system odpowiada, a nawet włącza do akcji rozwijającej się w wirtualnej rzeczywistości. Wirtualna rzeczywistość jako równoległe uniwersum Użytkownicy wirtualnej rzeczywistości (VR) pozostają całkowicie zanurzeni w równoległym, stworzonym przez system komputerowy świecie. System nie tylko tworzy szczegółową symulację otoczenia, ale także pozwala użytkownikom VR aktywnie działać w wytworzonej rzeczywistości. Choć obecnie rozwiązania wykorzystujące wirtualną rzeczywistość nastawione są głównie na odbiorcę gamingowego, to lista potencjalnych możliwości wykorzystania tej technologii jest bardzo długa. Rozciąga się od wirtualnych wakacyjnych wycieczek, przez zwiedzanie nowych, pozostających jeszcze w fazie projektu budynków aż do treningowej symulacji wyzwań, przed którymi mogą stanąć fachowcy (strażacy, piloci) w swojej codziennej pracy. Z technicznego punktu widzenia systemy VR składają się z headsetu z dwoma obiektywami, przez które można obserwować tę samą „scenę” z dwóch różnych perspektyw. Dzięki temu użytkownik VR zachowuje poczucie głębi obrazu. Ruchy użytkownika rejestrowane są za pomocą czujników umieszczonych w specjalnym headsecie przeznaczonym do VR lub – co spotyka się coraz częściej – w smartfonie. Często spotykanym ostatnio rozwiązaniem jest wykorzystanie specjalnych gogli, które pozwalają zamontować telefon z właściwym oprogramowaniem w taki sposób, żeby maksymalnie wyizolować wzrokowo użytkownika od otaczającej rzeczywistości i dzięki temu pozwolić mu na najwyższej jakości doświadczenie gry – tak na komputerze, jak i na konsoli. Specjalnie zaprojektowane sensory nie tylko rozpoznają pozycję użytkownika w realnej przestrzeni, ale także pozwalają mu na orientację w tej wirtualnej, gamingowej. Często rejestrują także ruchy rąk – każdej oddzielnie i przenoszą te dane do wykreowanego świata VR. Użytkownicy technologii dzięki wykorzystaniu tego typu czujników mogą poczuć się w pełni przeniesieni do wirtualnego świata, w którym są w stanie funkcjonować niemal tak, jak w tym realnym – np. łapać i przenosić przedmioty. Prawdziwi bohaterowie wirtualnego świata Do rejestracji ruchów użytkownika w przestrzeni gamingowej, systemy VR wykorzystują kombinację podczerwieni i kamer lub fotodetektorów. Jedną z możliwości jest umieszczenie LEDów nadających światło podczerwone wokół headsetu, emitujących wiązki światła wg określonego wzoru. Przednia kamera, rejestrująca „markery” świetlne, wykorzystując specjalne algorytmy przelicza pozycję użytkownika i jego ruchy na podstawie wyświetlanego „wzoru” i jego zmian. Do wygenerowania światła niezbędne są kompaktowe i odpowiednio wydajne diody, które pozwalają na redukcję rozproszonego światła do minimum. Ze względu na swoje właściwości, światło o długości fali wynoszącej 850 nanometrów jest odpowiednie – podczas gdy jest niewidoczne gołym okiem, może być odczytane przez czujniki spektralnej czułości kamery rejestrującej ruchy i położenie użytkownika. Mała żarówka LEDowa SFH 4053 (1.0 mm x 0.5 mm x 0.45 mm) stanowi dobry wybór przy tego typu sprzętach – dostarcza 35 miliwatów mocy optycznej przy natężeniu 70 miliamperów. Rys.1. Do optymalizacji pozycjonowania użytkownika, w systemach VR często montuje się specjalne odbiorniki i nadajniki w headsecie. Inne rozwiązania wykorzystują odwrotne podejście – zamiast rzucania światła na pole gry, fotodetektory wbudowane w headset wykrywają podczerwień wyświetlaną z różnych kierunków na tym polu. Algorytmy przeliczają pozycję użytkownika i dokonują analizy na podstawie odebranych sygnałów z pola. Podobnie rejestruje się ruchy rąk: użytkownicy mogą używać ręcznych kontrolerów i za ich pomocą dokonywać określonych działań na planszy. Kontrolery – także wyposażone w specjalne fotodetektory mogą być włączone do symulacji i w pełni zintegrowane z wirtualną rzeczywistością gry. Jednostki świetlne – nadające podczerwień powinny być zbudowane z mocnych, wysokowydajnych diod LED, emitujących falę światła o długości 850 nanometrów. Jako jedne z najmocniejszych i najbardziej wydajnych urządzeń dostępnych na rynku emitujących podczerwień wymienia się żarówki serii Oslon Black, generujące moc optyczną przewyższającą nawet 1.3 watta przy natężeniu 1 ampera energii, w zależności od rodzaju chipu. Montowane na obudowie headsetu standardowe fotodiody odbierają sygnał wysyłany przez takie nadajniki. Aby uniknąć zderzenia użytkowników z przedmiotami we właściwej rzeczywistości, system VR stale ocenia przestrzeń do gry przy pomocy diody laserowej o długości fali 850 nm. Jeżeli użytkownik zbliży się do ściany lub innego przedmiotu w realnej przestrzeni, w wirtualnej rzeczywistości pojawi się paralelna przeszkoda, którą trzeba będzie ominąć. Rozszerzona lub mieszana rzeczywistość, czyli rzeczywistość pokryta informacją Rozszerzona rzeczywistość (AR) wzbogaca realny świat o dodatkowe, kontekstowe informacje. Tego typu rozwiązania dotąd wykorzystywane były głównie w aplikacjach związanych z przemysłem. Użytkownicy AR pracujący przy złożonych systemach mieli możliwość szczegółowego przeglądu złożonych komponentów poszczególnych narzędzi czy przyjrzenia się z bliska właściwemu etapowi procesu produkcji. Jednak podobnie jak w przypadku VR, aplikacje oparte na rozszerzonej rzeczywistości rozwijane są z myślą o znacznie szerszej grupie odbiorców. Elementy AR już pojawiają się w reklamach podczas zakupów czy przy aplikacjach nawigacyjnych przeznaczonych dla pieszych. Latem 2016 roku AR nagle zyskało szeroką rozpoznawalność dzięki grze zaprojektowanej na smartfony – Pokemon GO, w której zadaniem graczy było „łapanie” wirtualnych postaci pojawiających się w realnym otoczeniu. Wiele systemów AR wyświetla informacje na ekranach smartfonów i używa czujników zamontowanych w tych urządzeniach do określenia dokładnego położenia użytkownika w przestrzeni. W okularach data glasses – znanych także jako smart glasses – również wykorzystuje się technologię AR do wyświetlania użytkownikom informacji bezpośrednio w ich polu widzenia. Okulary pozwalają zachować wolne ręce (w których nie trzeba trzymać smartfona) i dzięki temu posługiwać się programami AR całkowicie intuicyjnie, wyłącznie za pomocą gestów. Podczerwień dla rozpoznawania gestów W systemach AR ruchy i gesty użytkowników wykrywają miniaturowe kamery 3D wbudowane do okularów typu smart glasses. Istnieją dwie podstawowe metody osiągnięcia tego rezultatu, wykorzystywane wcześniej m.in. w konsolach do gry. Kamery oparte na technologii „time-of-flight” rejestrują czas potrzebny na powrót generowanego przez laser impulsu do źródła. Odległość pomiędzy przedmiotem i czujnikiem jest tym samym przeliczana piksel po pikselu. Źródło światła o długości fali 850 nm emituje laserowa dioda podczerwieni. Laser jest odświeżany z prędkością większą niż 50 megaherców. Czas powrotu jest określany na podstawie zmiany fazowej pomiędzy impulsem emitowanych i odbitym. Dlatego od lasera wymagany jest wysoki cykl pracy oraz możliwość wytworzenia krótkich impulsów o wysokim natężeniu. Strukturalne rozwiązania świetlne oferują alternatywne podejście. Zdefiniowany wzór znaczników złożony ze „świetlnych punktów” jest wyświetlany w określonej przestrzeni i kamera wykrywa, jak punkty zmieniają swoje położenie podczas ruchu obserwowanego obiektu. Światło uderza w dyfrakcyjny element optyczny (DOE), który emituje zmieniający się wzór – podobny do układu optycznego – co razem tworzy pożądany „szablon” punktów światła. Podsumowanie Zamiast polegać na znanych urządzeniach służących do wprowadzania danych, takich jak smartfony czy tablety, systemy VR i AR w coraz pełniejszej formie obserwują swoich użytkowników i odpowiadają bezpośrednio na ich działania, wciągając ich do symulowanej, równoległej rzeczywistości. Skutkiem tego wykształca się najbardziej intuicyjna droga interakcji ludzi i maszyn. Ta technologia wymaga wykorzystywania źródeł podczerwieni i stałego rozwoju rozwiązań w każdym przypadku dokładnie dopasowanych do konkretnego przypadku, otoczenia i wspieranych przez zaawansowane aplikacje. Artykuł uzyskany dzięki uprzejmości © OSRAM Opto Semiconductors.

reklama
reklama
Załaduj więcej newsów
March 15 2024 14:25 V22.4.5-2