LightSpace og det interaktive rommet. Fremtiden ifølge Microsoft
Innholdsfortegnelse:
Hos Microsoft Research har de jobbet med teknologier for gjenkjennelse og interaksjon med miljøet i lang tid. Kinect er det paradigmatiske eksempelet, men ikke det eneste. LightSpace er et annet av prosjektene innen dette feltet til Redmonds forskningsavdeling. Ved å kombinere elementer av overflategjenkjenning med utvidet virkelighet, og takket være dybdekameraer og projektorer, gjør LightSpace hver overflate i rommet og til og med det ledige rommet mellom dem interaktive.
Målet med LightSpace er å tillate interaksjon i det daglige miljøet, ved å bruke forskjellige elementer som projeksjonsflater.systemet bruker tabeller eller vegger for å vise grafikk som lar brukere bruke hender og bevegelser for å manipulere projisert innhold. Selv om bare bord og vegg brukes i demoer, kan LightSpace gjenkjenne et større antall overflater og bruke dem som en interaktiv skjerm.
Samhandle med hvilken som helst overflate
Systemet lar ikke bare flere hender gjenkjennes som om det var en multi-touch-skjerm, men legger også til nye interaksjoner med kroppen som tillater overganger mellom ulike overflater For eksempel kan vi flytte innhold fra en til en annen ganske enkelt ved å plassere en hånd på det aktuelle objektet og berøre destinasjonsoverflaten. På denne måten simulerer LightSpace innhold som reiser gjennom kroppen vår fra en del av rommet til en annen.
I tillegg til å flytte innholdet fra en overflate til en annen, lar systemet deg trekke det ut fra dem og holde det i hendene som om det var et fysisk objekt.For å gjøre dette projiserer den en rød ball på hånden som representerer det aktuelle innholdet. Brukeren kan transportere den slik over rommet og til og med bytte med andre brukere. For å returnere den til en overflate, bare ta den nærmere den slik at den overføres, og gjengi innholdet på den igjen.

Dybdedeteksjonen som brukes av systemet lar også generere representasjoner utenfor selve overflatene Dermed kan vi, som vist i demoen, naviger gjennom alternativene til en meny ved å heve eller senke hendene i været. Systemet registrerer høyden hvor det varierer mellom de ulike alternativene. Som resten er dette bare ett eksempel på hva som kan oppnås med LightSpace.
Hvordan virker det
For å gjøre rommet interaktivt på en slik måte, bruker systemet flere dybdekameraer og projektorerDisse er kalibrert for å oppdage den virkelige posisjonen til objektene og overflatene i rommet, slik at grafer kan representeres på dem. For å gjøre dette, registrerer hvert av kameraene dybden der hvert objekt er funnet, og skiller mellom stabile objekter i rommet og andre mobile objekter som brukerne selv. Hver piksel konverteres til en virkelig koordinat.

LightSpace bruker disse dataene til å bygge et 3D-nettverk av rommets elementer, og oppdager overflatene som innholdet kan projiseres på. Modellen av rommet vil bli brukt til å gjenkjenne interaksjonene til brukerne i miljøet Kameraene som ble brukt tidligere vil tillate brukerens bevegelser å bli oppdaget, og differensiere deres konturer og oppdage posisjonen til hendene nøyaktig.
Systemet vil dermed tolke brukerens bevegelser for å utføre hver av de implementerte handlingene.Vi har allerede sett noen av disse, som å jobbe med innholdet på en hvilken som helst overflate, overføre det fra en til en annen eller transportere det rundt i selve rommet som om det var et ekte objekt. Men systemet kan implementere andre instruksjoner som tillater flere handlinger på hvilken som helst overflate.
Det er her alles fantasi kan settes i gang. Målet er å gjøre enhver overflate til en interaktiv skjerm. Uten behov for ekstra skjermer eller bevegelsessensorer, forvandler LightSpace ethvert rom til et nytt arbeids- eller lekerom til noe mer av fremtiden.
I Xataka Windows | Fremtiden ifølge Microsoft Mer informasjon | Microsoft Research




