Project Soli, la apuesta de Google por la comunicación gestual

Project Soli permitirá interactuar con los dispositivos sin tocarlos (Proyecto Soli)

Tan sutil como sentir el vuelo de una mariposa, así funcionan los sensores del Project Soli, la apuesta de Google por la comunicación gestual con las máquinas. Creado en el seno del departamento Google ATAP,
promete buscar la fórmula para que los dispositivos que usamos
habitualmente reconozcan nuestras órdenes con solo mover las manos. 

Soli quiere
transformar el modo en el que nos comunicamos con las máquinas. Nada de
teclados, nada de ratones y ni siquiera nada de tocar pantallas
interactivas, solo gestos. Y, ¿cómo puede funcionar esto? Pues con un nuevo sistema de interacción basado en el radares.
Sí, en los radares, como los de tráfico o los que detectan aviones. En
realidad no es nada del otro mundo, de nuevo las ondas electromagnéticas
son las que toman parte en la conexión midiendo la distancia, la
dirección, la altitud e incluso la distancia de nuestras manos con
respecto al dispositivo que queremos utilizar.
Si te das cuenta,
lo más interesante de este proyecto es que podríamos interactuar con
aparatos muy pequeños sin tocarlos y en los que normalmente no es
posible acertar con nuestros enormes dedos a la hora de darles una orden
concreta. Por lo que el incipiente sector de los weareables es un gran potencial donde enfocar la estrategia del Proyecto Soli.

Soli es tan pequeño que cabe en un diminuto chip (Proyecto Soli)
De esta manera, es posible que en el futuro no necesitemos utilizar el smartphone para comunicarnos con los wearables,
tal y como estamos haciendo ahora en los comienzos de la ‘tecnología
vestible’, ya que la comunicación con el dispositivo podría ser directa y
no con el móvil como puente de unión e interface. 
Soli
puede emitir y detectar señales muy precisas, detectando unos 10.000
registros por segundo, con lo cual no hay gesto de tus dedos que se le
escape. Además es tan pequeño que cabe en un diminuto chip.

Como es costumbre de Google,
está pensado ofrecer el proyecto a la comunidad de desarrolladores a
través de futuras APIs. Algo que saben por experiencia que se trata de
la mejor vía para encontrar nuevas e interesantes funcionalidades a esta
singular iniciativa.



El Project Soli se basa en otros anteriores bien conocidos, como el dispositivo Kinect, compañero de batalla de la consola de videojuegos Xbox 360 de Microsoft o el Leap Motion, también una de las primeras iniciativas en cuanto a conexión gestual hombre-máquina.
Si
la comunicación gestual ha sido capaz de reducir la brecha con las
personas sordas o incluso ha contribuido a investigar la comunicación
con primates, ¿qué no podrá hacer con la tecnología actual como apoyo?
Iremos viendo, pero parece que es posible que dentro de poco podamos
hablar con las máquinas con solo mover un dedo.

Fuente: http://ift.tt/1JsyzCl

from Blogger http://ift.tt/1LwMzkW

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s