Quizás no todos recordéis un artículo que apareció en los primeros días de esta sección, cuando aún se llamaba Gadgetoscopio. Trataba de Leap Motion, un dispositivo que nos permitía controlar nuestro ordenador mediante gestos. Desgraciadamente, el mismo pasó sin pena ni gloria por el mercado, y no consiguió hacerse ni famoso ni popular. La idea era buena: evitar el uso del ratón, al más puro estilo de películas de ciencia ficción. Algunos años más tarde, Google presenta algo similar: el Proyecto Soli. En este artículo veremos en qué consiste realmente y como puede ser que se convierta en lo que Leap Motion pudo ser y no fue.
¿Qué es el Proyecto Soli?
Como hemos dicho, algunos años más tarde de la presentación de Leap Motion, Google hizo sus avances en el sector públicos. El proyecto, conocido como Soli, es mucho más ambicioso que su predecesor. En lugar de usar cámaras e infrarrojos para posicionar y detectar nuestros gestos, usa mini radares. Esto le permite una miniaturización espectacular, y todo el sistema cabe en un circuito integrado de algunos milímetros.
El hecho de usar tecnología de radar, le permite posicionar nuestras manos de una manera muy precisa, casi rayando la ciencia ficción. Según sus desarrolladores, intenta mejorar la experiencia de usuario en tres sectores:
- Consciencia. El sistema es consciente de cuando un usuario está cerca. Esto incluye detección de si hay un usuario o varios, ya que la experiencia varía. También reconoce la posición del usuario: de pie, sentado…
- Reacción. Soli identifica cuando el usuario (o usuarios) comienzan y terminan una interacción. Gracias a esto, se puede anticipar a los deseos del usuario. Por ejemplo, cuando llegamos, o nos inclinamos o giramos en torno a nuestro dispositivo.
- Activo. Quizás sea este el apartado más interesante, ya que reacciona ante los comandos activos que el usuario está realizando al dispositivo. Pueden ser de numerosa naturaleza y los veremos a continuación.
Para el usuario final, esta última parte es la más interesante, ya que definirá exactamente cómo controlar nuestros dispositivos. Estas interacciones podrán ser tales como:
- Botón. Juntando dos dedos, se identificará con la acción de pulsar un botón.
- Barra. Moviendo el dedo pulgar a lo largo del dedo índice, el sistema reaccionará como si estuviésemos deslizando una barra.
- Giro. Deslizando las yemas de los dedos pulgar e índice, controlaremos el eje de una rueda virtual, permitiéndonos girar elementos.
Por supuesto, incluye los gestos clásicos que otros sistemas ya implementan, como, por ejemplo, para pasar de una canción a la siguiente. En este artículo queríamos centrarnos en los más novedosos que incluye el proyecto Soli.
¿Se puede comprar?
Lamentablemente, en las primeras etapas de su desarrollo, no consiguió ninguna certificación para ser implementado en productos comerciales. Esto ha cambiado en este año 2019, cuando la FCC (Comisión Federal de Comunicaciones de EE. UU.) finalmente ha aprobado su uso comercial. Google, por tanto, no ha tardado mucho en aprovecharse de esta decisión y al momento de escribir estas líneas, ya está disponible.
El nuevo y flamante Píxel 4 de Google incluye el chip del proyecto Soli, que lo dota de control por gestos. Es cierto, no es nada novedoso, muchos dispositivos integran ya control por gestos basados en otras tecnologías, como cámaras e infrarrojos, al igual que Leap Motion hacía. Pero la precisión que se consigue con los mini radares es mucho mejor, y es cuestión de tiempo que esta tecnología se pueda encontrar en más terminales. Al igual que hoy en día casi cualquier terminal tiene lector de huellas, pago con NFC y tecnologías similares.
Por lo que he podido averiguar, Google Píxel 4 no implementa toda la capacidad del chip Soli, y el abanico de gestos no es tan amplio como lo que se ha descrito anteriormente. Pero es cuestión de tiempo y más esfuerzo por parte de los desarrolladores, que la tecnología alcance todo su potencial. El límite reside únicamente en nuestra imaginación.
Deja una respuesta