Crónicas del futuro: pantallas
¿RECUERDAS LAS PRIMERAS PANTALLAS TÁCTILES QUE NO NECESITABAN PUNTERO? PARECÍA MAGIA. ESTA FORMA DE INTERACTUAR CON EL MÓVIL Y OTROS APARATOS PODRÍA TENER UN SUSTITUTO EN CIERNES: EL CONTROL POR GESTOS.
El iPhone no fue el primer teléfono con pantalla táctil. Tampoco el primero con una pantalla capacitiva, pensada para usarse directamente con los dedos y sin ayuda de un puntero de plástico, una tecnología que Steve Jobs menospreció durante la presentación del dispositivo insignia de Apple en el auditorio Moscone de San Francisco en enero de 2007: “Si ves que otros fabricantes usan un puntero, lo han hecho mal”. Lo que sí es fácil admitir ahora, con la ventaja en perspectiva que dan los años, es que el iPhone cambió nuestra forma de interactuar con la tecnología. Marcó un antes y un después en las expectativas que tenemos acerca de una pantalla táctil y la reacción de los elementos que hay en ella cuando la tocamos.
Pensemos, por ejemplo, en un gesto tan intuitivo como pellizcar para hacer zoom. Es tan natural que hoy los niños más pequeños –apaciguados desde bebés con tabletas y teléfonos– esperan poder hacerlo en cualquier superficie, y se extrañan cuando no parece tener efecto en una foto de una revista en papel o en la televisión. O en cómo esperamos que en una pantalla táctil los elementos tengan inercia al desplazarnos por una lista, otro de los detalles que hoy damos por sentado cuando manejamos un móvil. Estos gestos y aspectos visuales debutaron en el iPhone y se extendieron poco después a todo tipo de dispositivos electrónicos. Hoy son tan comunes como el doble clic o el clic derecho del ratón en un ordenador convencional.
¿QUÉ SERÁ LO SIGUIENTE? LA LLEGADA
DE LOS WEARABLES (dispositivos electrónicos ponibles) y los conocidos como objetos inteligentes plantea nuevos retos a los diseñadores de interfaces de uso. Muchos de estos productos carecen de pantalla, o es tan pequeña –pensemos en el reloj Apple Watch– que no resulta práctico toquetearla. Durante años, los expertos han considerado que la computación verbal sería la siguiente etapa de nuestra comunicación con las máquinas. Asistentes virtuales como Siri, Assistant o Alexa son aún primitivos y no muy eficientes, pero apuntan a un futuro en el que la
mayor parte de la interacción con estos aparatos y la información que manejan se hará mediante comandos de voz.
Sin embargo, Google tiene en la rampa de lanzamiento un producto que verá la luz antes de fin de año –los rumores apuntan a octubre– y que podría encaminar las cosas en una dirección muy diferente, una en la que los gestos son muy importantes y en la que no hace falta tocar pantalla alguna. Quienes hayan visto la película Minority Report recordarán la interfaz gestual que el policía John Anderton –interpretado por Tom Cruise– usaba para examinar archivos de vídeo: gracias a unos guantes especiales y con solo mover las manos en el aire, podía avanzarlos, pararlos y editarlos en una pantalla holográfica. Los gestos recordaban a los de un director de orquesta, porque esa fue la visión que Steven Spielberg, director del filme, transmitió a John Underkoffler, el diseñador de interfaces del Instituto Tecnológico de Massachusetts (MIT) encargado de inventar este nuevo lenguaje gestual.
LA ESCENA RESULTÓ PODEROSAMENTE ICÓNICA
y despertó el interés de la industria de la electrónica de consumo por este tipo de interfaces, pero no por mucho tiempo. Un detalle no muy conocido es que, aunque la mayor parte de las imágenes se generaron por ordenador, los guantes de datos creados por Underkoffler funcionaban de verdad y podían asociarse a una interfaz gráfica para controlar todo tipo de tareas en un ordenador convencional. El problema radicaba en que hacer estos gestos en el aire resultaba poco práctico y agotaba al usuario en pocos minutos. Era una coreografía espectacular en la pantalla, pero poco práctica a la hora de moverse por un menú de opciones o escribir un correo electrónico. Como el prototipo necesitaba de guantes especiales y una cámara, también costaba pensar en implementarlo en dispositivos portátiles.
Así fue hasta 2014, cuando un equipo de Google X –la división de investigación y desarrollo de Google– comenzó a trabajar en esta misma idea, pero dando un giro a la forma en la que el sistema detecta los gestos. En lugar de una cámara en el espectro visible o infrarrojo y unos guantes especiales, utilizaron un pequeño radar de baja potencia que emitía ondas electromagnéticas en la banda de 60 Ghz, reservada por lo general para dispositivos médicos, científicos e industriales. Este modesto radar solo veía objetos muy cercanos, situados a unos centímetros, pero podía hacerlo con cualquier iluminación –incluso a oscuras– y con un grado de fiabilidad bastante alto, sin tener que usar técnicas de reconocimiento de imagen.
Google bautizó el proyecto como Soli, y logró que el radar detectara con precisión algunos gestos hechos con los dedos, como frotar el índice con el pulgar, o mover este de arriba y abajo. ¿De qué forma? Por el patrón de interferencia que tales movimientos creaban en la señal emitida. Después de cinco años de investigación, el resultado es un chip que, instalado en
un teléfono o un reloj, consigue captar los gestos de control realizados cerca de su superficie.
LA TECNOLOGÍA YA SE ENCUENTRA LISTA PARA LLEGAR AL MERCADO,
y el nuevo móvil de la compañía, el Pixel 4, será el primero en integrarla. Los usuarios podrán pasar de canción en el reproductor de música, apagar la alarma por la mañana o silenciar una llamada con solo extender la palma de la mano sobre el terminal, o moviéndola a izquierda y derecha.
El catálogo de gestos es limitado, pero Google promete ir añadiendo más en futuras actualizaciones. Los prototipos de Soli que se han mostrado hasta ahora en ferias y congresos son capaces de interpretar decenas de gestos diferentes que podrían tener muchísimas aplicaciones en dispositivos cotidianos como altavoces, despertadores, relojes inteligentes y auriculares. Tal vez en el futuro, para subir o bajar el volumen de unos pequeños auriculares inalámbricos, baste con deslizar el pulgar sobre el dedo índice cerca del oído, o realizar el gesto de desplazar una rueda de control de volumen.
Y si la tecnología demuestra ser lo suficientemente versátil e intuitiva... ¿quién sabe? Tal vez los niños de la próxima generación se extrañen si sus juguetes no reaccionan cuando muevan las manos y hagan gestos frente a ellos.