miércoles, 1 de diciembre de 2010

Cinco interfaces diferentes, interesantes y con un toque futurista

Por: Alvy / Microsiervos
El ejemplo universal cuando se habla de una interfaz futurista suele ser Minority Report, donde el personaje encarnado por Tom Cruise maneja con unos guantes táctiles las ventajas semitransparentes que aparecen mágicamente en el aire. ¿Queda mucho para que podamos comprar algo como eso en la tienda de la esquina? Teniendo en cuenta que esa película es de 2002 y todavía nadie la ha podido llevar a la práctica, la respuesta es una incógnita. Pero a cambio hemos visto en esta última década cómo interfaces similares, e incluso más interesantes, han ido apareciendo en prototipos, ideas de diseño e incluso cómo se convierten en productos de consumo masivo. 
Interfaces multitáctiles

Aunque han existido ideas sobre interfaces que utilizan esta técnica desde hace al menos 25 años, la inferfaz multi-tactil de Jeff Han (2006) resultó impactante cuando se exhibió al público, al mostrar cómo gestos con varios dedos sobre una superficie de gran tamaño podrían servir perfectamente de interfaz para manejar objetos, mapas y demás. Su creador fundó a partir de ahí Perceptive Pixel, una compañía especializada en soluciones gráficas de este tipo, que entre otras cosas utilizan los presentadores de televisión para interactuar con diversas infografías en tiempo real.

Al año siguiente Apple presentaba su iPhoney el iPod Touch, los primeros modelos en incorporar algunas ideas equivalentes en cuanto a tecnología multi-táctil; son tal vez el ejemplo más conocido de esta tecnología. Con el tiempo han añadido esas facilidades a los trackpads de sus ordenadores y últimamente el Magic Mouse, un ratón que funciona con una superficie multi-táctil y no tiene siquiera piezas móviles.

Microsoft también llevó uno de estos conceptos multi-táctiles a término convirtiéndolo en producto real en 2008 tras haber mostrado algunos vídeos meses antes: Microsoft Surface. Esta pantalla con forma de mesa puede responder hasta a 52 toques simultáneos en una pantalla de gran tamaño, colocada normalmente como una mesa. Pueden usarla varias personas de forma simultánea y sus aplicaciones gráficas resultan bastante impactantes. Es un producto real, pero nada barato: se puede comprar por unos 9.000 euros- Actualmente se está utilizando en algunas cadenas de hoteles y tiendas a modo de entretenimiento para los visitantes y como punto informativo.

Mandos con sensores de movimiento

El Wii remote
 de Nintendo marcó de forma definitiva la popularización de un nuevo tipo de interfaz para interactuar con los juegos cuando fue lanzado a mediados de 2006. Mediante acelerómetros y un sensor óptico es capaz de detectar los movimientos que realiza con él la persona que lo tiene en la mano, pudiendo así apuntar a la pantalla, agitarlo, desplazarlo, inclinarlo o realizar todo tipo de gestos. Los juegos y otros programas reconocen esos gestos y actúan en consecuencia controlando la animación y la acción.

El Wii Remote sirvió de base a Johnny Lee para convertirse en una estrella de YouTube y ganarse la admiración de los hackers y aficionados de todo el mundo con su Proyecto Wiimote. Su idea era crear el equivalente a una pizarra interactiva –aparatos educativos interesantes y visualmente impactantes, perotremendamente caros– utilizando el mando de la Wii. Resulta que una idea innovadora como esa se puede llevar a cabo con los 40 dólaresque cuesta el mando, un lápiz de infrarrojos de 5 dólares y algo de software libre. Los interesados pueden disfrutar en la web de eventos TED de un vídeo de la charla dedemostración de Lee en 2008, que causó gran impacto en su momento : Johnny Lee demos Wii Remote hacks.

El cuerpo como interfaz

Si el mando de la Wii supuso una revolución en el mundo de los videojuegos, elProyecto Natal 
de Microsoft para la Xbox pretende lograr lo mismo en los próximos años. Presentado a principios de 2009 con gran ruido mediático, está todavía por comercializarse, pero podría ver la luz en 2010 como controlador para nuevos juegos de su consola Xbox.

La idea es un mando «sin mando»: es el cuerpo y sus gestos el que interactúa con la consola y los juegos. Esto se ve complementado por técnicas de reconocimiento facial y de voz. El secreto de tal innovación es un aparato sensor que se coloca a media altura en la habitación, alineado con la pantalla, y que incorpora sensores de profundidad, cámara y micrófonos multidireccionales. Combinado con el software adecuado es capaz de interpretar los movimientos de la persona y transmitirlos al equipo, para que los juegos tengan un realismo especial ante las acciones de los jugadores.

Propuestas para mejorar las interfaces de ventanas

A veces mantenerse anclado en interfaces del pasado es un error, y hay quien opina que las interfaces visuales actuales de ventanas, que por debajo mantienen además un arcaico sistema de ficheros y carpetas jerárquicas está a punto de quedarse obsoleto. Con esa idea en mente C. Miller diseñó una nueva interfaz –demostrando así que innovar requiere en muchas ocasiones más imaginación que recursos– integrando los objetos actuales en un escritorio del futuro. Se puede lo más interesante en su vídeo demostrativo del concepto, llamado 10/GUI
.

Del cerebro al ordenador: ¿la interfaz definitiva?

Desde hace más de cinco años se han hecho pruebas para conectar sensores en el cortex motor -la zona de la corteza cerebral que se encarga de controlar lo movimientos del cuerpo- para controlar un cursor en una pantalla, o un brazo robot, con solo «pensar» en ello. Esta interfaz, que en cierto modo sería tan definitiva como futurista, también ha visto varios avances en los últimos años, aunque todavía esté lejos de convertirse en una realidad.

El proyecto BrainGate2, por ejemplo, trabaja en reunir más información sobre cómo son esas señales para decodificarlas. Los sensores que se implantan son pequeños –pero van dentro del cráneo– aunque en otros proyectos similares se ha visto cómo basta utilizar una especie de gorrito de piscina con unos sensores similares. En el Instituto Tecnológico de Informática de la Universidad de Valencia, por ejemplo, hay un proyecto dedicado a investigar estas interfaces cerebro-ordenador, a partir de los datos obtenidos en electroencefalogramas.

En general estos sistemas se basan en una fase de entrenamiento, en la que la el ordenador analiza los patrones cerebrales mientras la persona se concentra en un pensamiento («arriba», «abajo», «elegir esto») para luego poder reconocerlos y aplicarlos. En la Universidad de Wisconsin consiguieron recientemente afinarlo de tal modo que la persona podía elegir letras de la pantalla para formar palabras que eran enviadas a Twitter. En las noticias lo titularon «twitteando» con el cerebro, y tal vez es un anticipo de lo que está por venir: manejar el ordenador con sólo pensar.

No hay comentarios:

Publicar un comentario