¿El final del teclado y el mouse?
" The end of keyboards and mice?" Paul Rubens
Touch and Go
Tecnología de pantalla táctil, popularizado por el iPhone de Apple y una serie de otros dispositivos, ha comenzado a erosionar el dominio de los teclados tradicionales. (Copyright: Getty Images)
Mirar al futuro
Pero hay una serie de otros dispositivos en el horizonte, incluyendo Google Glass - casco con auriculares una "realidad aumentada" que se superpone al mundo con gráficos. (Copyright: Getty Images)
Control manual
Otros sistemas que aumentan la vida real incluyen Sixth Sense, un prototipo desarrollado en el Instituto de Tecnología de Massachusetts (MIT) que responde a los gestos. (Copyright: SPL)
Salto hacia adelante
La idea de los gestos de seguimiento también se encuentra en el corazón del movimiento salto que funciona de manera similar al sistema Kinect de Microsoft y saldrá a la venta próximamente. (Copyright: Leap Motion)
Mind Control
Otras interfaces futuristas ya están en el mercado, incluyendo un número de auriculares que interpretar la actividad eléctrica del cerebro para controlar un cursor en la pantalla. (Copyright: SPL)
Punto y haga clic en
Interfaces cerebro más complejas se utiliza para ayudar a los pacientes paralizados ordenadores de control, lo que les permite escribir, poniendo de relieve las letras en una red, por ejemplo. (Copyright: G-Tec)
Futuro flotante
Otra investigación explora la "computación tangible '- el uso de objetos físicos para controlar la acción en pantalla. Zeron MIT utiliza una bola suspendida en un campo magnético. (Copyright: Jinha Lee/MIT)
IPhone de Apple y sus rivales puede haber introducido pantallas táctiles a las masas, pero ahora una serie de tecnologías prometen cambiar la forma en que interactuamos con los ordenadores para siempre.
Estás en el tráfico en movimiento rápido en una autopista ocupado acercando a un cruce complicado con apenas unos segundos para entrar en el carril de la derecha. El teléfono, sintiendo que ahora no es el momento para molestarle, desvía una llamada entrante directamente al correo de voz. Más tarde, cuando se encuentra en un estado más relajado, se reproduce el mensaje de nuevo y se ofrece a sonar la llamada de nuevo.
Incluso si usted está embalando un iPhone 5 o el más reciente de Samsung, es justo decir que el teléfono está todavía muy lejos de hacerlo. A pesar de la impresionante gama de características ofrecidas por los teléfonos de hoy en día - incluyendo comandos de voz - la mayoría de la gente todavía interactuar con sus teléfonos con botones, pinchando una pantalla o el golpe ocasional o pellizco.
Es una historia similar con los ordenadores. Tome la nueva de Microsoft Windows 8 sistema operativo, que será lanzado a finales de esta semana. Su colorido, mosaico cargado de pantalla de inicio puede parecer sorprendentemente diferente a las versiones anteriores de Windows, pero debajo de los ojos dulces que todavía depende en gran medida el teclado y el ratón.
"El teclado y el ratón son sin duda un acto difícil de seguir", dice George Fitzmaurice, jefe de investigación de la interfaz de usuario para EE.UU. fabricante de software Autodesk. Pero, a pesar de la aparente falta de novedad aparente en la mayoría de las interfaces de los dispositivos actuales del mercado de masas, hay un montón de ideas en la tubería.
Tomemos, por ejemplo, la tecnología que pueden controlar sus niveles de estrés. Una técnica se está desarrollando es funcional espectroscopia de infrarrojo cercano (fNIRS) que controla los niveles de oxígeno en la sangre, y la actividad por lo tanto, en la parte frontal del cerebro. "Mide la carga de trabajo memoria a corto plazo, que es una estimación aproximada de la" ocupado "eres", dice Robert Jacob, profesor de ciencias informáticas en la Universidad de Tufts, cerca de Boston, Massachusetts.
La tecnología se utiliza actualmente en los centros médicos, pero algún día podría usarse para ayudar a filtrar llamadas telefónicas, por ejemplo. FNIRS hoy funciona a través de un sensor colocado en la frente, pero también puede ser incorporado en las gorras de béisbol o cintas para el pelo, lo que permite al usuario aceptar sólo las llamadas importantes. Tal vez lo más inmediato, también podría ayudar a las organizaciones asignar cargas de trabajo de manera eficiente. "Se puede decir su teléfono sólo para recibir llamadas de su esposa si ponerse a trabajar más allá de una cierta gradación de la actividad cerebral", agrega Jacob. "Si una máquina puede saber lo ocupado que está, puede decirle si usted puede tomar una carga de trabajo adicional, o podría tomar un poco de su trabajo y asignar a otra persona si usted es más de sí."
Otras formas de "interfaz cerebro-ordenador" ya están siendo utilizados y desarrollados para un número creciente de aplicaciones. Electroencefalografía (EEG) recoge las señales eléctricas generadas por las interacciones de células cerebrales. Durante mucho tiempo se ha utilizado para diagnosticar estados de coma, la epilepsia y la muerte cerebral en los hospitales y en la investigación neurocientífica. La variación de frecuencias de las señales generadas se pueden utilizar para determinar distintas emociones y otros estados del cerebro. Los últimos años han visto el lanzamiento de simplificación de auriculares de EEG que se venden por tan poco como $ 100.
Por ejemplo, una compañía británica llamada Myndplay hace interactivos cortos, juegos y software de entrenamiento deportivo que los usuarios interactúan con ellos a través de la medición de las ondas cerebrales auriculares. Los que con éxito se puede enfocar sus mentes o mentalmente relajarse lo suficiente cuando sea necesario puede influir argumentos cinematográficos y los avances a niveles más altos en los juegos.
Tecnologías similares se utilizan cada vez más para ayudar a las personas con discapacidad. Hace dos años, una empresa austriaca llamada Tecnologías Guger dio a conocer un sistema diseñado para ayudar a los pacientes paralizados tipo, poniendo de relieve las letras en una red por uno hasta que la letra deseada se selecciona y la señal del EEG asociado es detectado. Investigadores españoles han desarrollado EEG controlados sillas de ruedas y están trabajando en usar el mismo método para controlar los brazos protésicos.
Otros investigadores están trabajando en "emocionalmente inteligentes" interfaces que utilizan cámaras de leer las emociones de los usuarios. Mediante el análisis de las expresiones faciales, estos sistemas pueden detectar universales signos característicos de la ira, confusión u otros sentimientos.
Las emociones dan lugar a expresiones faciales muy similares a través de las diferentes culturas, así que estos sistemas podrían ser utilizados en cualquier lugar, dice Peter Robinson, profesor de informática en la Universidad de Cambridge.
El personal de telecentros se les otorga un entrenamiento o secuencias de comandos para ayudarles a tratar con clientes enojados, y los maestros usan expresiones faciales para comprender qué tan bien los estudiantes hacen frente a las clases. Los investigadores están desarrollando sistemas que ofrecen computadoras con información similar usando algoritmos que analizan la posición de características tales como la boca y las cejas en las imágenes de la cara del usuario. "Si un equipo se puede decir que el estudiante se confunde entonces podría adoptar las mismas técnicas que un maestro humano, tal vez mediante la presentación de información de manera diferente, o proporcionando más ejemplos", dice Robinson.
Si bien este tipo de sistemas intentan hacer que la interfaz casi invisible, otra opción intenta integrar las tecnologías existentes, como cámaras, sensores, pantallas y computadoras en objetos cotidianos. Este enfoque - conocido como "computación tangible" - permitiría a cualquier persona para interactuar con los ordenadores que utilizan físicos "cosas" en lugar de a través de los dispositivos de entrada especiales. Por ejemplo, puede indicar su ajedrez se mueven a un ordenador moviendo una pieza en un tablero físico en lugar de mediante la introducción de su movimiento utilizando un teclado y un ratón.
Ya, los investigadores del Instituto de Tecnología de Massachusetts en los EE.UU. son beginnign para explorar los extremos de esta idea, proponiendo todo a partir de bloques de construcción y bandejas de arena para láminas de material maleable y levitar pelotas para controlar en pantalla experiencias.
"El ratón y el teclado no va a desaparecer por completo, ya que son una manera extremadamente rápida y eficaz de interactuar con las computadoras, pero vamos a ver mucho más de la manipulación y la colocación de las cosas reales", dice David Kurlander, anteriormente de Microsoft, Interfaz de usuario y Graphics Group Research. "También vamos a ver más que apunta, el habla y las combinaciones de éstos También predice que las superficies planas como mesas, paredes o ventanas se utilizan como pantallas de visualización, con imágenes desde proyectores personales montados en la ropa o se lleva alrededor del cuello.
Los jugadores se han acostumbrado a controlar consolas de juegos con movimientos físicos utilizando dispositivos como el Kinect - detección de movimiento de Microsoft de dispositivos que puede seguir el movimiento de objetos en tres dimensiones, utilizando una cámara y un sensor de profundidad. Y el gigante del software ha creado incluso un software que podría permitir a la gente a utilizar una máquina con Windows 8 Kinect. Inevitablemente, se establecen comparaciones con la interfaz de usuario futurista utilizado por el personaje de Tom Cruise en la película Minority Report para manipular vastas extensiones de la información y pásela alrededor de múltiples pantallas virtuales con movimientos extravagantes brazo. Sin embargo, los expertos se muestran escépticos de interfaz de tomar de Hollywood en el futuro.
"Las personas tienden a ser perezosos y los grandes movimientos del brazo se cansa muy, por lo que creo que es muy dudoso que la gente siempre se va a comunicar con los ordenadores que utilizan gestos dramáticos cuando podrían lograr los mismos resultados con un ratón o su voz, o alguna otra forma , tales como movimientos de los dedos pequeños ", dice Kurlander.
Esta última idea es el concepto detrás de Leap, un dispositivo de detección de movimiento 3D pequeño que se sienta frente a la computadora y permite a los usuarios navegar por sitios web, jugar o utilizar otro software usando los dedos y movimientos de la mano. Un impresionante video promocional lanzado a principios de este año por su movimiento Leap creadores, con sede en San Francisco, muestra ejemplos como alguien navegar por una imagen de satélite de una ciudad en pleno vuelo golpes y pellizcos, y luego usando los movimientos del pulgar para disparar un arma de fuego en un primera persona shoot 'em up juego. El gadget de $ 70 es debido en el mercado a principios del año que viene.
Pero si todo esto suena demasiado energéticos - o tal vez peligroso - para una oficina de planta abierta, hay otras maneras menos agotadoras de comunicarse con el ordenador. Por ejemplo, los sistemas que controlan los movimientos oculares ya se utilizan para ayudar a las personas con discapacidad. Las aplicaciones incluyen el control de sillas de ruedas y como un sustituto de los teclados tradicionales como medio de escritura. Steven Feiner, profesor de ciencias informáticas en la Universidad de Columbia, e investigador líder de realidad aumentada, cree interfaces de eye tracking se convertirá en algo común. "Si nos fijamos en un lugar o dirección, que podría ser la señal para que aparezca cierta información", dice. "Por ejemplo, usted podría mirar en la parte superior derecha de tu campo de visión para que aparezca el tiempo, o tal vez su más reciente mensaje de correo electrónico."
Under the skin (Debajo de la piel ) La realidad aumentada, como se conoce, elimina la necesidad de pantallas separadas por superposición de información de las computadoras directamente en un campo de visión del usuario con gafas, lentes de contacto o algún tipo de visor montado en la cabeza. "Lo que estamos tratando de hacer es integrar la información con el mundo que te rodea, por lo que en lugar de ver la información en un lugar distinto a una cosa, lo ves en el espacio de la cosa", dice. El campo fue primero prevista ya en la década de 1960, pero sólo ahora se empieza a disponer de la tecnología para que sea práctico. Algunas innovaciones recientes se han acercado. A principios de este año, Google ha demostrado Glass Project, un sistema que proyecta información como llamadas entrantes y los mensajes de correo electrónico en los vidrios de los usuarios. Esto no es realmente la realidad aumentada ya que el contenido no está relacionado con lo que el usuario está viendo. Algunos argumentan que las aplicaciones de telefonía móvil que ofrecen información relacionada con atracciones turísticas o el cielo de la noche cuando estos se ven a través de la cámara del dispositivo también se quedan cortos, ya que el seguimiento de la posición y la orientación de la cámara en lugar de los movimientos del usuario para los ojos. Verdadera realidad aumentada permitirá un ingeniero de mantenimiento para mirar un motor, lea las instrucciones de reparación y ver los componentes específicos resaltados todo dentro de su campo de visión. También podría ser utilizado en reuniones de empresa e incluso en las cenas para acceder a los nombres de personas y otra información acerca de ellos con sólo mirarlos, por ejemplo. La conclusión lógica a esta forma de diseño de la realidad aumentada puede ser un sistema incrustado dentro de los ojos del usuario. Esta tecnología es claramente muy lejos como para merecer que se colocará en el reino de la ciencia ficción, la incorporación de otros dispositivos de interfaz en otras partes del cuerpo, como debajo de la piel, no puede ser. Por ejemplo, los pequeños ordenadores integrados o sensores que interactúan con el cuerpo humano podría ser de gran utilidad para salvar vidas o impar. Algunos investigadores han comenzado a explorar esta idea , la implantación de pequeños chips bajo la piel para controlar las puertas y las luces de un edificio. Imagínese LED rojos iluminando debajo de su piel cuando has bebido demasiado para conducir, o un dispositivo que avisa cuando la presión arterial o los niveles de colesterol peligrosamente alto. Por supuesto, estas aplicaciones especializadas están muy lejos de ser algo que reemplace el teclado y el ratón, dice Fitzmaurice de Autodesk. "Podrías tener botones para controlar un reproductor de MP3, por ejemplo, y el beneficio sería que siempre estaría contigo y nunca se pierden, sino que realmente los quiere bajo su piel?" En la mayoría de los casos, la respuesta es probablemente no. Perhaps best to hold on to that qwerty keyboard for a while longer yet. Tal vez lo mejor es mantenerse en el teclado qwerty aún por un tiempo más.
Si desea hacer comentarios sobre este artículo o cualquier otra cosa que he visto en el futuro, diríjase a nuestra página de Facebook o un mensaje con nosotros en Twitter .
Fuente BBC
1 comentario:
Particularmente el hecho de usar chips bajo la piel, por imposición, como planean en algunos lugares, es un tema que me recuerda a referencias apocalípticas. ¿El rechazo hacia algunas tecnologías será prejuicio a la adaptación de las innovaciones, o es rechazo a nueva forma de esclavitud?.
Publicar un comentario