*

X
Este desarrollo del Instituto Tecnológico de Massachusetts permite que un dispositivo reconozca órdenes sencillas, como la navegación en una pantalla o la suma de cantidades

Hace unos meses se dieron a conocer los resultados de un desarrollo científico que, grosso modo, tuvo como propósito enseñar a una inteligencia artificial a reconocer pensamientos humanos, codificarlos y convertirlos en imágenes relativamente identificables. El resultado fue admirable, y de alguna manera mostró que en este momento existe tecnología capaz de adentrarse en el cerebro humano, bucear y extraer algo de lo mucho que puede pasar por nuestra mente.

En el Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés) se ha desarrollado una tecnología que a primera vista parecer ser un puente directo entre el pensamiento y un dispositivo electrónico, de manera tal que éste ejecuta órdenes que parecen ser transmitidas sin decir una palabra, sin mover un dedo, sin presionar ningún botón: tan sólo con pensar.

El nombre provisional que tiene este prototipo es AlterEgo y por lo pronto permite interacciones “sencillas” como navegar con acciones simples a través de un menú de opciones, conocer la hora actual o sumar cantidades. 

Sin embargo, esto es posible no gracias a un sistema de reconocimiento neuronal o algo parecido, sino a un desarrollo sumamente preciso que identifica los movimientos musculares sutiles que la mayoría de nosotros realiza cuando “decimos” en silencio palabras muy específicas. 

Según se explica en el reporte del MIT al respecto, esta conexión entre la “voz interna” y el cuerpo se estudió con cierto interés siglo XIX, y con un poco más de seriedad a mediados del siglo XX. En el caso de este desarrollo se parte de un principio afín, al conectar 16 electrodos a distintas zonas del cuerpo para detectar esos movimientos usualmente imperceptibles para el ojo humano (e incluso para nuestra propia percepción). El sistema se complementó con un sistema de “aprendizaje profundo” (deep learning), basado a su vez en una red neural que hizo posible la correlación entre el pensamiento de palabras determinadas y la reacción muscular sutil asociada con éstas. Este es el resultado:

Si bien no es (aún) un puente directo entre el pensamiento y el dispositivo, AlterEgo parece encaminarse a dicho objetivo. Y también es inevitable pensar en otro efecto evidente y, no obstante, un tanto ignorado: el aislamiento de la persona que lo usa, que por un momento se ve rodeada de otros seres humanos pero está concentrada únicamente en su conexión con el aparato. Las similitudes con Her (Spike Jonze, 2013) son notables, restando toda la diferencia estética de ambos registros. 

¿Será este el futuro que aguarda al ser humano?

Te podría interesar:
Autos que se manejan solos abundan ya en Arizona, pero no han logrado computar el factor impredecible del comportamiento humano

Para los que no lo han notado, la era de los vehículos que se conducen solos está calladamente entrando en vigor, y eso pese a que aparentemente no se ha logrado perfeccionar el sistema. Un Uber autónomo atropelló a una pedestre en Tempe, Arizona, el primer accidente mortal en Estados Unidos con autos que se conducen solos, si bien ya la compañía Tesla había reportado percances. 

La policía informó que el auto estaba en modo autónomo durante el siniestro -estando el operador dentro del auto- y atropelló a una mujer que caminaba fuera de la banqueta. Uber publicó sus condolencias y dijo que detendrá sus operaciones de autos que se conducen solos en las ciudades de Phoenix, Pittsburgh, San Francisco, y Toronto.

El hecho tiene además relevancia ya que uno de los accionistas de Uber es Google, la compañía que desarrolla muchos de estos autos autónomos; se cree que el plan futuro es que se prescinda de los conductores y todo se realice de manera automatizada.

La tecnología de los autos supuestamente debe ser capaz de detectar a pedestres y ciclistas. El incidente ha generado llamados a fortalecer las regulaciones en torno a estos autos robóticos, que aparentemente no son capaces todavía de predecir el comportamiento humano. Este es el ruido que sigue entrando al algoritmo. 

En Tempe se ha detectado con frecuencia el uso de estos vehículos en piloto automático, pero se ha notado que algunos autos sin operadores suelen circular por las calles, algo que obviamente puede ser un problema. Esto se debe a la política que ha implementado el gobernador, de dejar a las compañías de tecnología probar sus nuevos inventos en el estado de Arizona.