lunes, 23 de noviembre de 2020

Ya podemos usar la mente para hablar con las máquinas

Se define como BCI –por sus siglas en inglés- a un sistema que permite establecer una conexión directa entre el cerebro y un dispositivo externo. El brain-computer interface (BCI) o interfaz cerebro ordenador recoge e interpreta las señales que emite el cerebro humano, y las transmite a una máquina, que está programada para ejecutar comandos asociados a dichas señales. La aplicación más directa de esta tecnología se centra en la sanidad, y, más en concreto, en los ámbitos de la rehabilitación y de la sustitución motora. Sin embargo, las posibilidades que ofrece en distintos campos son inmensas, tanto en el ocio –los videojuegos son ideales para su utilización-, como en otros que están basados en acciones que pueden ser optimizadas estableciendo una relación más directa entre la mente y la máquina.

La actividad del cerebro humano se basa en las neuronas. Cuando pensamos, sentimos o nos movemos, las neuronas emiten señales eléctricas. A través de la electroencefalografía (EEG) podemos recoger esa actividad cerebral, amplificarla y enviarla a un algoritmo de inteligencia artificial, que se encarga de interpretarla, y, en su caso, traducirla a una acción, como, por ejemplo, mover un brazo mecánico.

En realidad, este planteamiento tan de ciencia ficción no es sino una evolución del interfaz hombre máquina, que, poco a poco, acerca la capacidad de comunicarnos con ellas a nuestras formas más básicas de transmitir información. Los primeros ordenadores eran operados con tarjetas perforadas. Luego llegaron los teclados y los complejos lenguajes de programación de medio nivel, todavía cercanos al lenguaje que utilizan las computadoras. La informática realmente acabó por extenderse a todo el mundo gracias a los interfaces gráficos, especialmente Windows, cuyo funcionamiento intuitivo hacía innecesario el tener amplios conocimientos de códigos y comandos para interactuar con un dispositivo. Más adelante, hemos conocido las pantallas táctiles, especialmente de los teléfonos inteligentes, y, muy recientemente, elementos de domçotica que, como los altavoces domésticos, entienden el habla humana y son capaces de respondernos utilizando la palabra. Sin embargo, todo parece indicar que, en un futuro cercano, el interfaz que utilizaremos para controlar los diversos aparatos digitales a nuestra disposición será el propio cerebro humano.

En junio de 2019 saltaba la noticia de que investigadores de Carnegie Mellon University habían desarrollado el primer brazo robótico controlado por la mente basado en tecnología no invasiva. La novedad es que se trata de la primera experiencia exitosa al respecto que no ha requerido implantes en el cerebro, y, por tanto, abre un nuevo espectro de posibilidades para pacientes con limitaciones motoras, excluyendo el riesgo que implica para la salud una intervención quirúrgica, además del elevado coste que lleva a asociada.

En el otro extremo se encuentra la iniciativa puesta en marcha por la empresa Neuralink, creada por el fundador de Tesla, Elon Musk, que plantea desarrollar un “lazo neural” (neural laze), es decir, una malla de electrodos insertada bajo el cráneo capaz de monitorizar las funciones del cerebro. En concreto, hablan de crear un interfaz cerebro máquina (BMI) para restaurar las funciones motoras y sensoriales, y para tratar desórdenes neurológicos. Neuralink trabaja en un sistema BMI de banda ancha y escalable, capaz de superar las limitaciones que presentan otros interfaces clínicos anteriores.

El prototipo de Musk inserta con absoluta precisión en el cerebro, a través de un robot neurocirujano, racimos de diminutos y flexibles electrodos -hasta 3 072 de ellos-, que constituyen canales de información. El objetivo a largo plazo consiste en llegar a construir una “capa de superinteligencia digital” que conecte a los humanos con la inteligencia artificial.

No hay comentarios:

Publicar un comentario

Comenta lo que quieras

 
Google Analytics Alternative