En Portada

Investigación cerebro-máquina: la tecnología que puede transmitir información a nuestra mente directamente

Jack Gallant nunca se propuso crear una máquina para leer la mente. Su enfoque era más prosaico. Neurocientífico informático de la Universidad de California, Berkeley, Gallant trabajó durante años para mejorar nuestra comprensión de cómo los cerebros codifican la información —qué regiones se activan, por ejemplo, cuando una persona ve un avión o una manzana o un perro— y cómo esta actividad representa el objeto que se está viendo.

A fines de la década de 2000, los científicos pudieron determinar qué tipo de cosa podría estar mirando una persona por la forma en que se iluminaba el cerebro: un rostro humano, por ejemplo, o un gato. Pero Gallant y sus colegas fueron más allá. Descubrieron cómo usar el aprendizaje automático para descifrar no solo la clase de cosas, sino qué imagen exacta estaba viendo un sujeto. (Qué foto de un gato, entre tres opciones, por ejemplo).

Un día, Gallant y sus estudiantes de postdoctorado se pusieron a conversar. De la misma manera en que se puede convertir un altavoz en un micrófono conectándolo al revés, se preguntaron si podrían hacer ingeniería inversa del algoritmo que habían desarrollado para poder visualizar, solo a partir de la actividad cerebral, lo que una persona estaba viendo.

La primera fase del proyecto fue entrenar a la inteligencia artificial (IA). Durante horas, Gallant y sus colegas les mostraron algunos clips de películas a los voluntarios que estaban en las máquinas de resonancia magnética (fMRI, por su sigla en inglés). Al hacer coincidir los patrones de activación cerebral impulsados por las imágenes en movimiento, la IA construyó un modelo de cómo funcionaba la corteza visual de los voluntarios, que analiza la información de los ojos. Luego vino la siguiente fase: la traducción. Mientras mostraban a los voluntarios clips de películas, le preguntaron al modelo, dado todo lo que sabía sobre sus cerebros, qué pensaba que podrían estar mirando.

El experimento solo se centró en una subsección de la corteza visual. No captó lo que estaba ocurriendo en otras zonas del cerebro —por ejemplo, cómo se podía sentir una persona sobre lo que veía o lo que podría estar fantaseando mientras miraba—. El esfuerzo fue, en palabras de Gallant, una primitiva demostración conceptual.

Y aún así los resultados, publicados en 2011, son notables.

Las imágenes reconstruidas se mueven con una fluidez onírica. En su imperfección, evocan el arte expresionista (y unas pocas imágenes reconstruidas parecen totalmente equivocadas). Pero, cuando tienen éxito, representan un logro asombroso: una máquina que traduce patrones de actividad cerebral en una imagen en movimiento comprensible para otras personas, una máquina que puede leer el cerebro.

Gallant estaba encantado. ¿Imaginas las posibilidades cuando una mejor tecnología de lectura cerebral se encuentre disponible? ¿Imaginas a las personas que sufren el síndrome de cautiverio, la enfermedad de Lou Gehrig, las personas incapacitadas por derrames cerebrales, que podrían beneficiarse de una máquina que podría ayudarles a interactuar con el mundo?

También estaba asustado porque el experimento mostró, de manera concreta, que la humanidad estaba a las puertas de una nueva era, en la que nuestros pensamientos podrían, teóricamente, ser arrancados de nuestras cabezas. Gallant se preguntó: ¿Qué iba a suceder cuando pudieras leer los pensamientos de los que el pensador ni siquiera es consciente, cuando pudieras ver los recuerdos de la gente?

“Ese es un pensamiento aleccionador que ahora tienes que tomar en serio”, me dijo recientemente.

Durante décadas, nos hemos comunicado con las computadoras principalmente usando nuestros dedos y nuestros ojos, mediante la interfaz a través de teclados y pantallas. Estas herramientas y los dedos huesudos con que las tocamos proporcionan un límite natural a la velocidad de la comunicación entre el cerebro humano y la máquina. Solo podemos transmitir información con la rapidez (y precisión) que podamos escribir o hacer clic.

El reconocimiento de voz, como el utilizado por Siri de Apple o Alexa de Amazon, es un paso hacia la integración más perfecta entre el humano y la máquina. El próximo paso, uno que los científicos de todo el mundo persiguen, es la tecnología que permitirá que la gente controle las computadoras —y todo lo que está conectado a ellas, incluyendo autos, brazos robóticos y drones— simplemente pensando.

Gallant suele bromear diciendo que la imaginaria pieza de hardware que haría eso sería una “gorra de Google”: una gorra que podría sentir comandos silenciosos y hacer que las computadoras respondan en consecuencia.

El problema es que, para funcionar, esa gorra necesitaría ser capaz de ver, con cierto detalle, lo que sucede en los casi 100.000 millones de neuronas que componen el cerebro.

La tecnología que puede mirar fácilmente a través del cráneo, como la máquina de resonancia magnética, es demasiado difícil de montar en la cabeza. La tecnología menos voluminosa, como el electroencefalograma, que mide la actividad eléctrica del cerebro a través de electrodos adheridos al cuero cabelludo, no proporciona la misma claridad. Un científico lo compara con la búsqueda en la superficie de las ondas hechas por un pez que nada bajo el agua, mientras una tormenta asola el lago.

Otros métodos de “ver” dentro del cerebro podrían incluir la magnetoencefalografía, que mide las ondas magnéticas que emanan fuera del cráneo las neuronas que se disparan debajo de él; o el uso de luz infrarroja, que puede penetrar en el tejido vivo, para inferir la actividad cerebral a partir de los cambios en el flujo sanguíneo. (Los oxímetros de pulso funcionan de esta manera, al hacer brillar la luz infrarroja a través de tu dedo).

Aún no está claro qué tecnologías alimentarán la interfaz cerebro-computadora del futuro. Y si no está claro cómo vamos a “leer” el cerebro, es aún menos claro cómo vamos a “escribir” en él.

Este es el otro Santo Grial de la investigación cerebro-máquina: la tecnología que puede transmitir información al cerebro directamente. Probablemente no estemos ni cerca del momento en que puedas preguntar en silencio: “Alexa, ¿cuál es la capital de Perú?” y hacer que “Lima” se materialice en tu mente.

Sin embargo, las soluciones a estos desafíos están empezando a surgir. Gran parte de la investigación se ha realizado en el ámbito médico donde, durante años, los científicos han trabajado para dar a los cuadripléjicos y a otras personas con condiciones neurológicas inmovilizantes mejores formas de interactuar con el mundo a través de las computadoras. Pero en los últimos años, las empresas tecnológicas —incluidas Facebook, Microsoft y Neuralink de Elon Musk— han comenzado a invertir en ese campo.

Algunos científicos están eufóricos por esta infusión de energía y recursos. Otros se preocupan de que a medida que esta tecnología se mueve hacia el ámbito de los consumidores, podría tener una variedad de consecuencias involuntarias y potencialmente peligrosas, desde la erosión de la privacidad mental hasta la exacerbación de la desigualdad.

Rafael Yuste, neurobiólogo de la Universidad de Columbia, suele referirse a dos grandes avances en la informática que han transformado la sociedad: la transición de las computadoras centrales del tamaño de una habitación a computadoras personales que caben en un escritorio (y luego en tu regazo), y el advenimiento de la informática móvil con teléfonos inteligentes en la década de 2000. El experto asegura que la tecnología no invasiva de lectura de cerebros sería un tercer gran salto.

FRAGMENTOS DE ACTUALIDAD | SALUD | CIENCIA | NOTICIA COMPLETA EN NYT

Buscar publicaciones en este blog