Por Pandora Dewan, de Newsweek
La inteligencia artificial (IA) ya es capaz de leer la mente humana. Eso sí, las condiciones son que haya recibido entrenamiento para procesar la información visual y que esté conectada con una máquina de imágenes por resonancia magnética funcional (IRMF).
Científicos de la Universidad de Osaka, Japón, han descubierto que la IA puede aprender a reconstruir la actividad humana a partir de escaneos por IRMF, con los cuales genera imágenes de alta resolución que tienen un parecido asombroso a las imágenes de origen presentadas a los voluntarios.
La preimpresión del artículo de los doctores Yu Takagi y Shinji Nishimoto informa que los investigadores utilizaron un modelo de aprendizaje profundo denominado Stable Diffusion [difusión estable], el cual, a partir de los datos de las imágenes por resonancia magnética funcional de los participantes, permitió que la inteligencia artificial reconstruyera las imágenes que pasaron por la mente de las personas.
“El estudio utilizó imágenes de resonancia magnética funcional para crear un mapa de la actividad humana. Esta se registra como minúsculos cambios en el flujo sanguíneo, los cuales indican el momento en que intervienen ciertas partes del cerebro”, explica a Newsweek el científico computacional Joseph Early, quien, si bien no participó en la investigación, es candidato al doctorado en inteligencia artificial en el Instituto Alan Turing, sito en la Biblioteca Británica de Londres, Inglaterra.
¿QUÉ TRAES EN MENTE?
“Cuando un individuo observa diferentes imágenes durante un escaneo de IRMF, podemos identificar las partes de su cerebro que se ‘iluminan’ en respuesta a cada imagen”, prosigue Early. “Las distintas respuestas se mapean en un formato que los modelos generativos existentes pueden reconocer y, de esa forma, las usamos para generar nuevas imágenes”.
Para fines del entrenamiento de la IA, cada participante vio 10.000 imágenes mientras se encontraba en el interior de un escáner de imágenes por resonancia magnética funcional. Los científicos japoneses repitieron el procedimiento tres veces y, a continuación, introdujeron los datos obtenidos de la resonancia magnética en una computadora, la cual aprendió a identificar la manera como el cerebro de cada participante procesaba las imágenes.
Un hallazgo curioso fue que la inteligencia artificial “leyó” la actividad cerebral de ciertas personas mejor que otras. A pesar de las diferencias, en casi todos los casos hubo semejanzas muy evidentes entre la reconstrucción de IA y los objetos, los colores y la composición de cada imagen mostrada a los voluntarios.
Takagi, profesor asistente en la Universidad de Osaka y coautor del artículo, reveló que el equipo de investigadores se sorprendió mucho con los resultados del estudio. “El aspecto más interesante de nuestra investigación es que el modelo de fusión —llamado inteligencia artificial generadora de imágenes, el cual… no fue creado para estudiar el cerebro— es un buen predictor de la actividad cerebral y sirve para reconstruir experiencias visuales cerebrales”, comentó para Newsweek.
PROS Y CONTRAS DE ESTA TECNOLOGÍA
Durante el estudio, la IA analizó la actividad cerebral y, de esa manera, pudo ver lo que observaban los participantes. Sin embargo, Takagi aclaró que —al menos en teoría— esa técnica también podría utilizarse para recrear imágenes tomadas directamente de la imaginación de una persona.
“Cada vez que vemos algo, la retina capta información que se procesa en una región cerebral conocida como corteza visual, la cual se encuentra en el lóbulo occipital”, prosiguió Takagi.
“Algo similar ocurre cuando evocamos una imagen, ya que activamos regiones cerebrales semejantes. [Por consiguiente,] es posible aplicar nuestro método a la actividad cerebral que ocurre durante la imaginación. El único inconveniente es que todavía desconocemos con cuánta precisión podremos decodificar esa actividad”.
Takagi agregó que la tecnología en estudio podría tener aplicaciones potenciales en el desarrollo de interfaces cerebro-máquina para contextos clínicos y creativos.
En un comentario para Newsweek, Laura Herman, candidata al doctorado en el Instituto Internet de la Universidad de Oxford, Reino Unido, señaló: “Lo más singular de esta herramienta es que no obliga a manipular, físicamente, el dispositivo. En consecuencia, ofrece posibilidades muy interesantes para los creativos que padecen de alguna discapacidad física, ya que suelen estar impedidos para utilizar herramientas que requieren de ciertas destrezas motoras”.
NADA DE QUÉ PREOCUPARSE (POR AHORA)
Dicho lo anterior, prosiguió Herman, “los peligros que entraña esta herramienta son enormes. Y ese riesgo es mucho mayor para las comunidades vulnerables, incluidas las personas discapacitadas. Es imposible exagerar las amenazas de seguridad y privacidad que conlleva permitir el acceso a nuestros datos de imágenes por resonancia magnética funcional”.
“Como hemos visto en este estudio, los datos pueden usarse para reconstruir pensamientos muy personales e íntimos. Y en manos de individuos maliciosos, esos datos les brindarían un nivel de vigilancia, sin precedentes, sobre los pensamientos que cruzan por nuestros cerebros. Aun cuando los resultados tecnológicos puedan parecernos emocionantes, dudo mucho de que su valor justifique que comparamos nuestros datos de IRMF más íntimos”, sentenció la también investigadora.
Por su parte, Early —el candidato doctoral del Instituto Alan Turing— aclaró que sería muy difícil implementar este tipo de tecnología fuera del ámbito de investigación. De modo que, al menos por ahora, no tenemos que preocuparnos de una IA capaz de leer nuestra mente.
UN PROCEDIMIENTO MUY COSTOSO
“Para empezar, hacen falta escaneos de IRMF para medir la actividad cerebral que generan las imágenes, y las máquinas que pueden realizar esos estudios cuestan más de un millón de dólares”, señaló Early.
“En segundo lugar, [la inteligencia artificial] todavía no ha aprendido a mapear la actividad cerebral de un individuo. Todos respondemos de distinta manera a una misma imagen, de modo que es necesario adecuar el método a cada usuario”, concluyó el científico computacional.
Hasta el momento, la generación de imágenes a partir de la actividad cerebral es un procedimiento muy costoso que requiere de mucho tiempo. Así que, por lo pronto, el trabajo en este campo permanecerá limitado a la investigación.
Pese a ello, Takagi aseguró que su estudio es una demostración muy interesante de las semejanzas y las diferencias en la forma como la inteligencia artificial y la mente humana interpretan el mundo real. “Consideramos que nuestra investigación demuestra el potencial para la integración de las comunidades de IA y de investigación neurocientífica, y tiene implicaciones para la manera como los dos campos podrían interactuar en el futuro”, concluyó el científico japonés.
Publicado en cooperación con Newsweek