Leyendo:
Terapia artificial: las limitaciones de la IA en la salud mental
Artículo Completo 6 minutos de lectura

Terapia artificial: las limitaciones de la IA en la salud mental

Por Diego Quindimil (*)

En el último tiempo se desató una polémica debido a la contratación de una aplicación que brinda terapia basada en datos de inteligencia artificial por parte de la ciudad de Trenque Lauquen.

En la era digital, la inteligencia artificial (IA) ha permeado diversas áreas de nuestra vida cotidiana, incluyendo la salud mental. Sin embargo, como psicólogo, considero que una app de IA para brindar psicoterapia en línea tiene muchas limitaciones y cuestiones éticas que no se pueden pasar por alto.

LAS LIMITACIONES DE LA IA EN PSICOTERAPIA 

Uno de los aspectos fundamentales en la psicoterapia es la relación terapéutica con ese otro, una dimensión que las app no pueden ofrecer. Este vínculo de alianza terapéutica de otredad, que se llama transferencia o rapport, es una de las bases de un tratamiento psicoterapéutico.

El sostenimiento de la escucha, la empatía, el entendimiento de la singularidad del otro con su historia particular y la calidez humana que se necesitan en ese vínculo, no las vamos a encontrar en una app.

La posibilidad de la flexibilidad y el juicio clínico que un profesional de la salud mental aporta son esenciales para adaptar las intervenciones a cada paciente, algo que la IA no puede hacer.

Balance de fin de año: recomendaciones psicológicas para encarar 2024

En el psicoanálisis, las cosas son aún más complejas. El trabajo con el inconsciente, la transferencia, la interpretación de los sueños y lapsus, son tareas que requieren una interacción humana que sea capaz de sostener la subjetividad de cada persona.

Una app de IA, con sus algoritmos y datos no puede aún manejar estas subjetividades, porque estas apps están basadas en datos y sabemos hace mucho tiempo que las personas no somos un dato, y esa es otra de las limitaciones.

Respecto de la ética profesional existen serias preocupaciones sobre la privacidad y la confidencialidad de los datos en estas plataformas de IA. La falta de responsabilidad directa y supervisión también es un gran riesgo de mala praxis. Cabe señalar que la práctica psicológica está avalada por los diferentes colegios de psicólogos y los ministerios de salud correspondientes a través de los cuales los profesionales de la salud mental obtienen una matrícula habilitante.

¿INNOVACIÓN? ELIZA1966

Los defensores de estas app hablan de “innovación” , de “democratizar la salud mental”, etc., pero más allá del marketing, no hay nada nuevo bajo el sol.

La historia de la IA en psicoterapia se remonta a 1966 con la creación de Eliza, un programa desarrollado en el MIT por Joseph Weizenbaum. Eliza simulaba una conversación con un terapeuta utilizando patrones simples de reconocimiento de palabras.

Aunque fue un avance innovador, Weizenbaum mismo se mostró escéptico sobre la capacidad de las máquinas para reemplazar la interacción humana en el ámbito terapéutico, señalando que Eliza solo podía ofrecer una simulación superficial de una conversación terapéutica.

EL ROL DEL ESTADO Y LA SALUD PÚBLICA 

La polémica del caso actual es que lo adopta el gobierno de Trenque Lauquen, no solo por las preocupaciones que esta app de IA provoca sobre la ética y la efectividad de su uso en una materia tan delicada como la salud mental.

El efecto FOMO: cómo superar la sensación de que te estás perdiendo de algo

El debate más importante es sobre el papel del estado en la prevención y asistencia de la salud pública, especialmente en el ámbito de la salud mental.

Si un particular quiere usar la aplicación y le sirve bien por él, pero entendemos que el rol del estado es brindar servicios de salud mental de calidad, que garanticen la confidencialidad de la información, y sobre todo implementar políticas públicas integrales de prevención y atención a las necesidades de salud mental de la población.

La decisión de implementar esta app ha sido polémica, ya que es responsabilidad del estado garantizar que los ciudadanos reciban atención adecuada y humana, en lugar de depender de soluciones tecnológicas que pueden ser insuficientes.

LARS Y LA CHICA REAL

Para ilustrar mejor esta cuestión, pensemos en la película «Lars y la Chica Real». En esta película, el protagonista, Lars, desarrolla una relación con una muñeca de tamaño real, tratándola como si fuera una persona.

Esta relación, aunque ficticia, le ayuda a trabajar sus problemas emocionales y sociales gracias al apoyo y la aceptación de la comunidad que lo rodea.

La metáfora aquí es clara, el vínculo terapéutico en psicología implica la presencia y el apoyo de un otro real. El psicólogo no está ahí para dar respuestas directas, sino para ayudar al paciente a encontrar sus propias respuestas a través del proceso terapéutico. Las aplicaciones de IA, en cambio, suelen proporcionar respuestas preprogramadas, perdiendo la riqueza de la interacción humana que facilita el verdadero crecimiento y autoconocimiento.

LA IA CONTRA LA IA

La inteligencia artificial es y será de mucha utilidad en varios aspectos de nuestras vidas, supervisada por los humanos.

No se trata de estar en contra de los avances tecnológicos, sino de poder pensar el uso de la tecnología desde una perspectiva ética en un aspecto tan complejo como la atención de la salud mental de la población.

Para esta nota le pregunté al Chat GPT qué opina de las app de inteligencia artificial y su respuesta fue la siguiente “una app de inteligencia artificial no puede brindar psicoterapia eficazmente porque carece de empatía y comprensión humana, y no puede adaptarse profundamente a las complejidades emocionales individuales; demás, existe un riesgo significativo de mala praxis y preocupaciones serias sobre la confidencialidad y seguridad de los datos personales del paciente.”

CADA CUAL TIENE UN TRIP EN EL BOCHO

La IA puede ser útil en algunos aspectos de la salud mental, cómo manejar datos, crear estadísticas, o proveer información, no puede reemplazar la relación terapéutica y el juicio clínico esenciales en psicoterapia y psicoanálisis.

Es crucial mantener un enfoque centrado en el ser humano, especialmente en salud mental, y tomar decisiones sobre el uso de tecnologías con mucho cuidado, considerando todas las implicaciones éticas y prácticas.

«Nos volvemos humanos al final; ahora somos un robot»: los desafíos de la inteligencia artificial en la mirada de Martín Wezowski

Sabemos que hay personas que prefieren las plantas artificiales, a otras les gusta leer libros o poemas hechos por la inteligencia artificial, o escuchar música creada por alguna aplicación que permita imitar a rockeros famosos, etc. Sobre gustos… Es como dijo el gran Charly Garcia “cada cual tiene un trip en el bocho” y eso, es la singularidad de cada uno.

(*) Psicólogo MN 22972 @diego.quindimil

 

Ingresa las palabras claves y pulsa enter.