Por qué no se puede usar la inteligencia artificial como terapia psicológica

13 junio, 2025
  • Chile lidera el uso de inteligencia artificial en Latinoamérica, pero su uso no está recomendado en todas las áreas de nuestra vida cotidiana.
  • Tres académicas UC explican, desde diferentes áreas, cuáles son los límites de esta tecnología en salud mental.

 ¿Conoces a alguien que le cuenta sus problemas a ChatGPT? ¿O incluso tú tienes este hábito? No eres la única persona en hacerlo. Cada vez más usuarios en Chile —líder latinoamericano en inteligencia artificial, según el Índice Latinoamérica de Inteligencia Artificial (ILIA 2024)— están usando este tipo de herramientas para hablar de emociones, buscar consejo o incluso lidiar con momentos difíciles. Pero ¿es buena idea utilizarlas en este contexto?

Tres académicas UC advierten que, aunque la IA puede ser útil como apoyo, no reemplaza en ningún caso la atención de un profesional de la salud mental.

LA COSTUMBRE DE LA RESPUESTA RÁPIDA

Desde la Escuela de Psicología, la académica Paula Errázuriz, ha notado que cada vez más pacientes conversan con ChatGPT antes de ir a terapia. “Puede hacernos sentir escuchados o darnos herramientas de autoayuda, pero no reemplaza lo que puede hacer un profesional”, afirma. En casos de angustia, síntomas graves o de riesgo vital, acudir a la inteligencia artificial es en realidad un peligro. “Una persona con riesgo no debe descansar en lo que le digan estas herramientas”, enfatiza.

Por su parte, la académica del Instituto de Éticas AplicadasGabriela Arriagada-Bruneau, observa que muchas personas —especialmente jóvenes— buscan en la IA una respuesta sin juicio. «Es una paradoja: buscamos consuelo emocional en un mundo automatizado», explica. Esa sensación de compañía inmediata puede generar dependencia emocional. “Conversar con un modelo como ChatGPT puede parecer más fácil que hablar con un amigo o familiar. Pero eso no significa que sea mejor”, añade.

Además, según Arriagada, la inteligencia artificial también responde a otra solicitud de la gente más joven, “entrega el confort de obtener esa respuesta inmediata y les permite obtener una respuesta, quizás, más personalizada”

Jocelyn Dunstan, investigadora en IA del Departamento de Ciencia de la Computación (Facultad de Ingeniería) también reconoce otra fortaleza de estas herramientas: ordenar ideas o detectar urgencias, pero pone una alerta: “Estos sistemas pueden apoyar la gestión clínica, no reemplazar la consulta psicológica”. Parte del problema es que están diseñados para mantener al usuario enganchado, no necesariamente para actuar con responsabilidad emocional.

La académica resalta también un punto muy importante que olvidamos al usar este tipo de plataformas: «modelos como ChatGPT no siempre tienen la razón y es necesario estar alerta y poder aplicar criterio a la hora de leer una respuesta. El negocio de estos servicios es interactuar la mayor cantidad de tiempo posible, por lo que es rentable hacer la inteligencia artificial y otros sistemas, aduladores y cercanos.»

A esto se suman los sesgos en los modelos de IA, que pueden ser invisibles, pero profundos. Arriagada-Bruneau lo explica así: “Muchos de estos sistemas están entrenados con textos anglosajones y racionalistas. No entienden del todo el contexto personal, cultural o emocional del usuario”.

¿Y ENTONCES, QUÉ PODEMOS HACER?

La clave está en la educación digital: entender cuándo la IA puede ser útil y cuándo no. También urge un diseño ético que advierta a los usuarios si están en una situación emocional delicada, y que derive hacia atención profesional cuando sea necesario.

«Gente ha reportado sentirse menos sola al hablar con chatbots, como lo que ocurre en China con el uso extendido de DeepSeek. Una posible aplicación para aplicar esta tecnología a la salud mental sería un clasificador que, de acuerdo al diálogo, indique el grado de urgencia de una consulta psicológica», propone Dunstan.

Desde la psicología, Errázuriz señala que mucha gente opta por la inteligencia artificial por el acceso. «A veces no es fácil conseguir atención en salud mental. Puede haber listas de espera larga o sesiones que no tienen la frecuencia que la persona necesita, o puede ser muy cara. Y por lo mismo es que Psiconecta, tienen una clínica de atención a bajo costo y también hay otras instituciones que están tratando de llenar ese vacío, cosa de que las personas que lo necesitan puedan acceder a atención de salud mental con profesionales».

Por su parte, Gabriela Arriagada, propone «diseñar arquitecturas que promuevan una autonomía mucho más crítica y la prevención de estas dependencias emocionales. Esto podría traducirse en cosas simples como mecanismos de alerta que reconozcan patrones de interacción, por ejemplo, que sugieran algún estado de crisis en las personas, con redireccionamiento automático hacia recursos profesionales, limitaciones en el número de interacciones continuas vinculadas a temáticas sensibles».

Mientras esta tecnología no esté aplicada formalmente, la académica de Psicología UC hace un llamado final «a que las personas, a pesar de encontrar quizá un alivio más fácil y más a la mano con la inteligencia artificial, no dejen de hacer el esfuerzo de generar contactos con otras personas en su entorno. Ojalá el contacto cara a cara, si eso no es posible, al menos por videoconferencia, si eso no es posible, por teléfono, y si eso no es posible, recién optar por WhatsApp, pero no perder los vínculos humanos».

Síguenos en Twitter