¿Usar inteligencia artificial como psicoterapeuta?

Cada vez más personas recurren a chatbots para desahogarse, buscar consuelo o intentar gestionar su malestar emocional. La idea de usar la inteligencia artificial psicoterapeuta resulta atractiva por varios motivos: está disponible a cualquier hora, responde de inmediato y transmite una sensación de privacidad y accesibilidad muy tentadora. Sin embargo, convertir a un chatbot en sustituto de un o una profesional de la salud mental entraña riesgos significativos que conviene conocer.

¿Por qué seduce tanto la idea de una inteligencia artificial psicoterapeuta?

Parte del atractivo de una inteligencia artificial psicoterapeuta, como ChatGPT o Gemini, está en que ofrece respuestas rápidas, aparentemente empáticas y, en muchos casos, gratuitas. Hay personas que encuentran en estos sistemas una compañía constante, adaptable a sus preferencias y libre de confrontación. Precisamente ahí empieza el problema: una herramienta diseñada para complacer puede terminar diciendo justo lo que una persona quiere oír, aunque eso no sea lo que necesita para mejorar e incluso sea lo contrario a lo que verdaderamente requiere.

Además, el auge de estos usos no aparece en el vacío. Este fenómeno surge en un contexto de mayor digitalización tras la pandemia, con un aumento global del 25 % en la prevalencia de ansiedad y depresión según la OMS. En ese escenario, la promesa de una inteligencia artificial psicoterapeuta accesible, inmediata y aparentemente comprensiva gana fuerza con mucha facilidad.

Cuando el alivio inmediato mantiene el problema

Una persona con depresión puede sentirse temporalmente mejor hablando con un chatbot, pero si eso refuerza el aislamiento, la inactividad o la evitación, el problema puede mantenerse o incluso agravarse con el paso del tiempo. Lo mismo ocurriría con ciertos cuadros de ansiedad: si alguien busca una y otra vez tranquilización inmediata en una inteligencia artificial que ejerce de «psicoterapeuta», podría fortalecer la dependencia de esa respuesta rápida en lugar de aprender a tolerar la incertidumbre y manejar el malestar de otra manera.

Desde esta perspectiva, el problema no está solo en que la IA «se equivoque», sino en que puede actuar como reforzador de conductas desadaptativas. Un o una psicoterapeuta no se limita a «consolar»: también evalúa, confronta cuando es necesario, identifica patrones que mantienen el sufrimiento y ayuda a la persona a desarrollar repertorios más útiles. Esa diferencia es clave.

Los riesgos más graves de usar una inteligencia artificial como psicoterapeuta

Se han documentado casos extremos en los que la interacción con chatbots se han vinculado a desenlaces trágicos, como el suicidio de un hombre en Bélgica tras semanas de conversación con una IA, o el caso de un adolescente de 14 años cuya madre denunció que un chatbot entrenado como psicoterapeuta habría fomentado ideación suicida. Más allá de cada caso concreto, el mensaje es claro: depositar la salud mental en un sistema que no comprende de verdad el sufrimiento humano puede ser peligroso.

A esto se suma otro riesgo menos visible, pero muy relevante: algunas personas utilizan estos sistemas para recrear conversaciones con seres queridos fallecidos. Este tipo de uso puede interferir en el proceso de duelo y dificultar la elaboración emocional de la pérdida. De nuevo, la inteligencia artificial como «psicoterapeuta» ofrece una ilusión de presencia, de profesionalidad, pero no un acompañamiento clínico real.

Lo que un chatbot no puede hacer como psicoterapeuta

La conclusión es contundente: una inteligencia artificial usada como psicoterapeuta no puede reemplazar a un o una profesional real. No puede leer adecuadamente la comunicación no verbal, no constituye una atención, ni evaluación clínica real, no decide con criterio terapéutico cuándo confrontar o cuándo contener, y tampoco puede ofrecer empatía humana en sentido estricto. En todo caso, la IA podría llegar a utilizarse como herramienta complementaria, pero no como sustituto del vínculo terapéutico.

En definitiva, la idea de una inteligencia artificial como psicoterapeuta puede parecer moderna, cómoda y eficiente, pero conviene no confundir una conversación fluida con una intervención psicológica rigurosa. La psicoterapia no consiste solo en responder, sino en comprender, evaluar, acompañar y promover cambios reales en la vida de la persona. Y eso sigue requiriendo de presencia humana, criterio clínico y responsabilidad profesional.

Puedes leer el artículo completo y sus referencias bibliográficas en la revista Mente y Ciencia: Problemas de usar inteligencia artificial como psicoterapeuta.

Si necesitas atención psicológica, no dudes en contactar con Fran González Psicólogo Online.

Fran González
Fran González
Psicólogo conductual-contextual, especialista en trastornos depresivos y de ansiedad. Sexólogo especializado en diversidad afectivo-sexual, terapia sexual y de pareja. Victimólogo con amplia experiencia en el trabajo con supervivientes y víctimas de diversas formas de violencia, con énfasis en las violencias sexuales.

¿Necesitas atención psicológica Online?

Si buscas un espacio seguro, cómodo, flexible y profesional; la terapia Online basada en la evidencia puede ser el primer paso hacia un cambio significativo y duradero en tu vida. 

Contenidos relacionados