Icono del sitio Silvia Sanz – Psicologa

Riesgos de ChatGPT y otras IA como ‘terapeuta’ – Silvia Sanz

Riesgos de usar ChatGPT e IA como terapeuta – Silvia Sanz

Introducción

El uso de inteligencia artificial (IA) para hablar de emociones y buscar orientación ha crecido de forma exponencial. Herramientas como ChatGPT se perciben como un apoyo inmediato, accesible 24/7 y sin juicio. Para muchas personas, hablar con una IA puede sentirse como un espacio seguro donde ser escuchado y recibir respuestas personalizadas.

Sin embargo, como señalé en un artículo anterior para Informativos Tele5, esta aparente ayuda puede generar una falsa sensación de alivio, retrasando la búsqueda de apoyo profesional. La IA no reemplaza la intervención clínica de un psicólogo, que incluye empatía con juicio profesional, estrategias adaptadas al individuo y seguimiento continuo.

En este artículo abordaremos los riesgos de usar ChatGPT e IA como “terapeuta, incluyendo efectos psicológicos, casos reales, adicción digital y recomendaciones profesionales.

La entrevista: luces y sombras de la IA

En una reciente entrevista, que de los riesgos de contarles los problemas personales a ChatGPT en informativos Tele5, discutimos varios aspectos del uso de la IA para apoyo emocional:

Pregunta: ¿Por qué la IA no puede sustituir la labor de un psicólogo, teniendo en cuenta que son herramientas conversacionales diseñadas para agradar?

Respuesta:
“La IA, por sofisticada que sea, no establece una relación terapéutica real. Un psicólogo interpreta emociones, confronta al paciente y adapta estrategias a su contexto y trayectoria vital. Las IA solo responden de manera amable, evitando la confrontación necesaria para cambios profundos. Además, no pueden leer el lenguaje no verbal ni detectar señales de alarma que podrían salvar vidas.”

Pregunta: Aunque la IA ofrece respuestas que pueden ser ciertas, ¿qué implica que nunca confronte al paciente ni le haga replantearse sus creencias o conductas?

Respuesta:
“Puede dar información útil o validación emocional, pero se queda en la superficie. La psicoterapia implica incomodidad: cuestionar creencias, identificar patrones nocivos y trabajar resistencias. Recibir solo respuestas agradables refuerza la zona de confort y perpetúa patrones disfuncionales.”

Pregunta: ¿Qué riesgos puede conllevar?

Respuesta:
“Autodiagnóstico erróneo, recomendaciones inadecuadas, falsa sensación de mejora, refuerzo de creencias disfuncionales, dependencia emocional y aislamiento. Además, puede minimizar problemas graves como pensamientos suicidas o crisis de ansiedad.”

Pregunta: ¿Puede generar efecto adictivo o aislamiento?

Respuesta:
“Sí. La disponibilidad 24/7 y la ausencia de juicio pueden fomentar un uso compulsivo como refugio emocional. Esto puede sustituir relaciones humanas auténticas y reforzar la dependencia tecnológica, especialmente en personas con baja autoestima o dificultades para vincularse.”

 

Por qué la IA no puede sustituir a un psicólogo

Aunque la IA sea sofisticada, no puede reemplazar la intervención humana. Un psicólogo:

La IA está diseñada para agradar al usuario, evitando confrontación y exploración profunda. Esto limita la eficacia terapéutica y puede reforzar la dependencia de respuestas superficiales.

Principales riesgos psicológicos de la IA como sustituto de terapia

Aunque la IA pueda ofrecer información útil o palabras de apoyo, existen múltiples riesgos psicológicos:

Caso real: riesgos graves de seguir consejos de ChatGPT

Un ejemplo extremo ocurrió en EE.UU.: un hombre de 60 años reemplazó la sal por bromuro de sodio, siguiendo indicaciones de ChatGPT. Tras tres meses de consumo sufrió alucinaciones y graves problemas de salud, y terminó hospitalizado.

Este caso evidencia que la IA puede tener consecuencias físicas y psicológicas graves si se interpreta como guía profesional. Refuerza la necesidad de intervención humana supervisada y la diferencia entre acompañamiento digital y tratamiento clínico real.

Adicción a ChatGPT e ingresos por uso excesivo

El uso compulsivo de ChatGPT y otras IA ha generado síntomas de dependencia digital, similares a otras adicciones conductuales:

Informes recientes indican que las plataformas de IA han generado ingresos millonarios gracias al aumento de usuarios frecuentes y suscripciones premium. Esto refleja no solo la popularidad de la herramienta, sino también el riesgo de reforzar hábitos adictivos si no se establece un uso controlado.

Desde la perspectiva clínica, este fenómeno es especialmente preocupante en adolescentes y personas vulnerables emocionalmente, que pueden desarrollar dependencia afectiva digital, reemplazando vínculos humanos auténticos.

Efectos en la salud social y emocional

El uso excesivo de IA puede generar:

Estos efectos se intensifican si la IA es percibida como sustituto de la terapia profesional, reforzando la dependencia tecnológica y la percepción de “estar recibiendo ayuda” sin intervención clínica.

Consejos de una psicóloga profesional

Para proteger la salud mental y aprovechar de manera segura la IA:

  1. Utiliza la IA como herramienta complementaria, nunca como sustituto de terapia profesional.
  2. Reconoce señales de dependencia digital, como uso excesivo, aislamiento o sustitución de relaciones humanas.
  3. Acude a un psicólogo ante emociones persistentes, pensamientos de autolesión o crisis de ansiedad.
  4. Mantén un equilibrio entre interacción digital y relaciones humanas auténticas.
  5. Valora siempre la intervención basada en evidencia clínica, que la IA no puede ofrecer.

 

La salud mental no se sostiene solo con respuestas agradables; requiere intervención humana, estrategias personalizadas y acompañamiento profesional constante.

Si sientes que necesitas orientación personalizada, contacta con Silvia Sanz, psicóloga especializada en terapia individual y familiar.

Salir de la versión móvil