
28 Ago Riesgos de ChatGPT y otras IA como ‘terapeuta’ – Silvia Sanz
Introducción
El uso de inteligencia artificial (IA) para hablar de emociones y buscar orientación ha crecido de forma exponencial. Herramientas como ChatGPT se perciben como un apoyo inmediato, accesible 24/7 y sin juicio. Para muchas personas, hablar con una IA puede sentirse como un espacio seguro donde ser escuchado y recibir respuestas personalizadas.
Sin embargo, como señalé en un artículo anterior para Informativos Tele5, esta aparente ayuda puede generar una falsa sensación de alivio, retrasando la búsqueda de apoyo profesional. La IA no reemplaza la intervención clínica de un psicólogo, que incluye empatía con juicio profesional, estrategias adaptadas al individuo y seguimiento continuo.
En este artículo abordaremos los riesgos de usar ChatGPT e IA como “terapeuta”, incluyendo efectos psicológicos, casos reales, adicción digital y recomendaciones profesionales.
La entrevista: luces y sombras de la IA
En una reciente entrevista, que de los riesgos de contarles los problemas personales a ChatGPT en informativos Tele5, discutimos varios aspectos del uso de la IA para apoyo emocional:
Pregunta: ¿Por qué la IA no puede sustituir la labor de un psicólogo, teniendo en cuenta que son herramientas conversacionales diseñadas para agradar?
Respuesta:
“La IA, por sofisticada que sea, no establece una relación terapéutica real. Un psicólogo interpreta emociones, confronta al paciente y adapta estrategias a su contexto y trayectoria vital. Las IA solo responden de manera amable, evitando la confrontación necesaria para cambios profundos. Además, no pueden leer el lenguaje no verbal ni detectar señales de alarma que podrían salvar vidas.”
Pregunta: Aunque la IA ofrece respuestas que pueden ser ciertas, ¿qué implica que nunca confronte al paciente ni le haga replantearse sus creencias o conductas?
Respuesta:
“Puede dar información útil o validación emocional, pero se queda en la superficie. La psicoterapia implica incomodidad: cuestionar creencias, identificar patrones nocivos y trabajar resistencias. Recibir solo respuestas agradables refuerza la zona de confort y perpetúa patrones disfuncionales.”
Pregunta: ¿Qué riesgos puede conllevar?
Respuesta:
“Autodiagnóstico erróneo, recomendaciones inadecuadas, falsa sensación de mejora, refuerzo de creencias disfuncionales, dependencia emocional y aislamiento. Además, puede minimizar problemas graves como pensamientos suicidas o crisis de ansiedad.”
Pregunta: ¿Puede generar efecto adictivo o aislamiento?
Respuesta:
“Sí. La disponibilidad 24/7 y la ausencia de juicio pueden fomentar un uso compulsivo como refugio emocional. Esto puede sustituir relaciones humanas auténticas y reforzar la dependencia tecnológica, especialmente en personas con baja autoestima o dificultades para vincularse.”
Por qué la IA no puede sustituir a un psicólogo
Aunque la IA sea sofisticada, no puede reemplazar la intervención humana. Un psicólogo:
- Analiza la historia y contexto del paciente.
- Detecta incoherencias cognitivas y emocionales.
- Confronta patrones de pensamiento disfuncionales.
- Aplica estrategias de cambio adaptadas al individuo.
La IA está diseñada para agradar al usuario, evitando confrontación y exploración profunda. Esto limita la eficacia terapéutica y puede reforzar la dependencia de respuestas superficiales.
Principales riesgos psicológicos de la IA como sustituto de terapia
Aunque la IA pueda ofrecer información útil o palabras de apoyo, existen múltiples riesgos psicológicos:
- Autodiagnóstico y diagnósticos erróneos: La IA no evalúa la historia ni observa señales no verbales, reforzando falsas creencias.
- Recomendaciones inadecuadas: Consejos generales pueden ser inapropiados o peligrosos.
- Falsa sensación de terapia: El alivio momentáneo no sustituye la intervención estructurada de un profesional.
- Refuerzo de creencias erróneas: La complacencia de la IA valida pensamientos disfuncionales, dificultando la reestructuración cognitiva.
- Validación sin autocrítica: Sentirse comprendido sin confrontación limita el aprendizaje emocional.
- Evitación del conflicto interno: La IA fomenta la evasión de emociones incómodas, esenciales para el cambio.
- Dependencia emocional y adicción digital: El uso constante puede generar apego digital, sustituyendo relaciones humanas.
- Minimización de problemas graves: La IA ofrece empatía superficial, sin activar protocolos de emergencia.
- Efecto eco: La IA refleja lo que se dice sin aportar nuevas perspectivas ni herramientas efectivas.
Caso real: riesgos graves de seguir consejos de ChatGPT
Un ejemplo extremo ocurrió en EE.UU.: un hombre de 60 años reemplazó la sal por bromuro de sodio, siguiendo indicaciones de ChatGPT. Tras tres meses de consumo sufrió alucinaciones y graves problemas de salud, y terminó hospitalizado.
Este caso evidencia que la IA puede tener consecuencias físicas y psicológicas graves si se interpreta como guía profesional. Refuerza la necesidad de intervención humana supervisada y la diferencia entre acompañamiento digital y tratamiento clínico real.
Adicción a ChatGPT e ingresos por uso excesivo
El uso compulsivo de ChatGPT y otras IA ha generado síntomas de dependencia digital, similares a otras adicciones conductuales:
- Horas prolongadas conversando con la IA, desplazando actividades sociales o laborales.
- Necesidad de recurrir constantemente a la IA ante emociones negativas.
- Sensación de ansiedad o incomodidad si se interrumpe la interacción.
Informes recientes indican que las plataformas de IA han generado ingresos millonarios gracias al aumento de usuarios frecuentes y suscripciones premium. Esto refleja no solo la popularidad de la herramienta, sino también el riesgo de reforzar hábitos adictivos si no se establece un uso controlado.
Desde la perspectiva clínica, este fenómeno es especialmente preocupante en adolescentes y personas vulnerables emocionalmente, que pueden desarrollar dependencia afectiva digital, reemplazando vínculos humanos auténticos.
Efectos en la salud social y emocional
El uso excesivo de IA puede generar:
- Aislamiento social: sustitución de interacciones humanas reales por conversaciones digitales.
- Baja autoestima: dependencia de validación externa, incluso de una IA.
- Evitar resolución de conflictos internos: la IA no confronta, manteniendo patrones disfuncionales.
- Refuerzo de emociones negativas: al validar creencias erróneas, se perpetúa ansiedad, miedo o frustración.
Estos efectos se intensifican si la IA es percibida como sustituto de la terapia profesional, reforzando la dependencia tecnológica y la percepción de “estar recibiendo ayuda” sin intervención clínica.
Consejos de una psicóloga profesional
Para proteger la salud mental y aprovechar de manera segura la IA:
- Utiliza la IA como herramienta complementaria, nunca como sustituto de terapia profesional.
- Reconoce señales de dependencia digital, como uso excesivo, aislamiento o sustitución de relaciones humanas.
- Acude a un psicólogo ante emociones persistentes, pensamientos de autolesión o crisis de ansiedad.
- Mantén un equilibrio entre interacción digital y relaciones humanas auténticas.
- Valora siempre la intervención basada en evidencia clínica, que la IA no puede ofrecer.
La salud mental no se sostiene solo con respuestas agradables; requiere intervención humana, estrategias personalizadas y acompañamiento profesional constante.
Si sientes que necesitas orientación personalizada, contacta con Silvia Sanz, psicóloga especializada en terapia individual y familiar.