El Dr. Eduardo Franco, psicólogo y docente del Departamento de Psicología de la Pontificia Universidad Católica del Perú (PUCP), alertó sobre el creciente número de personas que recurren a ChatGPT para tratar problemas de salud mental. Según explicó, aunque la herramienta puede brindar psicoeducación básica y ayudar a entender síntomas, carece de la capacidad para diagnosticar con precisión o diseñar tratamientos completos.
En una entrevista en el programa Edición Central del canal ATV, Franco sostuvo que la terapia profesional suele requerir entre 12 y 15 sesiones, un proceso que demanda un plan personalizado y la construcción de una relación terapéutica sólida, aspectos que la inteligencia artificial no puede replicar.
Un complemento, no una solución
Franco reconoció que la dificultad de acceso a un psicólogo, ya sea por altos costos, tiempos de espera prolongados o falta de disponibilidad, lleva a muchas personas a buscar respuestas inmediatas en plataformas digitales. Sin embargo, advirtió que estas herramientas deben utilizarse solo como un apoyo complementario.
“ChatGPT puede orientar, pero sin supervisión profesional existe el riesgo de autodiagnósticos erróneos o la adopción de medidas inadecuadas”, señaló. En su opinión, la IA puede ser útil para comprender mejor la información que un terapeuta ya ha proporcionado, pero no para sustituir un proceso clínico.
La importancia de la relación terapeuta-paciente
Uno de los puntos centrales de la advertencia de Franco es que la inteligencia artificial no puede reemplazar la relación empática entre terapeuta y paciente, un vínculo que suele ser determinante en la recuperación emocional.
“El interés genuino, la preocupación auténtica y el acompañamiento humano no se pueden simular completamente. ChatGPT es un modelo de inteligencia artificial, una máquina que responde con patrones empáticos aprendidos, pero sin la capacidad de establecer una conexión real”, recalcó.
Limitaciones técnicas y éticas de la IA
Franco explicó que los sistemas como ChatGPT cuentan con “guardarraíles” que limitan su capacidad para emitir diagnósticos o prescribir tratamientos, con el objetivo de evitar recomendaciones peligrosas. No obstante, reconoció que en versiones anteriores de modelos de IA existieron casos aislados de “alucinaciones”, en los que la herramienta generó respuestas inventadas o, incluso, sugerencias peligrosas.
“Hoy en día, estos riesgos se han reducido de forma significativa gracias a mejoras en el diseño y actualización de modelos como ChatGPT-5, pero eso no significa que el peligro haya desaparecido”, comentó.
Riesgos de dependencia y falsa seguridad
El especialista también advirtió sobre el peligro de que las personas utilicen la IA como un sustituto emocional, especialmente cuando enfrentan ansiedad, depresión u otros trastornos recurrentes. En estos casos, la herramienta puede ofrecer un alivio temporal, pero no resuelve la causa subyacente.
Según Franco, esta falsa sensación de mejora puede retrasar la búsqueda de tratamiento profesional, agravando el problema con el tiempo. “Si el malestar persiste o se intensifica, es una señal clara de que se necesita atención psicológica presencial”, puntualizó.
Uso responsable y futuro de la IA en psicología
Lejos de rechazar la tecnología, Franco sugirió que la clave está en aprender a integrarla de manera responsable. Considera que ChatGPT podría funcionar como un “copiloto” para reforzar las indicaciones dadas por un terapeuta y como una herramienta de apoyo para el seguimiento de pacientes.
“Como psicólogo, me sería de gran ayuda que una IA recordara a mis pacientes las recomendaciones que les di o les proporcionara recursos psicoeducativos entre sesiones. Pero la relación terapéutica sigue siendo insustituible”, afirmó.