Salud mental

¿ChatGPT, el nuevo psicólogo? Riesgos de la creciente tendencia entre los jóvenes

Ante el auge del uso de herramientas de inteligencia artificial como terapia psicológica, SEMANA conversó con expertos sobre los riesgos de esta tendencia, así como las oportunidades que se plantean en el ámbito de la salud mental.

Lorena Mahecha S.

Lorena Mahecha S.

Productora periodística

21 de junio de 2025, 5:19 a. m.
En tiempos en los que las respuestas están a un clic, cada vez más jóvenes y adultos utilizan plataformas de inteligencia artificial (IA) para crear, facilitar y responder a distintos tipos de necesidades. | Foto: adobe firefly

En tiempos en los que las respuestas están a un clic, cada vez más jóvenes y adultos utilizan plataformas de inteligencia artificial (IA) para crear, facilitar y responder a distintos tipos de necesidades. Desde desarrollar imágenes, canciones, redactar textos académicos, hasta convertirse en asistentes personales y laborales. Ahora uno de los usos más generalizados y que más empieza a llamar la atención es el de diversas herramientas de inteligencia artificial como terapia psicológica. ¿Qué riesgos existen detrás de esta tendencia? ¿Pueden herramientas como ChatGPT reemplazar el vínculo humano y emocional entre paciente y terapeuta? SEMANA consultó con expertos.

Muchas personas necesitan ir a terapia psicológica después de una ruptura amorosa.
Muchas personas necesitan ir a terapia psicológica después de una ruptura amorosa. | Foto: Getty Images

El riesgo de una falsa contención

Según el psicólogo clínico y educativo Juan Carlos Granja, este fenómeno refleja una necesidad real de contención emocional, especialmente en una generación que a menudo encuentra barreras para acceder a atención profesional. “El acceso inmediato y anónimo a una plataforma que responde puede resultar reconfortante, sobre todo cuando hay barreras para acudir a un profesional humano, como el miedo al juicio, los costos o la falta de disponibilidad”, señala.

Sin embargo, afirma que “es importante aclarar que, aunque estas herramientas pueden ser un recurso, no reemplazan el vínculo terapéutico ni el criterio clínico de un psicólogo formado”.

 La preocupación del experto y otros más no radica en el uso ocasional de estas herramientas como apoyo, sino en su sustitución completa de la atención psicológica. “La inteligencia artificial no cuenta con juicio clínico, no puede hacer diagnósticos ni intervenir de manera ética ante situaciones de riesgo. Además, aunque puede ofrecer respuestas que suenan empáticas, no hay una escucha genuina, ni un proceso terapéutico estructurado. Esto puede generar una falsa sensación de contención o incluso retrasar la búsqueda de ayuda profesional adecuada”, advierte el experto.

A largo plazo, esta dependencia de respuestas automatizadas podría llevar a la cronificación del malestar emocional y a la normalización de síntomas que requieren atención especializada. “Hablar con una IA puede ser un primer paso para reconocer que algo no está bien, pero tu salud mental merece más que eso: merece un espacio seguro, humano, con alguien que te escuche de verdad, te comprenda en tu contexto y te acompañe a lo largo del proceso. La terapia no se trata solo de recibir consejos, sino de construir juntos nuevas formas de entender, sentir y actuar”, subraya el psicólogo.

A largo plazo, confiar exclusivamente en este tipo de herramientas puede llevar a una cronificación del malestar, a la normalización de síntomas que requieren atención o a la pérdida de oportunidades para desarrollar recursos emocionales reales en el marco de una relación terapéutica.

Detrás de las respuestas “empáticas” de la IA

innovación
innovación | Foto: Adobe Stock

Para entender cómo herramientas de IA como ChatGPT pueden construir respuestas que muchos usuarios interpretan como “empáticas” y “comprensivas”, es necesario entender de dónde provienen. Al respecto, Rubén Manrique, profesor del Departamento de Ingeniería de Sistemas y Computación de la Universidad de los Andes, explica que modelos como este se entrenan con enormes volúmenes de texto extraídos de sitios web, foros, libros, artículos y otras fuentes abiertas.“ChatGPT es un modelo de lenguaje de propósito general que no ha sido diseñado, entrenado ni suficientemente validado para desempeñar funciones clínicas ni ofrecer intervenciones terapéuticas. Su entrenamiento se basa en grandes volúmenes de texto de carácter general y no contempla protocolos clínicos, guías diagnósticas ni supervisión profesional”, señala Manrique. Aclara también que herramientas como ChatGPT, “al carecer de inteligencia emocional real, no pueden interpretar señales no verbales ni matices afectivos complejos. Esta limitación puede dar lugar a respuestas genéricas, repetitivas o incluso inadecuadas desde la perspectiva de un profesional experto”.

En su opinión, la ausencia de empatía genuina y de responsabilidad clínica plantea serias preocupaciones éticas y de seguridad para los usuarios que buscan ayuda psicológica. Manrique coincide con el psicólogo Juan Carlos Granja en que la ausencia de empatía genuina, la incapacidad para interpretar señales no verbales o detectar casos de riesgo, y la falta de responsabilidad ética o legal, convierten al uso clínico de estas herramientas de inteligencia artificial en una práctica arriesgada e inapropiada.

De acuerdo con cifras de la Organización Mundial de la Salud, en 2019, una de cada ocho personas en el mundo, es decir, 970 millones de personas, padecían un trastorno mental; siendo la ansiedad y los trastornos depresivos los más diagnosticados y en 2020 aumentaron considerablemente debido a la pandemia de covid-19.

¿Amenaza o herramienta?

| Foto: _Adobe Stock

Esto no significa que la inteligencia artificial no tenga un papel en el campo de la salud mental. De hecho, su impacto puede ser muy positivo si se desarrolla con enfoque clínico y bajo supervisión profesional.Un ejemplo de ello, es el uso por parte de investigadores de Mayo Clinic, quienes dieron el primer paso en la aplicación de la inteligencia artificial con el fin de predecir el resultado del uso de antidepresivos en niños y adolescentes que sufren algún trastorno depresivo mayor.De acuerdo con los resultados del estudio publicado en The Journal of Child Psychology and Psychiatry, el análisis de síntomas específicos y el uso de diversos antidepresivos permitió alcanzar una exactitud del 73 al 76 por ciento en la predicción de resultados, que podrían ayudar a los médicos a personalizar tratamientos y minimizar efectos secundarios de ciertos medicamentos.

“Este trabajo preliminar plantea que la inteligencia artificial puede ayudar en la decisión clínica al informar a los médicos sobre la selección, administración y dosificación de los antidepresivos en niños y adolescentes con trastorno depresivo mayor”, aseguró Paul Croarkin, psiquiatra infantil de Mayo Clinic, en el estudio.

Como en esa investigación, otros estudios han explorado el uso del aprendizaje automático o machine learning en la detección de trastornos como la ansiedad o la depresión a través del análisis de publicaciones en redes sociales o incluso del tono de voz. “Se han desarrollado modelos que analizan publicaciones en Facebook y mensajes privados para detectar signos tempranos de trastornos del estado de ánimo o incluso esquizofrenia.

Estos modelos identifican marcadores lingüísticos en el texto, como cambios en la estructura gramatical, disminución en la coherencia o alteraciones en el uso de pronombres, los cuales han mostrado algunas correlaciones con diagnósticos clínicos posteriores”, explica Manrique. Pero aclara que estas herramientas de IA no deben actuar solas y para que puedan contribuir de manera responsable en el ámbito de la salud mental y, en general, en cualquier área médica, es fundamental que se desarrollen bajo un enfoque especializado.

Esto requiere el uso de datos clínicos adecuados, la participación activa de profesionales del área de la salud durante el diseño y validación de los sistemas, así como la realización de estudios rigurosos que aseguren su eficacia, seguridad y el respeto por la privacidad de los pacientes. Solo mediante estos procesos será posible construir soluciones tecnológicas que complementen, sin reemplazar, la atención profesional.

El papel de los padres

A veces, se elige el mismo nombre para asegurar que el apellido o la tradición de la familia se mantenga.
A veces, se elige el mismo nombre para asegurar que el apellido o la tradición de la familia se mantenga. | Foto: Getty Images/iStockphoto

Frente a esta nueva realidad, Manrique también lanza una advertencia a los padres: “Es esencial que comprendan que la IA es una herramienta, no una fuente infalible ni un sustituto del juicio humano”. Además de fomentar el pensamiento crítico, sugiere enseñar a los jóvenes a cuidar su privacidad y a establecer límites claros en el uso de estas tecnologías. “Lo que hago con mi hijo mayor es que aprenda a cuestionar lo que lee en estas herramientas y a contrastarlo con fuentes confiables y a reflexionar sobre su validez”, añade.

Noticias relacionadas