Tecnología

Expertos en ciberseguridad advierten lo que debería evitar durante una crisis emocional con su pareja

Actuar impulsivamente en una crisis de pareja puede empeorar el conflicto, advierten especialistas.

David Alejandro Rojas García

David Alejandro Rojas García

Periodista en Semana

29 de mayo de 2025, 2:35 p. m.
Tomar decisiones apresuradas tras una discusión podría empeorar la relación, indican especialistas.
Ciertas reacciones comunes ante una crisis amorosa pueden resultar perjudiciales, según psicólogos. | Foto: Getty Images

Discusiones intensas, una separación repentina o el fin de una relación pueden llevar a buscar respuestas inmediatas, muchas veces en el lugar menos indicado: una inteligencia artificial.

Una crisis de pareja no se resuelve con atajos digitales

En medio del caos emocional, es tentador acudir a herramientas como ChatGPT esperando obtener alivio o una guía certera. Sin embargo, esta búsqueda de apoyo puede convertirse en una ilusión peligrosa.

Lo que parece consuelo o claridad, en realidad puede ser solo una pantalla de humo: un reflejo de datos y algoritmos sin empatía ni comprensión real.

Una crisis sentimental revela qué no hacer para no dañar más la relación, según expertos. | Foto: Pexels

Advertencia tecnológica: el error de pedir consejo sentimental a una IA

Un informe reciente del equipo de seguridad digital de Eset ha puesto sobre la mesa una problemática creciente: la tendencia de los usuarios a consultar a la inteligencia artificial sobre temas profundamente personales, en especial sobre relaciones amorosas.

Según este análisis el cuál se basó en encuestas, uno de los errores más comunes es hacer preguntas que requieren interpretación emocional o juicio humano, como “¿Qué harías tú?” o “¿Crees que me ama?”. Estas consultas, lejos de ofrecer claridad, pueden generar confusión o incluso respuestas contraproducentes.

El proceso puede completarse en pocos minutos y sin escribir código.
Preguntas sobre amor y sentimientos dirigidas a la IA están generando respuestas engañosas, según un estudio de Eset. | Foto: NurPhoto via Getty Images

La IA, como explica la agencia de ciberseguridad, está diseñada para generar contenido a partir de patrones lingüísticos y grandes volúmenes de datos.

Mucha gente olvida que la IA no tiene conciencia, sentimientos ni opiniones propias”, señala la investigación. Por eso, esperar una respuesta auténticamente empática es, sencillamente, un error.

Consejos sin alma: el límite entre lo útil y lo riesgoso

La apariencia conversacional de herramientas como ChatGPT puede hacer creer que se está hablando con alguien que comprende las emociones.

Sin embargo, Eset advierte que estas respuestas son únicamente simulaciones construidas por algoritmos. No hay un criterio humano detrás ni la capacidad de evaluar las sutilezas de un conflicto de pareja.

Cuando se le pregunta a la IA si una relación vale la pena o cómo actuar ante una infidelidad, su respuesta no es más que una réplica basada en textos previos, sin contexto emocional ni conexión real.

Una interpretación hecha por ChatGPT fue tomada como prueba de traición.
La interacción con ChatGPT puede parecer empática, pero Eset advierte que se trata solo de simulaciones sin comprensión emocional real. | Foto: Getty - OpenAI

Además, la empresa de ciberseguridad señala un riesgo adicional: el de la privacidad. Si el usuario comparte datos sensibles como nombres, lugares o detalles íntimos de su relación, estos podrían quedar almacenados en los servidores del sistema, a menos que se utilicen configuraciones temporales o privadas.

En el peor de los casos, si una cuenta es comprometida por un ciberdelincuente, toda esa información podría quedar expuesta.

Uso consciente: protegerse en momentos de vulnerabilidad

La agencia enfatiza que el verdadero peligro no radica en la tecnología en sí, sino en su mal uso.

En situaciones de crisis emocional, lo más recomendable sigue siendo acudir a una red de apoyo humana: amistades, terapeutas o familiares que puedan ofrecer escucha activa y comprensión. Delegar estas conversaciones íntimas a una IA no solo puede resultar inútil, sino también contraproducente para el proceso emocional.

Los expertos en psicología aseguran que una práctica diaria simple puede ser fundamental para lograr un notable incremento en la felicidad y el equilibrio emocional personal.
En medio de una crisis emocional, apoyarse en personas reales sigue siendo esencial, advierten especialistas en salud mental. | Foto: Getty Images

La reflexión final del informe es clara: “utilizar la IA como herramienta complementaria, en lugar de como fuente definitiva de respuestas, contribuye a tomar decisiones más informadas y seguras”.

Así, en medio de una tormenta afectiva, la recomendación es una sola: apague la pantalla y hable con alguien de carne y hueso.