Tecnología
OpenAI explica por qué los modelos de inteligencia artificial tienen este gran problema: “Alucinaciones”
Este fenómeno que pone en riesgo la fiabilidad de la IA.

OpenAI ha indagado sobre el origen de las ‘alucinaciones’ en los modelos de lenguaje, un fenómeno que pone en riesgo la fiabilidad de la inteligencia artificial, y su persistencia, que vincula con las evaluaciones que incentivan las conjeturas.
Las alucinaciones son un fenómeno por el que la IA ofrece respuestas que, a pesar de parecer coherentes, incluyen información sesgada o errónea que no está respaldada por los datos con los que se ha entrenado.
Suponen un problema que afecta a la interacción con los modelos de lenguaje, porque los usuarios pueden creer que la información es correcta y tomar decisiones en base a ella. También son un desafío para las empresas que desarrollan esos modelos porque no está claro su origen.
OpenAI, sin embargo, asegura que se originan en el preentrenamiento, en el proceso de predicción de la siguiente palabra en grandes cantidades de texto, cuando no existen etiquetas que ayuden a distinguir lo que es válido de lo que es inválido.
Este es el resultado de una investigación que ha compartido recientemente, titulada ‘Por qué los modelos de lenguaje alucinan?’, en la que ha indagado también sobre la persistencia de las alucinaciones en los modelos más recientes, que recoge en su blog oficial.

Asegura que “las alucinaciones persisten en parte porque los métodos de evaluación actuales establecen incentivos erróneos”, y para explicarlo, compara su forma de responder con un estudiante enfrentándose a un examen de respuesta múltiple.
“Si no sabes la respuesta, pero intentas adivinar, podrías tener suerte y acertar. Dejarla en blanco garantiza un cero. De la misma manera, cuando los modelos se califican solo por la precisión, el porcentaje de preguntas que responden correctamente, se les anima a adivinar en lugar de decir ‘No lo sé’”.
Ante este descubrimiento, OpenAI propone actualizar las pruebas basadas en la precisión para que también se penalicen las conjeturas, y que los modelos puedan “abstenerse ante la incertidumbre”.
Aun así, la compañía reconoce que no se pueden conseguir modelos de lenguaje que sean precisos al cien por cien, porque “independientemente del tamaño del modelo y de sus capacidades de búsqueda y razonamiento, algunas preguntas del mundo real son inherentemente incontestables”.
Los jóvenes hoy leen las noticias por ChatGPT: Instituto Reuters
La tentación de utilizar los robots conversacionales como ChatGPT para informarse es una de las tendencias crecientes entre los jóvenes, mientras que la red social X, criticada como una correa de transmisión del extremismo, resiste como vector de información, según los expertos.
“Los robots conversacionales con IA se están utilizando por primera vez como fuente de información”, resume Mitali Mukherjee, directora del Instituto Reuters para el Estudio del Periodismo, al inicio de su informe 2025 sobre información digital.
El estudio está basado en encuestas en línea realizadas por la empresa YouGov a 97.000 personas en 48 países, entre ellos Argentina, Brasil y Colombia.
Por ahora, el número global de encuestados que dicen usar la IA cada semana para informarse es “relativamente bajo” (7 %), destaca el informe. Pero esta proporción es “más alta” entre los más jóvenes: sube al 12 % entre los menores de 35 años y al 15 % entre los menores de 25.
ChatGPT es utilizado además como un interlocutor o incluso “confidente” por personas que sienten la necesidad de comunicar con su chatbot para temas personales, o incluso íntimos.
Así, una cuarta parte (26 %) de los franceses declara que utilizó la inteligencia artificial en su vida privada en 2024, una progresión de diez puntos en un año, según el Barómetro digital publicado anualmente.
Con información de Europa Press