Actualizado el 09/10/2025

icon Facebook icon Twiiter icon RSS icon EMAIL
  1. Portada
  2. >
  3. Noticias
  4. >
  5. Las alucinaciones de la IA son inevitables por el momento

Las alucinaciones de la IA son inevitables por el momento

Escrito por Guillem Alsina el 07/10/2025 a las 20:22:49
202

OpenAI sostiene, mediante una investigación propia realizada junto al Instituto de Tecnología de Georgia (el famoso Georgia Tech) y publicada este pasado 4 de septiembre, que las alucinaciones de los modelos de inteligencia artificial generativa obedecen a límites matemáticos y no solo a la ingeniería, lo que lleva a los investigadores a la conclusión de que los errores de este tipo siempre existirán en los modelos de lenguaje, por minimizados que estén gracias al desarrollo de mejoras técnicas de implementación.


Las pruebas con modelos actuales, también de la competencia, lo ilustran: a la cuestión sobre cuántas D hay en DEEPSEEK, DeepSeek-V3 respondió 2 o 3 en una decena de pruebas independientes; sistemas de Meta y Claude ofrecieron valores similares. OpenAI afirma que ChatGPT alucina y que GPT-5 es capaz de reducir dichas alucinaciones, pero que no puede eliminarlas. En resúmenes de información pública, o1 registró tasa de alucinaciones del 16%, o3 del 33% y o4-mini del 48%.


Causas matemáticas y límites técnicos


El trabajo identifica tres fuentes principales de estas alucinaciones: escasez de información en los datos, limitaciones de representación del modelo, y problemas intratables desde el punto de vista computacional, y también revisa la evaluación del sector: En nueve de cada diez pruebas populares (como GPQA, MMLU-Pro o SWE-bench) se penaliza admitir desconocimiento y se incentiva la conjetura, lo que favorece la generación de respuestas erróneas (las famosas alucinaciones).


El equipo de investigadores propone, como una medida que minimice -aunque no pueda eliminarlos- el número de errores, fijar para los modelos de lenguaje objetivos explícitos de confianza durante la fase de desarrollo y entrenamiento, de forma que aprendan a responder con hechos o, incluso con un “no lo sé” cuando la cuestión sea, realmente, insoluble.


Por el momento, la única solución a detectar y corregir los fallos provocados por la IA debido a estas alucinaciones, es hacer revisar los resultados por una persona. Y, en el momento de decidirse por qué sistema de IA implantar, tener en cuenta las estimaciones de la incertidumbre de las respuestas.


El estudio concluye que el sector debe ajustar métodos y gobernanza ante una tasa de error estructural.