Si sumamos que cada vez tenemos menos tiempo para leer con la eclosión de los asistentes de inteligencia artificial, tenemos que muchos usuarios utilizan estos últimos para resumir la actualidad informativa y, de esta manera, ahorrarse un valioso tiempo de lectura.
El problema con dichos asistentes son las llamadas alucinaciones, fruto -según afirman las últimas investigaciones- de la forma en la que se entrenan los modelos de lenguaje, ya que se les premia por respuesta dada, por lo que evitan responder a cualquier pregunta afirmando que desconocen la respuesta, inventándosela antes de eso.
El reciente estudio Audience Use and Perceptions of AI Assistants for News llevado a cabo por Ipsos, coordinado por la Unión Europea de Radiodifusión, y liderado por la BBC, parte del Digital News Report 2025 del Instituto Reuters, el cual expone que el 7% de quienes acceden a noticias por internet recurre a asistentes de IA, proporción que asciende al 15% entre menores de 25 años, para repasar como asistentes como ChatGPT, Gemini, Copilot o Perplexity ofrecen resúmenes generados a partir de contenidos de múltiples medios.
La investigación que ha dado lugar al estudio ha combinado un sondeo online a dos mil adultos del Reino Unido con edades comprendidas entre los 16 y los 75 años, con seis talleres deliberativos con 36 participantes en los que se expusieron a los participantes a resúmenes reales generados por IA que contenían errores.
El diseño experimental enfrentó a los encuestados a cuatro tipologías de fallo: inexactitudes factuales, opiniones presentadas como hechos, errores de fuente y atribución, e introducción de opiniones no presentes en los originales. El objetivo fue medir el impacto de cada tipo de error en la confianza y clarificar la cadena de responsabilidades percibida por la audiencia.
Casi la mitad de los participantes en el estudio reconoce que los resúmenes ayudan a entender temas complejos, y algo más de un tercio declara confiar en que la IA produzca resúmenes precisos, porcentaje que sube hasta la mitad en los menores de 35 años. Los resultados apuntan a que los usuarios confían muy rápidamente en los contenidos si estos solamente muestran una apariencia de corrección, citando fechas, cifras y nombres, siempre y cuando su apariencia sea rigurosa.
Igualmente preocupante es que la mayoría de los usuarios afirme que es importante vigilar los errores en los contenidos generados por la IA, y que sólo una parte diga luego que cuestionaría la información presentada en un resumen automático. El estilo neutral y la referencia a marcas conocidas reducen el impulso a verificar, lo que crea un espacio para que pequeños fallos en los textos generados, pasen inadvertidos por parte de los usuarios.
Las inexactitudes minan de forma significativa la confianza: el 84% de los adultos del Reino Unido afirma que un error factual tendría un impacto importante en su confianza en un resumen generado por IA. En errores de fuente y atribución, el 76% anticipa un perjuicio similar, y cuando una opinión se presenta como hecho, la cifra es del 81%. Si la IA introduce una opinión propia, la cifra es del 73%.
Es también preocupante que, incluso fallos menores (como una fecha errónea o un crédito incorrecto) pueden anclar estas interpretaciones iniciales y afectar a la disposición a compartir o a volver a usar estos servicios, especialmente en temas sensibles.
Tras hacer visibles los errores, aumentan las reticencias: crece la proporción de quienes desconfían de que la IA resuma noticias con fiabilidad y el 45% declara que sería menos propenso a preguntar por la actualidad mediante estas herramientas, porcentaje que alcanza el 50% entre mayores de 35 años.
La investigación cita trabajos de la BBC y la Unión Europea de Radiodifusión que detectaron errores significativos en el 45% de las respuestas de asistentes de IA analizados, con problemas de atribución como causa más habitual (31%) y errores de exactitud en segundo lugar (20%). Estos resultados, observados en distintos mercados e idiomas de la misma manera, subrayan el carácter sistémico del fenómeno.
La audiencia distribuye la responsabilidad a lo largo de todo el proceso: un 36% señala a los proveedores de asistentes de IA como responsables de asegurar la calidad y exactitud de las respuestas, mientras que un 31% sitúa esa función en el Gobierno o los reguladores y un 23% atribuye parte de la responsabilidad a los medios cuando su nombre aparece asociado al contenido.
A la hora de asignar la culpa en caso de error, el patrón se repite: una parte relevante la concentra en la tecnología de IA (20%) y en las empresas que la desarrollan (18%), pero los medios reciben también una porción (13%) cuando su marca figura en el resumen. Más de un tercio de los adultos coincide en que el medio citado debería ser considerado responsable cuando se detectan fallos.
Las diferencias por edad son matizadas: los menores de 35 años tienden a priorizar la intervención regulatoria, mientras que los mayores de 35 responsabilizan en mayor medida a la tecnología, sin eximir a editores ni reguladores cuando aparecen problemas. En todos los grupos, la asociación de una marca reconocible con un resumen erróneo pesa en el juicio del lector.