Una nueva investigación dirigida por la BBC y coordinada por la Unión Europea de Radiodifusión (UER) y publicada hoy encuentra que los asistentes de IA tergiversan habitualmente el contenido de las noticias, independientemente del idioma, la región o la plataforma de IA en la que se prueban.
Evaluaron más de 3000 respuestas de ChatGPT, Copilot, Gemini y Perplexity.
Este estudio internacional intensivo se lanzó en la Asamblea de Noticias de la EBU el 22 de octubre de 2025. En él se identificaron múltiples problemas sistémicos en cuatro herramientas principales de IA.
Los hallazgos clave incluyen que el 45% de todas las respuestas de IA tuvieron al menos un problema crítico. El treinta y uno por ciento de las respuestas demostraron problemas graves de abastecimiento, como atribuciones faltantes, engañosas o inexactas, y el 20% incluyó problemas importantes de precisión, como detalles ilusorios o información desactualizada.
Estos investigadores dijeron que Géminis tuvo el peor desempeño con el 76% de las respuestas y más del doble que los otros asistentes.
La comparación de la encuesta con los resultados de la BBC de principios de este año reveló que, aunque había habido algunas mejoras, todavía había altos niveles de error.
Estas preguntas son importantes porque los asistentes de inteligencia artificial ya han reemplazado a los motores de búsqueda para muchos usuarios.
Según el Digital News Report 2025 del Instituto Reuters, el 7% de todos los consumidores de noticias en línea utilizan un asistente de inteligencia artificial para recibir sus noticias, cifra que aumenta al 15% entre los menores de 25 años.
“Esta investigación muestra de manera concluyente que estos fallos no son incidentes aislados”, afirmó en un comunicado de prensa Jean-Philippe de Tender, director de medios y secretario general adjunto de la UER.
“Están organizados, son transfronterizos y multilingües, y creemos que esto pone en riesgo la confianza pública. Si la gente no sabe en qué confiar, puede terminar confiando en nada, y eso puede impedir su participación en la democracia”.
El equipo de investigación también lanzó el “Kit de herramientas de integridad de las noticias para asistentes de IA”.
Este conjunto de herramientas se basa en amplios conocimientos y ejemplos identificados en investigaciones actuales para abordar dos preguntas clave: ¿Qué hace que un asistente de IA responda bien a una pregunta periodística? “¿Qué problema necesitamos resolver?”
Además, la UER y sus Estados miembros piden a los reguladores nacionales y de la UE que hagan cumplir las leyes existentes sobre integridad de la información, servicios digitales y pluralismo de los medios. Y subrayan que, dado el rápido ritmo de desarrollo de la IA, es esencial un seguimiento independiente y continuo de los asistentes de IA, y están explorando opciones para continuar la investigación de forma continua.
Este nuevo estudio destaca el impacto en el mercado de un informe reciente de Google News que encontró que menos del 25% de todos los artículos de noticias mencionaban investigaciones clínicas, especialmente en relación con las vacunas.
Además, las personas que dependen de las noticias generadas por IA en realidad pueden aumentar el riesgo de escasez de vacunas, ya que los viajeros de último momento están posponiendo las vacunas preventivas en aproximadamente un 18 % debido a la falta de tiempo antes de la salida.
Como alentó el ex Cirujano General de los EE. UU., Dr. C. Everett Koop, las personas deben tomar el control de su salud trabajando con sus proveedores de atención médica para tomar decisiones importantes basadas en información digital.