¡Aprende idiomas de forma natural con contenido fresco y auténtico!

Temas populares
Explorar por región
Un estudio importante revela que los asistentes de noticias de IA proporcionan con frecuencia información inexacta o de fuentes deficientes, con un 81% de las respuestas defectuosas.
Un importante estudio realizado por la Unión Europea de Radiodifusión y la BBC descubrió que los principales asistentes de IA como ChatGPT, Copilot, Gemini y Perplejidad a menudo entregan noticias inexactas o engañosas, con un 45% de las respuestas que contienen problemas importantes y un 81% que muestran algún defecto.
Al analizar 3.000 respuestas en 14 idiomas, los investigadores encontraron problemas generalizados que incluyen hechos falsos, información obsoleta y fuentes deficientes, con Gemini mostrando la tasa más alta de errores de atribución en un 72%.
El estudio, que involucra a 22 medios de comunicación de servicio público de 18 países, pone de relieve las crecientes preocupaciones a medida que los usuarios más jóvenes confían cada vez más en la IA para obtener noticias, aumentando los riesgos para la confianza pública y la participación democrática.
Si bien algunas empresas reconocen los desafíos en curso, el informe pide una mayor rendición de cuentas y mejoras en la precisión y el abastecimiento de IA.
A major study reveals AI news assistants frequently provide inaccurate or poorly sourced information, with 81% of responses flawed.