¡Aprende idiomas de forma natural con contenido fresco y auténtico!

Temas populares
Explorar por región
Los deepfakes de IA implicaron falsamente a un oficial de ICE y a víctimas identificadas erróneamente en un tiroteo de Minneapolis en enero de 2026, que se extendió rápidamente en línea a pesar de que no había imágenes reales.
Las falsificaciones profundas generadas por IA de la víctima y el tirador en un tiroteo fatal en Minneapolis en enero de 2026 se extendieron rápidamente en las redes sociales, revelando falsamente la identidad del oficial de ICE, alterando digitalmente las imágenes de la víctima e identificando erróneamente a personas no relacionadas.
A pesar de que no hay imágenes auténticas que muestren la cara del oficial, se utilizaron herramientas como Grok de Elon Musk para crear imágenes hiperrealistas pero fabricadas, incluidas representaciones explícitas y deshumanizantes.
La información errónea falsamente vinculó al oficial con un hombre llamado Steve Grove y tergiversó a otras personas, mientras que un clip del gobernador de Florida
Ron DeSantis fue falsamente presentado como un comentario sobre el incidente.
Los expertos confirman que el oficial es Jonathan Ross, y la víctima fue Renee Nicole Good.
El incidente pone de relieve los peligros de la desinformación alimentada por la IA en las noticias de última hora, erosionando la confianza pública y distorsionando la realidad.
AI deepfakes falsely implicated an ICE officer and misidentified victims in a Jan 2026 Minneapolis shooting, spreading rapidly online despite no real footage.