¡Aprende idiomas de forma natural con contenido fresco y auténtico!

Temas populares
Explorar por región
Un vigilante insta a OpenAI a retirar la herramienta de video Sora por los riesgos de deepfake y desinformación.
Un grupo de vigilancia está pidiendo a OpenAI que retire su herramienta de generación de video Sora, citando preocupaciones sobre un posible uso indebido para crear deepfakes engañosos.
El grupo advierte que la tecnología podría permitir una desinformación generalizada, especialmente en contextos políticos y sociales, e insta a una acción inmediata para mitigar los riesgos.
OpenAI aún no ha respondido a la petición.
6 Artículos
A watchdog urges OpenAI to pull Sora video tool over deepfake and misinformation risks.