¡Aprende idiomas de forma natural con contenido fresco y auténtico!

Temas populares
Explorar por región
Las fallas de "inyección rápida" de IA permiten a rivales como China y Rusia hackear sistemas a través de texto engañoso, arriesgando fugas de datos y desinformación.
Los expertos militares advierten que una vulnerabilidad generalizada de IA llamada "inyección rápida" permite a adversarios como China y Rusia explotar los chatbots y los agentes de IA ocultando comandos maliciosos en un texto aparentemente normal, lo que lleva al robo de datos, desinformación o manipulación del sistema.
Estos ataques engañan a la IA para que ejecute acciones dañinas, como filtrar archivos o difundir información falsa, ya que los modelos no pueden distinguir entre entradas legítimas y maliciosas.
Se han encontrado incidentes en herramientas como Microsoft's Copilot y OpenAI's ChatGPT Atlas, con compañías que reconocen el riesgo pero admiten que no existe una solución completa.
Los expertos recomiendan limitar el acceso de la IA a datos sensibles y monitorear el comportamiento anormal para reducir el daño, ya que los agentes de IA, ahora capaces de tareas autónomas, introducen nuevas amenazas de ciberseguridad que superan las salvaguardas actuales.
AI "prompt injection" flaws let rivals like China and Russia hack systems via deceptive text, risking data leaks and disinformation.