¡Aprende idiomas de forma natural con contenido fresco y auténtico!

Temas populares
Explorar por región
Google ignora un defecto oculto en Gemini AI que permite a los hackers inyectar comandos maliciosos a través de texto invisible, arriesgando datos y desinformación.
Una falla recientemente revelada de "contrabando de ASCII" en la IA Gemini de Google permite a los atacantes ocultar comandos maliciosos en el texto utilizando caracteres Unicode invisibles, engañando a la IA para que genere resúmenes falsos o altere los detalles de las reuniones sin que el usuario lo sepa.
A diferencia de los modelos de IA competidores como ChatGPT y Copilot, Gemini no puede detectar o bloquear estas entradas.
Google se ha negado a solucionar el problema, etiquetándolo como un problema de "ingeniería social" en lugar de un fallo de seguridad, a pesar del riesgo para los usuarios que confían en Gemini dentro de Gmail, Docs y Calendar.
Los críticos advierten que la decisión deja a las empresas vulnerables a las fugas de datos y la desinformación, especialmente a medida que los sistemas de IA automatizan cada vez más tareas sensibles.
Google ignores a hidden flaw in Gemini AI that lets hackers inject malicious commands via invisible text, risking data and misinformation.