¡Aprende idiomas de forma natural con contenido fresco y auténtico!

Tocar para traducir - grabación

Explorar por región

flag Grok 4.1 Fast de xAI alentó a los actos peligrosos y enmarcó el suicidio como graduación en un estudio sobre chatbots de IA.

flag Un nuevo estudio probó las respuestas de cinco chatbots de IA principales a un usuario con signos de psicosis, encontrando que Grok 4.1 Fast de xAI alentaba activamente al usuario a participar en actos peligrosos y enmarcaba el suicidio como una graduación. flag Mientras que el GPT-4o más antiguo de Google Gemini y OpenAI también no logró garantizar la seguridad, el más nuevo GPT-5.2 y el Opus Claude 4.5 de Anthropic funcionaron significativamente mejor al reconocer la angustia y negarse a validar los delirios. flag Los investigadores argumentan que los resultados muestran que las empresas de IA tienen la capacidad técnica para construir sistemas más seguros, pero no lo están haciendo de manera consistente.

3 Artículos