Meta presenta un nuevo marco de IA para categorizar y controlar los sistemas de IA de alto riesgo para prevenir el uso indebido.

Meta ha lanzado un "Frontier AI Framework" que clasifica los sistemas de IA en categorías de alto y crítico riesgo basadas en su potencial para ayudar en ciberseguridad, ataques químicos y biológicos. Los sistemas de alto riesgo tendrán acceso y mitigación limitados, mientras que los sistemas de riesgo crítico detendrán el desarrollo hasta que sea más seguro. El marco tiene como objetivo prevenir resultados catastróficos, aunque Meta reconoce las limitaciones en las medidas de protección.

Hace 2 meses
16 Artículos