LAION elimina 2.000 enlaces de imágenes de abuso infantil de la base de datos de generadores de imágenes de IA.
Los investigadores de AI en LAION han eliminado más de 2.000 enlaces que contenían imágenes de presunto abuso sexual infantil de su base de datos, que se ha utilizado para capacitar a los populares creadores de imágenes de IA como Stable Diffusion y Midjourney. En respuesta a los hallazgos anteriores de que la base de datos contenía enlaces que contribuían a la producción de deepfakes fotorrealistas que representaban a niños, LAION trabajó con grupos de vigilancia y organizaciones antiabuso para limpiar la base de datos y publicar una versión revisada para futuras investigaciones de IA. Sin embargo, el siguiente paso es retirar los modelos contaminados que aún pueden producir imágenes de abuso infantil.