Un estudio revela que los sistemas de IA carecen de capacitación en empatía y ética, proponiendo un nuevo método para alinear IA con los valores sociales.
Investigadores de la Universidad de Purdue encontraron que los sistemas de IA están entrenados principalmente en información y valores de utilidad, a menudo pasando por alto los valores prosociales, de bienestar y cívicos. El estudio examinó tres conjuntos de datos utilizados por las principales empresas de IA y encontró una falta de capacitación sobre empatía, justicia y derechos humanos. El equipo introdujo un método llamado fortalecimiento del aprendizaje de la retroalimentación humana para ayudar a los sistemas de IA a alinearse con los valores sociales, utilizando conjuntos de datos curados para asegurar el comportamiento ético y servir mejor a los valores comunitarios.