El estudio del MIT revela que los grandes modelos de lenguaje AI exhiben sesgo de izquierda a pesar de los datos de entrenamiento objetivos.
Los investigadores del MIT encontraron que los grandes modelos de lenguaje, usados en aplicaciones de IA como ChatGPT, pueden exhibir un sesgo político de izquierda incluso cuando están entrenados en información objetiva. El estudio, liderado por la candidata al doctorado Suyash Fulay y el científico de investigación Jad Kabara, mostró que el sesgo persistió a pesar de usar conjuntos de datos supuestamente veraces, planteando preocupaciones sobre la fiabilidad y el posible uso indebido de estos modelos.
Hace 3 meses
3 Artículos
Artículos
Lecturas adicionales
Último artículo gratuito este mes. ¡Suscríbete ya para acceso ilimitado!