¡Aprende idiomas de forma natural con contenido fresco y auténtico!

Temas populares
Explorar por región
Un juez de Chicago advierte que el uso de AI por parte de los agentes de inmigración en los informes de fuerza corre el riesgo de inexactitudes y erosiona la confianza.
Un juez federal en Chicago ha levantado alarmas sobre los agentes de inmigración que usan herramientas de IA como ChatGPT para redactar informes de uso de la fuerza, citando discrepancias entre las narrativas generadas por IA y las imágenes de la cámara corporal.
En una nota al pie de página, la jueza Sara Ellis cuestionó la confiabilidad de los informes basados en un mínimo de información, advirtiendo que la práctica corre el riesgo de inexactitudes, socava los estándares legales y erosiona la confianza pública.
Los expertos dicen que la IA puede distorsionar las perspectivas del oficial, crear cuentas engañosas y exponer datos confidenciales si se usan plataformas públicas.
El Departamento de Seguridad Nacional no ha hecho comentarios y no existen políticas federales claras.
Algunos estados ahora requieren el etiquetado del contenido generado por la IA, pero las salvaguardas generalizadas siguen ausentes.
A Chicago judge warns immigration agents' use of AI in force reports risks inaccuracies and erodes trust.