La herramienta de Transcripción de IA de OpenAI, Whisper, frecuentemente "alucina" en entornos médicos, llevando a riesgos potenciales.

Los investigadores han encontrado que la herramienta de transcripción con IA de OpenAI, Whisper, frecuentemente "alucina" generando frases falsas, planteando preocupaciones en industrias de alto riesgo como la salud. A pesar de las advertencias de OpenAI contra su uso en áreas sensibles, muchos centros médicos lo han adoptado para transcribir las consultas a los pacientes. Los expertos están pidiendo regulaciones federales para abordar estos problemas, mientras que OpenAI reconoce el problema y está trabajando en mejoras.

October 26, 2024
130 Artículos

Lecturas adicionales