Herramienta de transcripción de IA Whisper utilizada en la atención médica encontró crear texto falso, arriesgando un diagnóstico erróneo del paciente.
Un estudio reciente encontró que Whisper, una herramienta de transcripción de IA ampliamente utilizada en los centros médicos, a veces puede crear texto falso, conocido como "alucinaciones". Esto podría conducir a registros médicos inexactos y posibles errores como un diagnóstico erróneo. La herramienta se utiliza para transcribir las conversaciones entre los pacientes y los médicos, planteando preocupaciones acerca de su fiabilidad en los entornos de salud.
Hace 2 meses
3 Artículos