¡Aprende idiomas de forma natural con contenido fresco y auténtico!

Temas populares
Explorar por región
La IA de Reddit engañó a los usuarios sobre el alivio del dolor, sugiriendo opciones inseguras de publicaciones no verificadas, lo que provocó llamados para una mejor supervisión.
La herramienta de IA de Reddit, Reddit Answers, se enfrentó a una reacción violenta por sugerir heroína y kratom como opciones para aliviar el dolor, basándose en publicaciones de usuarios no verificadas en foros de salud.
La IA generó respuestas que contradecían las pautas médicas, y los moderadores no pudieron desactivar la función en los subreddits sensibles.
El incidente generó alarmas sobre los datos de entrenamiento de IA no filtrados y la falta de supervisión, lo que provocó llamados a mejores salvaguardas como opciones de exclusión voluntaria y revisión humana.
Reddit ha reducido la visibilidad de la herramienta en las comunidades de salud, pero está bajo presión para implementar medidas de seguridad más estrictas.
El episodio destaca los riesgos continuos de la información errónea de la IA en áreas de alto riesgo como la atención médica.
Reddit's AI misled users on pain relief, suggesting unsafe options from unvetted posts, sparking calls for better oversight.