Apple enfrenta una demanda de sobrevivientes de abuso infantil por afirmaciones de que aloja e ignora imágenes de abuso en iCloud.
Apple enfrenta una demanda colectiva de miles de sobrevivientes de abuso sexual infantil, acusando a la compañía de alojar a sabiendas y no eliminar imágenes y videos de abuso en iCloud. Los demandantes alegan que Apple tenía la tecnología para detectar dicho contenido, pero descontinuaron su programa de "Detección CSAM" 2021. La demanda busca medidas para garantizar la seguridad de los niños, alegando que la inacción de Apple ha perjudicado a las víctimas.
Hace 4 meses
31 Artículos
Artículos
Lecturas adicionales
No quedan artículos gratuitos este mes. ¡Suscríbete ya para acceso ilimitado!