Apple enfrenta una demanda de sobrevivientes de abuso infantil por afirmaciones de que aloja e ignora imágenes de abuso en iCloud.

Apple enfrenta una demanda colectiva de miles de sobrevivientes de abuso sexual infantil, acusando a la compañía de alojar a sabiendas y no eliminar imágenes y videos de abuso en iCloud. Los demandantes alegan que Apple tenía la tecnología para detectar dicho contenido, pero descontinuaron su programa de "Detección CSAM" 2021. La demanda busca medidas para garantizar la seguridad de los niños, alegando que la inacción de Apple ha perjudicado a las víctimas.

Hace 4 meses
31 Artículos

Lecturas adicionales