Home Apple Apple demandó a Virginia Occidental por supuestamente no prevenir el CSAM

Apple demandó a Virginia Occidental por supuestamente no prevenir el CSAM

24

manzana Se ha presentado un caso por el estado de Virginia Occidental, que dijo que no logró prevenir el material de abuso sexual infantil (CSAM) en los servicios de iCloud como iMessage y Photos. Aquí están los detalles.

La demanda afirma que otras empresas de tecnología hacen un mejor trabajo en la lucha contra el CSAM

Escrito por Lora Kolodny CNBC:

El fiscal general de Virginia Occidental presentó una demanda de protección al consumidor contra Apple, alegando que no impidió el almacenamiento y el intercambio de material de abuso sexual infantil a través de dispositivos iOS y servicios iCloud.

John “JB” McCaskey, un republicano, ha acusado a Apple de priorizar la marca de privacidad y sus propios intereses comerciales por encima de la protección infantil, mientras que otras importantes empresas tecnológicas, incluidas Google, Microsoft y Dropbox, se han vuelto más activas en la lucha contra ese material utilizando sistemas como PhotoDNA.

En 2021, Apple anunció una serie de nuevos esfuerzos para detener la propagación de CSAM en sus dispositivos. Sin embargo, uno de esos anuncios nunca llegó a concretarse.

Apple había planeado introducir un sistema de detección de CSAM en la aplicación Fotos, pero luego fue abandonado después de que investigadores de privacidad plantearan importantes preocupaciones.

Se temía que la creación de este nuevo sistema abriera la posibilidad a los gobiernos de exigir acceso a los datos de los usuarios individuales.

Apple incluyó otras funciones relacionadas con la protección infantil con iOS 26 destinadas a detener la propagación de CSAM. Sin embargo, Virginia Occidental cree claramente que la empresa no ha hecho lo suficiente.

Apple compartió lo siguiente con CNBC:

En una declaración enviada por correo electrónico, un portavoz de Apple dijo a CNBC que “proteger la seguridad y privacidad de nuestros usuarios, especialmente los niños, está en el centro de todo lo que hacemos”.

La compañía señala características como controles parentales y protección de comunicación que “intervienen automáticamente en los dispositivos de los niños cuando se detecta desnudez en mensajes, fotos compartidas, AirDrops e incluso llamadas FaceTime en vivo”, como promesas de brindar a los usuarios “seguridad, protección y privacidad”.

“Estamos innovando constantemente todos los días para combatir las amenazas en evolución y mantener la plataforma más segura y confiable para los niños”, agregó el portavoz.

Lo mantendremos informado sobre cualquier actualización importante sobre el caso.

Los mejores accesorios para iPhone

Enlace fuente