Emprendedores

Apple dice que no permitirá que el gobierno acceda a la herramienta de detección de abuso infantil, en medio de duras críticas

Apple dice que no permitirá que el gobierno acceda a la herramienta de detección de abuso infantil, en medio de duras críticas 1
Usuario de Apple iPhone
Crédito de la imagen: Unsplash / @screenpost

Ante las críticas de varias industrias sobre sus iniciativas de seguridad infantil en las fotos y mensajes de iCloud, Apple enfatizó que no permitirá que ningún gobierno lleve a cabo vigilancia a través de la herramienta diseñada para detectar y frenar el material de abuso sexual infantil (CSAM) en las fotos de iCloud.

La semana pasada, Apple confirmó planes para implementar nueva tecnología en iOS, macOS, watchOS e iMessage que detectará imágenes de posible abuso infantil.

Apple dijo que no cumplirá con ninguna solicitud del gobierno para expandir la tecnología.

“Apple rechazará tales demandas. Hemos enfrentado demandas para construir e implementar cambios impuestos por el gobierno que degradan la privacidad de los usuarios antes, y rechazamos firmemente esas demandas. Continuaremos rechazándolos en el futuro ”, dijo la compañía en un nuevo documento.

LEER: Apple presenta una queja contra las patentes de trolls que apuntan a la navegación por mapas

Apple dijo que la herramienta no afecta a los usuarios que no han optado por utilizar Fotos de iCloud.

“No hay impacto en ningún otro dato del dispositivo. Esta función no se aplica a los mensajes ”, señaló la empresa.

El CEO de Epic Games, Tim Sweeney, arremetió contra Apple por sus iniciativas de seguridad infantil con fotografías y mensajes en iCloud.

“Este es un software espía del gobierno instalado por Apple basado en la presunción de culpabilidad. Aunque Apple escribió el código, su trabajo es escanear los datos personales y reportarlos al gobierno ”, publicó Sweeney en Twitter.

El jefe de WhatsApp, Will Cathcart, también criticó a Apple por sus planes de lanzar medidas de identificación con foto, diciendo que el software de Apple puede escanear todas las fotos privadas en su teléfono, lo que es una clara violación de la privacidad.

Al enfatizar que WhatsApp no ​​permitirá que tales herramientas de Apple se ejecuten en su plataforma, Cathcart dijo que Apple ha necesitado hacer más para combatir el material de abuso sexual infantil (CSAM), “pero el enfoque que están adoptando introduce algo muy preocupante en el mundo”.

Apple dijo que la herramienta ‘Detección de CSAM en iCloud Photos’ fue diseñada para mantener CSAM fuera de iCloud Photos sin proporcionar información a Apple sobre las fotos que no coinciden con las imágenes CSAM conocidas.

“Esta tecnología se limita a detectar CSAM almacenado en iCloud y no cumpliremos con ninguna solicitud del gobierno para expandirla”.

La compañía también dijo que la función no funciona en la biblioteca de fotos privada del iPhone en el dispositivo.

Por favor califica el contenido

0 / 5

Your page rank:

Author

Moisés Cabrera

Encantado de emprender, el Internet es como pez en el rio para mi y quiero aportar valor a este mundo digital. Si crees que es de interés estos artículos no dudes en comentar.