Mental Health
¡Espera un poco!
Read and listen
Ayy, close that door, we blowin' smoke
Perspectives

Tras críticas, Apple da marcha atrás en su plan de escanear iPhones para detectar imágenes de abuso sexual infantil

Ahora el plan de Apple se retrasará "algunos meses", según la compañía. Fotografía: Getty
Words mor.bo Reading 4 minutos

Apple anunció el fin de semana que hará algunos cambios en su plan para que los iPhones y otros dispositivos escaneen las fotos de los usuarios en busca de imágenes de abuso sexual infantil, pero que todavía tiene la intención de implementar el sistema después de hacer “mejoras” para hacer frente a las numerosas críticas. “El mes pasado anunciamos planes para las características destinadas a ayudar a proteger a los niños de los depredadores que utilizan las herramientas de comunicación para reclutar y explotarlos, y limitar la propagación de material de abuso sexual infantil [CSAM]”, dijo la empresa en un comunicado. “Basándonos en los comentarios de los clientes, los grupos de defensa, los investigadores y otros, hemos decidido tomarnos un tiempo adicional durante los próximos meses para recoger las opiniones y hacer mejoras antes de lanzar estas funciones de seguridad infantil de importancia crítica”.

La declaración es imprecisa y no dice qué tipo de cambios hará Apple, y ni siquiera a qué tipo de grupos de defensa e investigadores consultará. Sin embargo, teniendo en cuenta la reacción de los investigadores de seguridad, los defensores de la privacidad y los clientes preocupados por la privacidad, parece probable que Apple intente abordar las preocupaciones sobre la privacidad de los usuarios y la posibilidad de que Apple pueda dar a los gobiernos un acceso más amplio a las fotos de sus clientes. Así, queda en duda cómo Apple podría implementar el sistema de manera que elimine las mayores preocupaciones de privacidad de sus críticos.

Publicidad
Apple escaneará los iPhones para detectar imágenes de abuso infantil

Apple ha afirmado que rechazará las peticiones de gobiernos para ampliar el escaneo de fotos más allá del CSAM. Pero los defensores de la privacidad y la seguridad argumentan que una vez que el sistema se despliegue, Apple probablemente no podrá evitar dar a los gobiernos más contenido de los usuarios. “Una vez que los productos de Apple incorporen esta función, la empresa y sus competidores se enfrentarán a una enorme presión — y potencialmente a exigencias legales — por parte de gobiernos de todo el mundo para que escaneen las fotos no solo en busca de CSAM, sino también de otras imágenes que un gobierno considere objetables”, afirmaron 90 grupos políticos de EE.UU. y de todo el mundo en una carta abierta dirigida a Apple el mes pasado.

“Esas imágenes pueden ser de abusos de los derechos humanos, protestas políticas, imágenes que las empresas han etiquetado como contenido ‘terrorista’ o extremista violento, o incluso imágenes poco favorecedoras de los propios políticos que presionarán a la empresa para que las escanee. Y esa presión podría extenderse a todas las imágenes almacenadas en el dispositivo, no sólo a las subidas a iCloud. Así, Apple habrá sentado las bases para la censura, la vigilancia y la persecución a nivel mundial”.

Inicialmente, Apple dijo que desplegaría los cambios a finales de este año, en un principio solo en Estados Unidos, como parte de las actualizaciones de iOS 15, iPadOS 15, watchOS 8 y macOS Monterey. La promesa de Apple de “tomarse un tiempo adicional en los próximos meses para recopilar información y realizar mejoras” sugiere que el sistema de escaneo podría implementarse más tarde de lo que Apple pretendía, pero la compañía nunca proporcionó una fecha de lanzamiento firme para empezar. Apple ha argumentado que su sistema es en realidad un avance en la privacidad porque escaneará las fotos “de la manera más protectora de la privacidad que podamos imaginar y de la forma más auditable y verificable posible”.

Apoya el periodismo abierto e independiente de MOR.BO. El 2021 ha sido un año de serios desafíos y dificultades. Puedes ayudar a mantener nuestros informes de alto impacto realizando una compra en nuestra MOR.BO Contemporary Store que cuenta con objetos de edición limitada.

Despues de leer, ¿qué te pareció?

  • Me gustó
  • Me prendió
  • Lo amé
  • Me deprime
  • WTF!
  • Me confunde
   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido

Utilizamos cookies propias y de terceros para ofrecerte una mejor experiencia y servicio. Si continúas navegando, consideramos que aceptas su uso.

Aceptar
NIGHT MODE DAY MODE