CLOSE
Follow 🔥
Mental Health
¡Espera un poco!
Read and listen
Ayy, close that door, we blowin' smoke
Perspectives

Apple escaneará los iPhones para detectar imágenes de abuso infantil

Apple dijo que el trabajo de detección ocurre en el dispositivo e insistió en que solo las personas que tienen grandes colecciones de imágenes subidas a iCloud que coinciden con una base de datos de material conocido de abuso sexual infantil cruzarían un umbral que permite que algunas de sus fotos sean descifradas y analizadas por Apple. Fotografía: The New Daily
Words mor.bo Reading 4 minutos

Apple anunció esta semana nuevas funciones que escanearán las fotos de los usuarios de iPhone y iPad para detectar y denunciar colecciones de imágenes de abuso sexual infantil almacenadas en sus servidores en la nube. “Queremos ayudar a proteger a los niños de los depredadores que utilizan las herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación de material de abuso sexual infantil”, dijo Apple en un comunicado. “Este programa es ambicioso, y la protección de los niños es una responsabilidad importante”, dijo. “Nuestros esfuerzos evolucionarán y se ampliarán con el tiempo”.

Apple dijo que el trabajo de detección ocurre en el dispositivo e insistió en que solo las personas que tienen grandes colecciones de imágenes subidas a iCloud que coinciden con una base de datos de material conocido de abuso sexual infantil cruzarían un umbral que permite que algunas de sus fotos sean descifradas y analizadas por Apple. Señalando que poseer este tipo de material “es un acto ilegal”, el director de privacidad de Apple, Erik Neuenschwander, dijo en una videoconferencia que “el sistema fue diseñado y entrenado” para detectar las imágenes de la base de datos CSAM del Centro Nacional para Niños Desaparecidos y Explotados de los Estados Unidos.

Publicidad

Neuenschwander dijo que las personas cuyas imágenes sean marcadas para las fuerzas de seguridad no serán notificadas y que sus cuentas serán desactivadas. “El hecho de que su cuenta quede inhabilitada es un acto notorio”, afirmó Neuenschwander. Apple dijo que su conjunto de sistemas operativos para dispositivos móviles se actualizará con la nueva función de seguridad para niños “a finales de este año”, comenzando por Estados Unidos.

Sin embargo, algunos expertos en privacidad expresaron su preocupación. “Hay algunos problemas con estos sistemas”, dijo Matthew D. Green, profesor asociado de criptografía en la Universidad John Hopkins. “El primero es que hay que confiar en que Apple solo escanea los contenidos legítimamente malos. Si el FBI o el gobierno chino se apoyan en Apple y les piden que añadan imágenes específicas a su base de datos, no habrá forma de que el usuario lo detecte. Simplemente te denunciarán por tener esas fotos. De hecho, el diseño del sistema hace casi imposible saber qué hay en esa base de datos si no confías en Apple”.

Un preview de las medidas de seguridad que apple tomará para evitar que niños vean fotografías explícitas. Fotografía: Engadget
Un preview de las medidas de seguridad que apple tomará para evitar que niños vean fotografías explícitas. Fotografía: Engadget

Como parte de la actualización, la app Mensajes de Apple también utilizará “el aprendizaje automático en el dispositivo para analizar los archivos adjuntos de las imágenes y determinar si una foto es sexualmente explícita” para los menores cuyos dispositivos utilicen funciones de control parental. La app intervendrá si el equipo cree que el menor puede estar enviando o recibiendo una imagen o un vídeo que muestre “las partes privadas del cuerpo que cubres con trajes de baño”, según las diapositivas facilitadas por Apple. “Cuando un niño reciba este tipo de contenido, la foto se difuminará y se le advertirá, se le presentarán recursos útiles y se le asegurará que está bien si no quiere ver esta foto”, dijo Apple en un comunicado de prensa. Además, como precaución adicional, también se puede decir al niño que, para asegurarse de que está a salvo, sus padres recibirán un mensaje si lo ven. “Existen protecciones similares si un niño intenta enviar fotos sexualmente explícitas. El niño será advertido antes de enviar la foto y los padres pueden recibir un mensaje si el niño decide enviarla”.

Apoya el periodismo abierto e independiente de MOR.BO. El 2021 ha sido un año de serios desafíos y dificultades. Puedes ayudar a mantener nuestros informes de alto impacto realizando una compra en nuestra MOR.BO Contemporary Store que cuenta con objetos de edición limitada.

Despues de leer, ¿qué te pareció?

  • Me gustó
  • Me prendió
  • Lo amé
  • Me deprime
  • 2
    WTF!
  • 1
    Me confunde
   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido

Utilizamos cookies propias y de terceros para ofrecerte una mejor experiencia y servicio. Si continúas navegando, consideramos que aceptas su uso.

Aceptar
NIGHT MODE DAY MODE