Inicio - Ciencia y Tecnología - Apple retrasa el lanzamiento de su tecnología para detectar imágenes de abuso sexual de menores

Apple retrasa el lanzamiento de su tecnología para detectar imágenes de abuso sexual de menores

Apple ha retrasado unos meses la implantación de su tecnología para la detección y lucha contra la distribución de imágenes de explotación sexual de menores a través de servicios de la compañía como iCloud, e introducirá cambios antes de su lanzamiento. Así lo ha anunciado la compañía en un comunicado remitido a ABC en el que apunta que piensa realizar mejoras antes del lanzamiento definitivo. La decisión llega después de que expertos y organizaciones denunciasen que la herramienta atenta contra la privacidad de los usuarios y que podía usarse como puerta trasera para espiar a personas.

«Basándonos en el feedback de los clientes, los grupos de defensa, los investigadores y otros, hemos decidido tomarnos más tiempo en los próximos meses para recopilar aportaciones y hacer mejoras antes de publicar estas prestaciones de seguridad infantil de importancia crítica», afirma la tecnológica.

La compañía estadounidense planeaba lanzar la funcionalidad en las cuentas familiares de iCloud con iOS 15, iPadOS 15 y macOS Monterrey. Según compartió a principios del mes pasado, la novedad estaba destinada a proteger a los niños frente a acosadores sexuales que utilizasen las herramientas de comunicación de la compañía para contactar y explotar a menores, así como a evitar la difusión de estos contenidos.

La tecnología, en concreto, permitiría detectar las imágenes de este tipo que estén guardadas en iCloud sin escanear las fotagrafías en la nube. En su lugar, se basa en una comparación en el dispositivo de las imágenes conocidas proporcionadas por organizaciones de seguridad infantil antes de que sean subidas a iCloud. Lo que se compara no es la imagen en sí, sino los ‘hashes’ de las imágenes, una especie de huella digital.

Finalmente, una herramienta criptográfica llamada ‘intersección de conjuntos privados’ es la que determina si hay una coincidencia sin revelar el resultado, y se adjunta a la imagen una vez subida a iCloud. De acuerdo con la empresa, esta herramienta asegura un alto nivel de coincidencia, y es entonces cuando Apple recibe una alerta para que los equipos humanos la revisen. Si se confirma que es una imagen infantil de carácter sexual, se desactiva la cuenta del usuario y se envía un informe a las asociaciones pertinentes y a la Policía.

Asimismo, a través de una segunda tecnología implantada en su app de mensajería Messages, los padres o tutores podrían recibir, si lo desean, una notificación cada vez que el niño envíe o reciba una imagen con contenido sexual explícito, pero esto ocurre después de que el niño reciba una advertencia en la que se informa sobre que si procede a ver dicha imagen sus padres serán notificados.

Más noticias...

Los mineros de Bitcoin de EEUU tienen un montón de equipos obsoletos. Y los están enviando a África y Sudamérica

{ Si bien casi todos sabemos que hay muchas personas que minan criptomonedas desde su …

A %d blogueros les gusta esto: