La compañía tecnológica Apple; ha dicho que van a tomarse un par de meses para buscar aportaciones y hacer mejoras en la herramienta de detección de imágenes de abuso sexual en niños y adolescente.
Habrá una serie de cambios en la herramienta para detectar imágenes de abuso y explotación sexual en menores de edad
Apple ha decidido esperar unos meses más para la implementación de su herramienta para la detección y el combate de imágenes de abuso y explotación sexual en menores de edad; por medio de servicios de sistemas como iCloud. También ha declarado que va a introducir varios cambios previos a su lanzamiento.
Todo lo cual fue anunciado por la empresa tecnológica, por medio de un comunicado hecho a los medios de comunicación; en el que también señalaba que esperaba realizar mejoras en la herramienta antes de su definitivo lanzamiento.
La compañía tomó esta decisión luego de que varias organizaciones y expertos denunciaran que la aplicación iba a atentar contra los derechos de privacidad de las personas. Y que, además; la aplicación podría ser utilizada como un medio sesgado para espiar a los usuarios.
Apple retrasa la aplicación de detección de imágenes de abuso debido al feedback de sus clientes
La fabricante de iPhone afirma que se basó en el feedback de sus usuarios, de los investigadores, de los grupos de defensa y otros; para tomar la decisión de retrasar un poco el lanzamiento de la herramienta de detección de imágenes de abuso sexual a menores.
La empresa también declaró que se tomarán un tiempo para la recopilación de aportaciones y para llevar a cabo mejoras; antes del lanzamiento de estos servicios de prestación de seguridad infantil de altísima importancia.
Cuentas familiares iCloud con macOS Monterrey, iPadOS 15 y iOS 15
La empresa Apple, que tiene su sede en los Estados Unidos; pensaba lanzar la herramienta en las cuentas familiares de sus clientes de iCloud con macOS Monterrey, iPadOS 15 y iOS 15. Así lo había publicado la compañía a principios del pasado mes de agosto.
La nueva aplicación está dirigida a la protección de los menores frente a la amenaza de acosadores sexuales; que pudieran usar los programas de comunicación de Apple para acceder a los niños y explotarlos. Así como también para evitar la publicación y difusión de este tipo de contenido.
Esta tecnología, lo que haría específicamente seria permitir la detección de las imágenes de tipo abusivo en los menores que se encuentren almacenadas en iCloud sin tener que escanear las imágenes en la nube.
Lo que hace la aplicación; es basarse en una comparación en el equipo de las fotografías conocidas proporcionadas por instituciones de protección de seguridad infantil. Previo a que dichas imágenes sean montadas en iCloud. En realidad, no hará una comparación de la imagen en sí, lo que hará será una comparación de los hashes de las fotografías, es como una huella digital.
Se determina la coincidencia, pero no se revela el resultado
Para finalizar el proceso, un programa criptográfico denominado intersección de conjuntos privados, que es el que se encarga de determinar si existe una coincidencia, pero sin revelar el resultado. Y seguidamente, la coincidencia encontrada será adjuntada a la imagen una vez que esta ya se haya subido a la nube . Según la empresa tecnológica, este programa garantiza un altísimo nivel de coincidencia, y es en ese momento que Apple recibirá un mensaje de alerta para que las personas especialistas procedan a revisar la imagen.
Si es confirmado que se trata de una imagen de abuso infantil de carácter sexual; se procederá a desactivar la cuenta del cliente y se enviará inmediatamente un informe a las autoridades competentes y también a la policía.
De igual forma, por medio de una segunda herramienta tecnológica instalada en su aplicación de mensajería Messages; tanto los padres como los tutores de los menores, podrían recibir (si así los desean), una notificación las veces que el niño llegue a recibir una imagen de contenido sexual especifico. Sin embargo, esto ocurriría luego de que el menor reciba un mensaje de advertencia en el que se le informará acerca de que si decide ver la imagen inapropiada; sus padres o representantes serán notificados al respecto.