Apple escaneará iPhones en busca de fotografías de abuso infantil

Apple

Apple reveló sus planes para escanear los iPhones de Estados Unidos en pos de imágenes de abuso sexual infantil, lo que produjo aprobación de los grupos de protección de los niños, pero preocupación de ciertos estudiosos en seguridad por la oportunidad de que el sistema se utilice de forma incorrecta.

La herramienta desarrollada para advertir imágenes previamente identificadas de abusos sexuales a menores, llamada “neuralMatch”, escaneará las imágenes antes que sean subidas a iCloud.

Si halla una coincidencia, la imagen va a ser revisada por un individuo. Si se asegura la existencia de pornografía infantil, se inhabilitará la cuenta del usuario y se notificará al Centro Nacional para Pequeños Desaparecidos y Explotados.

El sistema sólo marcará las imágenes que ya estén registradas en la banco de información de pornografía infantil del centro. Los progenitores que tomen fotos inocentes de un niño en la bañera no deben preocuparse.

Sin embargo, los estudiosos aseguran que esta herramienta de cotejo —que no “ve” esas imágenes, sino las “huellas” matemáticas que las representan— podría tener usos más deplorables.

Matthew Green, uno de los principales investigadores de criptografía de la Universidad Johns Hopkins, advirtió que el sistema podría utilizarse para inculpar a personas inocentes enviándoles imágenes en fachada inofensivas diseñadas para ocasionar coincidencias con la pornografía infantil.

Eso podría mentir al algoritmo de Apple y alertar a las autoridades. “Los expertos tienen la capacidad de llevarlo a cabo con bastante facilidad”, ha dicho.

Otros abusos de la herramienta podrían incluir el espionaje gubernamental a disidentes o manifestantes. ”¿Qué ocurre en el momento en que el gobierno chino afirma: `Aquí hay una lista de archivos que deseamos que escanees’?”, preguntó Green.

”¿Apple dice que no? Espero que afirme que no, pero su tecnología no afirmará que no”. Compañías tecnológicas como Microsoft, Google+, Fb y otras llevan años compartiendo “huellas digitales” de imágenes previamente identificadas de abusos sexuales a menores.

Apple las ha utilizado para escanear los archivos que los individuos guardan en su servicio iCloud, que no está tan encriptado como los datos de sus dispositivos, en busca de pornografía infantil.

La compañía ha estado bajo presión del gobierno a fin de que permita una mayor supervisión de los datos cifrados.

La creación de las novedosas cuestiones de inseguridad le pide a Apple un acto de equilibrismo entre la lucha contra el abuso infantil y el sostener su compromiso de proteger la privacidad de sus clientes.

Pero la Electronic Frontier Foundation, vanguardista de las libertades civiles en internet, calificó la medida de Apple en cuanto a las protecciones de la intimidad como “un deslumbrante cambio de rumbo para los clientes que han confiado en el liderazgo de la compañía en materia de privacidad y seguridad”.

Por su lado, el informático que hace más de una década inventó PhotoDNA, la tecnología usada por agencias policiales para identificar la pornografía infantil en la red, reconoció la posibilidad de que se dé un mal uso al sistema de Apple, pero dijo que queda superado con creces por el imperativo de combatir contra los abusos sexuales a inferiores. ?¿Es posible? Evidentemente.

Pero ¿es algo que me preocupa? No”, ha dicho Hany Farid, un estudioso de la Facultad de California campus Berkeley que mantiene que un óptimo número de otros programas diseñados para resguardar los dispositivos de diversas amenazas no han visto “este tipo de misiones.”

Por ejemplo, WhatsApp proporciona a los clientes un encriptado de extremo a radical para resguardar su intimidad, pero también emplea un sistema para advertir el malware y avisar a los clientes de que no hagan clic en enlaces maliciosos.

Apple fue entre las primeras empresas en adoptar el cifrado “de extremo a extremo”, en el que los mensajes se codifican a fin de que sólo logren leerlos sus expedidores y receptores.

Pero las autoridades llevan tiempo presionando para que se les deje entrar a esa información con la intención de investigar delitos como el terrorismo o la explotación sexual infantil.

Según Apple, los últimos cambios se implementarán este año como una parte de las actualizaciones de su software operativo para los iPhones, Macs y Apple Watches.

“La ampliación de la protección de Apple para los niños es un aspecto de cambio”, ha dicho en un aviso John Clark, presidente y directivo general del Centro Nacional para Niños Desaparecidos y Explotados.

“Con tanta gente que utiliza artículos de Apple, estas novedosas medidas de seguridad tienen el potencial para salvar la vida de los pequeños”. La directora general de Thorn, Julia Cordua, dijo que la tecnología de Apple equilibra “la necesidad de intimidad con la seguridad digital de los pequeños”.

Thorn, una organización sin ánimo de lucrar fundada por Demi Moore y Ashton Kutcher, emplea la tecnología para ayudar a resguardar a los niños de los abusos sexuales al detectar víctimas y colaborando con las interfaces tecnológicas.

Pero en una dura crítica, la organización sin ánimo de lucrar Centro para la Democracia y la Tecnología (CDT), con sede en Washington, pidió a Apple que renuncie de los cambios, los que, según dijo, destruyen la garantía de la empresa de “encriptación de extremo a extremo”.

El escaneo de los mensajes en busca de contenido sexualmente explícito en los teléfonos u ordenadores destruye la seguridad en la práctica, ha dicho. La organización asimismo puso en duda la tecnología de Apple para distinguir entre el contenido peligroso y algo tan inocuo como el arte o un meme.

Semejantes tecnologías son muy dispuestas a los fallos, ha dicho el CDT en un comunicado enviado por correo electrónico.

Apple niega que los cambios supongan una puerta posterior que degrade su cifrado. Alega que hablamos de creaciones muy estudiadas que no perturban la privacidad del usuario, sino la protegen con solidez.

Adicionalmente, Apple dijo que su app de correo usará la educación automático en el dispositivo para detectar y difuminar las fotos sexualmente explícitas en los teléfonos de los niños, y asimismo podrá advertir a los padres de los más pequeños a través de sms.

Asimismo dijo que su software “intervendrá” en el momento en que los individuos intenten buscar temas relacionados con el abuso sexual infantil. Para recibir las observaciones sobre imágenes con contenido sexual en los dispositivos de sus hijos, los progenitores deberán inscribir el teléfono de su hijo.

Los mayores de 13 años pueden anular la inscripción, lo que quiere decir que los padres de los jovenes no recibirán las alertas. Apple mencionó que ninguna de ámbas funciones comprometería la seguridad de las comunicaciones privadas ni notificaría a la policía.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir