Esta semana, Apple Inc., presentó una iniciativa para escanear los iPhones de Estados Unidos para localizar posibles archivos de imágenes, vídeo u otros, relacionados con el abuso sexual infantil. Aunque este plan ha sido bien recibido por grupos de protección infantil, pero ha encendido las alarmas en algunos investigadores en seguridad por la posibilidad que sea un plan de los gobiernos para espiar a sus ciudadanos.
La aplicación de mensajes de Apple empleará un sistema de Inteligencia Artificial (IA) de aprendizaje automático, especialmente desarrollado para detectar contenido sensible en las conversaciones privadas y así advertir a la empresa. NeuralMatch detectará imágenes relacionadas con el abuso sexual infantil sin evidenciar los mensajes del usuario.
NeuralMatch se encargará de escanear las imágenes antes de que se carguen en el almacenamiento en línea de iCloud Photos de la compañía, comparándolas con una base de datos de imágenes conocidas de abuso infantil. En caso se se marque alguna imagen por una fuerte coincidencia, entonces el personal de Apple será capaz de revisar manualmente las imágenes reportadas, y, si se confirma el abuso infantil, la cuenta del usuario será desactivada.
Una vez que se haya suspendida la cuenta de iCloud, se reportará ese usuario al National Center for Missing and Exploited Children (NCMEC), «Centro Nacional para Menores Desaparecidos y Niños Explotados» y a las autoridades, para que se encarguen de las acciones subsiguientes.
No obstante, aunque en la teoría es una gran iniciativa, algunos investigadores lo encuentran perturbador, pues consideran que la herramienta podría utilizarse para vigilar a personas seguidas por el gobierno como disidentes o manifestantes. De hecho, el investigador en criptografía de la Johns Hopkins University (JHU), «Universidad Johns Hopkins«, Matthew Green, teme un uso que pueda poner en riesgo a ciertas personas.
Green teme que la herramienta sea utilizada para inculpar a personas inocentes enviándoles imágenes comprometedoras, que automáticamente puedan ser relacionadas con pornografía infantil. El algoritmo de Apple entraría en función y facilitaría a las autoridades detener a la persona, sin una investigación previa y un análisis del origen de la foto.
″Esto es algo que se puede hacer. Los expertos son capaces de hacerlo con bastante facilidad″, aseguró Green. Otras compañías tecnológicas como Microsoft, Google, Facebook y otras llevan años compartiendo ″listas de hash″ -estructuras de datos basadas en un valor- de imágenes de abuso sexual a menores. De igual forma, Apple ha analizado los archivos de usuarios en iCloud debido a que no están tan encriptados como sus mensajes.
La compañía lleva años bajo la presión del gobierno para permitir el acceso a la información de sus usuarios, situación que le genera un conflicto entre velar por la privacidad de sus clientes y el combate contra el abuso sexual infantil.
Apple ha conseguido crear esta herramienta con tecnología desarrollada en colaboración con criptógrafos de renombre, como el profesor de la Stanford University, «Universidad de Stanford«, Dan Boneh, cuyo trabajo en esta área ha sido reconocido con el premio Turing, considerado como la versión tecnológica del premio Nobel.
Por su parte, John Clark, presidente y director general del NCMEC, dijo en un comunicado que ″la ampliación de la protección de Apple a los niños es un factor de cambio″. ″Con tanta gente que utiliza productos de Apple, estas nuevas medidas de seguridad tienen el potencial de salvar vidas para los niños que están siendo engañados en línea, y cuyas horribles imágenes son compartidas″, agregó Clark.
En todo caso no queda claro, si NeuralMatch también se utilizará en otros dispositivos de la marca, que también almacenan sus fotos y videos en iCloud.
© 2020-2021 BlockTrendy.com | Breaking News & Top Stories, Latest World News, Viral stories, Technology, Blockchain and more! – Para leer más sobre nuestros principios y prácticas periodísticas ingrese aquí.
0 Comments