CDMX.- Apple se sube al carro de la vigilancia de contenidos. La compañía de Cupertino ha anunciado que a finales de este año pondrá en marcha en Estados Unidos un sistema que revisará automáticamente las imágenes subidas desde iPhones e iPads en busca de contenidos pederastas (CSAM, child sexual abuse material).
Se suma así a lo que ya venía haciendo Google, que también escanea las fotos y vídeos que se suben en su nube (Google Drive) para detectar ese tipo de archivos.
El anuncio, avanzado ayer por el Financial Times, se produce tan solo un mes después de que el Parlamento de la Unión Europea aprobara suspender temporalmente la Directiva de la privacidad online precisamente para que las operadoras tengan el paraguas legal necesario para combatir la difusión de pornografía infantil. En Estados Unidos, el Centro Nacional para Menores Desaparecidos y Explotados (National Center for Missing and Exploited Children, NCMEC) hace tiempo que solicita la cooperación de las tecnológicas para perseguir a los pedófilos.
La decisión de Apple ha sentado como un jarro de agua fría a los activistas en defensa de la privacidad digital. El temor de fondo es que, una vez abierta la puerta a la revisión de contenidos privados de los teléfonos para detectar a potenciales criminales, se pueda extender ese escrutinio a otros objetivos bajo argumentos variopintos.
Apple se ha esforzado en explicar que el método que ha diseñado para vigilar los contenidos interfiere poco en la privacidad de los usuarios. El procedimiento es el siguiente: cada vez que una foto tomada desde un dispositivo Apple se sube a la nube (iCloud), se cruza automáticamente su hash (una especie de matrícula de los archivos comprimidos) con el de una lista de contenidos ya identificados como pedófilos. Si salta una coincidencia, se lanza un aviso a Apple y un empleado revisará los archivos para comprobar si son o no censurables. En caso afirmativo, se suspende la cuenta de Apple del usuario y se avisa a las autoridades.