APPLE REVISARÁ LAS FOTOS EN IPHONES
El polémico software para detectar material pedófilo podría violar la privacidad del usuario, dicen algunos
“La privacidad y la protección de los niños pueden coexistir”
JOHN CLARK
PRESIDENTE DEL CENTRO
NACIONAL PARA NIÑOS DESAPARECIDOS Y EXPLOTADOS
NeuralMatch fue entrenado con 200 mil imágenes de abuso infantil proporcionadas por organizaciones contra la pedofilia
Las fotos que se tomen con cualquier dispositivo de Apple serán escaneadas por un software y cotejadas con material de pornografía infantil. Si el programa detecta una coincidencia, un empleado de la compañía revisará el material y, si comprueba que es censurable, avisará a la policía. La medida, que aplicará a finales de este año, desató críticas ante el temor de violaciones a la privacidad.
El jueves, el diario Financial Times adelantó que la empresa creadora del iPhone implementará estas modificaciones, que llegarán con la actualización de su software iOS 15, para detectar material pedófilo antes de que se suba al servidor de iCloud, la plataforma de almacenamiento en la nube de Apple.
La innovación fue bien recibida por agencias y departamentos gubernamentales de Estados Unidos, pero académicos y expertos argumentaron que la empresa -hasta ahora renuente a atender las recomendaciones de autoridades- violará la privacidad de los usuarios.
En 2016, Apple se enfrentó con el FBI por negarse a desbloquear el iPhone del hombre que estuvo detrás del ataque terrorista en San Bernardino, California.
Según los informes, las autoridades policiales recuperaron un iPhone 5C que estaba apagado y al prenderlo solicitaba el tradicional código de seguridad. La tarea se complicó, porque de agotar todos los intentos disponibles la información del dispositivo se borraría por completo.
Apple defendió que la privacidad era importante en la compañía y para sus usuarios, por lo que se negó a desbloquear el teléfono del acusado.
Ahora, cinco años después, los expertos se debaten si de verdad el reconocimiento visual de Apple ayudará a la lucha contra los abusos de infantes o también será utilizado por los gobiernos para vigilar a las personas.
De acuerdo con Financial Times, la compañía creada por Steve Jobs detalló su sistema de reconocimiento “neuralMatch” a algunos académicos estadounidenses a principios de la semana pasada.
El programa alertará proactivamente a un equipo de personas si se detectan imágenes ilegales, para después ponerse en contacto con las autoridades y verificar el material con mayor detalle.
Según Financial Times, “neuralMatch” fue entrenado con 200 mil imágenes de abuso sexual infantil que proporcionó el Centro Nacional para Niños Desaparecidos y Explotados.
Las fotos escaneadas en los dispositivos obtendrán un “vale de seguridad” para clasificarlas si son sospechosas o no de algún tipo de abuso.
Una vez que un cierto número de fotos estén marcadas como “sospechosas”, Apple permitirá que todas las imágenes sean descifradas y, si aparentemente son ilegales, se transmitirán a las autoridades.
Ayer, en una conferencia de prensa, Apple anunció que este sistema de reconocimiento facial estará disponible en todos los países, no sólo en Estados Unidos, pero se ajustará a las leyes de cada nación.
Con estas acciones, la empresa se sumará a otras tecnológicas como Microsoft, Facebook o Google, que en los últimos años han endurecido las medidas de seguridad en niños.
Apple precisó que con los ajustes, incluyendo los vales de seguridad, los datos y fotografías de las personas estarán resguardadas y que serán revisadas por los gobiernos o autoridades locales si no hay rastros de abuso infantil.
IMESSAGE TAMBIÉN FILTRARÁ
El servicio de mensajería instantánea iMessage, de Apple, también alertará a padres de familia sobre imágenes con contenido sexual explícito o que sean sospechas de abusos.
Los cambios en iMessage, que llegarán con las actualizaciones de “neuralMatch”, estarán disponibles para menores de 18 años que se inscriban en una cuenta familiar de Apple.
Así, si un niño menor de 13 intenta enviar o recibir una imagen clasificada como “sexualmente explícita”, le aparecerá una notificación con la advertencia de que su padre o tutor será notificado. De hacerlo la notificación llega al padre y la imagen se guarda en la sección de control parental para que sea revisada más tarde.
Estas acciones serán similares para los usuarios de entre 13 y 17 años, aunque no recibirán una notificación parental.