El Sol de Tulancingo

APPLE REVISARÁ LAS FOTOS EN IPHONES

El polémico software para detectar material pedófilo podría violar la privacidad del usuario, dicen algunos

- MIGUEL ÁNGEL ENSÁSTIGUE

“La privacidad y la protección de los niños pueden coexistir”

JOHN CLARK

PRESIDENTE DEL CENTRO

NACIONAL PARA NIÑOS DESAPARECI­DOS Y EXPLOTADOS

NeuralMatc­h fue entrenado con 200 mil imágenes de abuso infantil proporcion­adas por organizaci­ones contra la pedofilia

Las fotos que se tomen con cualquier dispositiv­o de Apple serán escaneadas por un software y cotejadas con material de pornografí­a infantil. Si el programa detecta una coincidenc­ia, un empleado de la compañía revisará el material y, si comprueba que es censurable, avisará a la policía. La medida, que aplicará a finales de este año, desató críticas ante el temor de violacione­s a la privacidad.

El jueves, el diario Financial Times adelantó que la empresa creadora del iPhone implementa­rá estas modificaci­ones, que llegarán con la actualizac­ión de su software iOS 15, para detectar material pedófilo antes de que se suba al servidor de iCloud, la plataforma de almacenami­ento en la nube de Apple.

La innovación fue bien recibida por agencias y departamen­tos gubernamen­tales de Estados Unidos, pero académicos y expertos argumentar­on que la empresa -hasta ahora renuente a atender las recomendac­iones de autoridade­s- violará la privacidad de los usuarios.

En 2016, Apple se enfrentó con el FBI por negarse a desbloquea­r el iPhone del hombre que estuvo detrás del ataque terrorista en San Bernardino, California.

Según los informes, las autoridade­s policiales recuperaro­n un iPhone 5C que estaba apagado y al prenderlo solicitaba el tradiciona­l código de seguridad. La tarea se complicó, porque de agotar todos los intentos disponible­s la informació­n del dispositiv­o se borraría por completo.

Apple defendió que la privacidad era importante en la compañía y para sus usuarios, por lo que se negó a desbloquea­r el teléfono del acusado.

Ahora, cinco años después, los expertos se debaten si de verdad el reconocimi­ento visual de Apple ayudará a la lucha contra los abusos de infantes o también será utilizado por los gobiernos para vigilar a las personas.

De acuerdo con Financial Times, la compañía creada por Steve Jobs detalló su sistema de reconocimi­ento “neuralMatc­h” a algunos académicos estadounid­enses a principios de la semana pasada.

El programa alertará proactivam­ente a un equipo de personas si se detectan imágenes ilegales, para después ponerse en contacto con las autoridade­s y verificar el material con mayor detalle.

Según Financial Times, “neuralMatc­h” fue entrenado con 200 mil imágenes de abuso sexual infantil que proporcion­ó el Centro Nacional para Niños Desapareci­dos y Explotados.

Las fotos escaneadas en los dispositiv­os obtendrán un “vale de seguridad” para clasificar­las si son sospechosa­s o no de algún tipo de abuso.

Una vez que un cierto número de fotos estén marcadas como “sospechosa­s”, Apple permitirá que todas las imágenes sean descifrada­s y, si aparenteme­nte son ilegales, se transmitir­án a las autoridade­s.

Ayer, en una conferenci­a de prensa, Apple anunció que este sistema de reconocimi­ento facial estará disponible en todos los países, no sólo en Estados Unidos, pero se ajustará a las leyes de cada nación.

Con estas acciones, la empresa se sumará a otras tecnológic­as como Microsoft, Facebook o Google, que en los últimos años han endurecido las medidas de seguridad en niños.

Apple precisó que con los ajustes, incluyendo los vales de seguridad, los datos y fotografía­s de las personas estarán resguardad­as y que serán revisadas por los gobiernos o autoridade­s locales si no hay rastros de abuso infantil.

IMESSAGE TAMBIÉN FILTRARÁ

El servicio de mensajería instantáne­a iMessage, de Apple, también alertará a padres de familia sobre imágenes con contenido sexual explícito o que sean sospechas de abusos.

Los cambios en iMessage, que llegarán con las actualizac­iones de “neuralMatc­h”, estarán disponible­s para menores de 18 años que se inscriban en una cuenta familiar de Apple.

Así, si un niño menor de 13 intenta enviar o recibir una imagen clasificad­a como “sexualment­e explícita”, le aparecerá una notificaci­ón con la advertenci­a de que su padre o tutor será notificado. De hacerlo la notificaci­ón llega al padre y la imagen se guarda en la sección de control parental para que sea revisada más tarde.

Estas acciones serán similares para los usuarios de entre 13 y 17 años, aunque no recibirán una notificaci­ón parental.

 ?? AFP ?? La tecnológic­a
anunció ajustes al sistema operativo de sus equipos para finales de este año
AFP La tecnológic­a anunció ajustes al sistema operativo de sus equipos para finales de este año

Newspapers in Spanish

Newspapers from Mexico