iPhone de Apple. (Imagen: Getty Images)
iPhone de Apple. (Imagen: Getty Images)
BBC News Mundo

anunció detalles de un sistema para detectar material de abuso sexual infantil en los dispositivos de sus clientes estadounidenses.

MIRA: Los celulares que no podrán usar YouTube y otras apps de Google desde setiembre

Antes de que una imagen se almacene en iCloud Photos, el sistema buscará similitudes entre las imágenes en el dispositivo y otras ya conocidas de abuso infantil.

Apple afirmó que si se encuentra una coincidencia, un revisor humano evaluará e informará sobre el usuario a la policía.

Sin embargo, el anuncio ha generado temores de que la tecnología pueda expandirse y permita escanear teléfonos en busca de otros materiales prohibidos, incluso contenidos políticos en dispositivos de disidentes.

Expertos en privacidad expresaron preocupación porque gobiernos autoritarios puedan utilizar esta tecnología para espiar a sus ciudadanos.

MIRA: ¿Perdió su celular? Así puede desvincular sus cuentas en el dispositivo

Nuevas aplicaciones

Apple anunció que las nuevas versiones de iOS y iPadOS, que se lanzarán a finales de este año, tendrán “nuevas aplicaciones de criptografía para ayudar a limitar la propagación de material de abuso sexual infantil en línea, teniendo en cuenta a la vez la privacidad de los usuarios”.

El sistema funciona comparando fotos con una base de datos de imágenes de abuso sexual infantil compiladas por el Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos (US National Center for Missing and Exploited Children o NCMEC) y otras organizaciones de protección infantil.

MIRA: TikTok prueba las Historias que desaparecen a las 24 horas

Esas imágenes se traducen en códigos numéricos que pueden “coincidir” con el de una imagen en un dispositivo Apple.

La compañía agregó que el sistema también capturará versiones editadas pero similares de imágenes originales.

Antes de que una imagen sea almacenada en iCloud, el sistema buscará coincidencias entre las imágenes en el dispositivo y otras ya conocidas de abuso infantil. (Foto: Getty Images)
Antes de que una imagen sea almacenada en iCloud, el sistema buscará coincidencias entre las imágenes en el dispositivo y otras ya conocidas de abuso infantil. (Foto: Getty Images)

“Alto nivel de precisión”

“Antes de que una imagen se almacene en iCloud, se cotejará esa imagen con los códigos numéricos de fotos de abuso infantil conocidas”, afirmó Apple.

La compañía señaló que el sistema tiene un “nivel extremadamente alto de precisión y garantiza menos de una en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada”.

Apple dijo que revisará manualmente cada informe para confirmar que hay una coincidencia.

MIRA: Modo oscuro en el celular: ¿ayuda a consumir menos batería? Un estudio cuantifica el ahorro que puede lograrse

Y luego podría deshabilitar la cuenta de un usuario e informar a las autoridades.

Apple aseguró que la nueva tecnología ofrece beneficios de privacidad “significativos” sobre los sistemas existentes, ya que la empresa solo analizará las fotos de los usuarios si éstos tienen una colección de imágenes de abuso sexual infantil conocidas en su cuenta de iCloud.

Sin embargo, algunos expertos en privacidad han expresado su preocupación.

“Independientemente de los planes a largo plazo de Apple, han enviado una señal muy clara. En su opinión (muy influyente), está bien construir sistemas que escaneen los teléfonos de los usuarios en busca de contenido prohibido”, afirmó Matthew Green, experto en criptografía de Universidad Johns Hopkins.

“No importa si tienen razón o no en ese punto. Esto equivale a ‘abrir las compuertas’; los gobiernos pedirán esta tecnología”.

VIDEO RECOMENDADO

¿Cómo será la vida con la 6G?
¿Cuánto tardaría descargar una película de en HD de 6GB con 6G? Descúbrelo en este video.

TE PUEDE INTERESAR

Síguenos en Twitter...



Contenido sugerido

Contenido GEC