Qué es PhotoDNA y cómo funciona

Articulos tematica Microsoft

¿Cómo monitorean las empresas el abuso infantil? Empresas como Facebook utilizan PhotoDNA para mantener la privacidad del usuario mientras escanean imágenes y videos abusivos.

Internet ha facilitado muchas cosas, desde mantenerse en contacto con amigos y familiares hasta conseguir un trabajo e incluso trabajar de forma remota. Los beneficios de este sistema conectado de computadoras son inmensos, pero también hay una desventaja.

A diferencia de los estados-nación, Internet es una red global que ningún gobierno o autoridad puede controlar por sí solo. En consecuencia, el material ilegal termina en línea y es increíblemente difícil evitar que los niños sufran y atrapar a los responsables.

Sin embargo, una tecnología desarrollada conjuntamente por Microsoft llamada PhotoDNA es un paso hacia la creación de un espacio en línea más seguro para niños y adultos por igual.

¿Qué es PhotoDNA?

PhotoDNA es una herramienta de identificación de imágenes, desarrollada por primera vez en 2009. Aunque principalmente es un servicio respaldado por Microsoft, fue co-desarrollado por el profesor Hany Farid de Dartmouth College, un experto en análisis de fotografías digitales. El propósito de PhotoDNA es identificar imágenes ilegales, incluido el material de abuso sexual infantil, comúnmente conocido como CSAM.

A medida que los teléfonos inteligentes, las cámaras digitales y el Internet de alta velocidad se han vuelto más comunes, también lo ha hecho la cantidad de CSAM que se encuentra en línea. En un intento por identificar y eliminar estas imágenes, junto con otro material ilegal, la base de datos PhotoDNA contiene millones de entradas de imágenes conocidas de abuso.

Microsoft opera el sistema y la base de datos es mantenida por el Centro Nacional para Menores Desaparecidos y Explotados (NCMEC), con sede en EE. UU., Una organización dedicada a prevenir el abuso infantil. Las imágenes llegan a la base de datos una vez que se han informado al NCMEC.

Aunque no es el único servicio para buscar CSAM conocido, PhotoDNA es uno de los métodos más comunes, incluidos muchos servicios digitales como Reddit, Twitter y la mayoría de los productos propiedad de Google.

PhotoDNA tuvo que configurarse físicamente en las instalaciones en los primeros días, pero Microsoft ahora opera el servicio PhotoDNA Cloud basado en la nube. Esto permite que las organizaciones más pequeñas sin una amplia infraestructura realicen la detección de CSAM.

¿Cómo funciona PhotoDNA?

Cuando los usuarios de Internet o las fuerzas del orden se encuentran con imágenes de abuso, se informa al NCMEC a través de CyberTipline . Estos están catalogados y la información se comparte con las fuerzas del orden si aún no lo estaba. Las imágenes se cargan en PhotoDNA, que luego se dedica a crear un hash, o firma digital, para cada imagen individual.

Para llegar a este valor único, la foto se convierte a blanco y negro, se divide en cuadrados y el software analiza el sombreado resultante. El hash único se agrega a la base de datos de PhotoDNA, compartido entre las instalaciones físicas y PhotoDNA Cloud.

Los proveedores de software, las fuerzas del orden y otras organizaciones de confianza pueden implementar el escaneo PhotoDNA en sus productos, software en la nube u otros medios de almacenamiento. El sistema escanea cada imagen, la convierte en un valor hash y la compara con los hash de la base de datos CSAM.

Si se encuentra una coincidencia, se alerta a la organización responsable y los detalles se transmiten a la policía para su enjuiciamiento. Las imágenes se eliminan del servicio y la cuenta del usuario se cancela.

Es importante destacar que no se almacena información sobre sus fotos, el servicio está completamente automatizado sin participación humana y no puede recrear una imagen a partir de un valor hash.

Desde 2015, las organizaciones también han podido usar PhotoDNA para analizar videos.

En agosto de 2021, Apple rompió el paso con la mayoría de las otras firmas de Big Tech y anunció que usarían su propio servicio para escanear los iPhones de los usuarios en busca de CSAM .

Es comprensible que estos planes recibieran una reacción considerable por parecer que violaban la postura amigable con la privacidad de la compañía, y muchas personas se preocuparon de que el escaneo incluiría gradualmente no CSAM, lo que eventualmente conduciría a una puerta trasera para la aplicación de la ley.

¿PhotoDNA utiliza el reconocimiento facial?

En estos días, estamos lo suficientemente familiarizados con los algoritmos. Estas instrucciones codificadas nos muestran publicaciones relevantes e interesantes en nuestras redes sociales, respaldan los sistemas de reconocimiento facial e incluso deciden si nos ofrecen una entrevista de trabajo o ingresar a la universidad.

Podría pensar que los algoritmos serían el núcleo de PhotoDNA, pero automatizar la detección de imágenes de esta manera sería muy problemático. Por ejemplo, sería increíblemente invasivo, violaría nuestra privacidad y eso sin mencionar que los algoritmos no siempre son correctos.

Google, por ejemplo, ha tenido problemas bien documentados con su software de reconocimiento facial. Cuando Google Photos se lanzó por primera vez, categorizó de manera ofensiva a los negros como gorilas. En marzo de 2017, un comité de supervisión de la Cámara de Representantes escuchó que algunos algoritmos de reconocimiento facial estaban equivocados el 15 por ciento de las veces y era más probable que identificaran erróneamente a las personas negras.

Estos tipos de algoritmos de aprendizaje automático son cada vez más comunes, pero pueden ser difíciles de monitorear adecuadamente. Efectivamente, el software toma sus propias decisiones y usted tiene que aplicar ingeniería inversa a cómo llegó a un resultado específico.

Es comprensible que, dado el tipo de contenido que busca PhotoDNA, el efecto de una identificación errónea podría ser catastrófico. Afortunadamente, el sistema no se basa en el reconocimiento facial y solo puede encontrar imágenes identificadas previamente con un hash conocido.

¿Facebook utiliza PhotoDNA?

Como propietario y operador de las redes sociales más grandes y populares del mundo, Facebook se ocupa de una gran cantidad de contenido generado por los usuarios todos los días. Aunque es difícil encontrar estimaciones fiables y actuales, el análisis de 2013 sugirió que cada día se suben a Facebook unos 350 millones de imágenes.

Es probable que esto sea mucho más alto ahora, ya que más personas se han unido al servicio, la compañía opera múltiples redes (incluidas Instagram y WhatsApp) y tenemos un acceso más fácil a las cámaras de los teléfonos inteligentes e Internet confiable. Dado su papel en la sociedad, Facebook debe reducir y eliminar CSAM y otro material ilegal.

Afortunadamente, la compañía abordó esto desde el principio, optando por el servicio PhotoDNA de Microsoft en 2011. Desde el anuncio hace más de una década, ha habido pocos datos sobre cuán efectivo ha sido esto. Sin embargo, el 91 por ciento de todos los informes de CSAM en 2018 fueron de Facebook y Facebook Messenger.

¿PhotoDNA hace que Internet sea más seguro?

El servicio desarrollado por Microsoft es sin duda una herramienta imprescindible. PhotoDNA juega un papel crucial en la prevención de la propagación de estas imágenes e incluso puede ayudar a ayudar a los niños en riesgo.

Sin embargo, el principal defecto del sistema es que solo puede buscar imágenes identificadas previamente. Si PhotoDNA no tiene un hash almacenado, entonces no puede identificar imágenes abusivas.

Es más fácil que nunca tomar y cargar imágenes de abuso de alta resolución en línea, y los abusadores están recurriendo cada vez más a plataformas más seguras como Dark Web y aplicaciones de mensajería encriptada para compartir el material ilegal. Si no se ha encontrado con la Dark Web antes, vale la pena leer sobre los riesgos asociados con el lado oculto de Internet.

Fecha actualización el 2021-09-13. Fecha publicación el 2021-09-13. Categoria: computadoras Autor: Oscar olg Mapa del sitio Fuente: makeuseof