Trabajadores contratados de Facebook miran tus publicaciones privadas

facebook

Un nuevo informe de Reuters ha revelado cómo los trabajadores por contrato de Facebook e Instagram están viendo tus publicaciones privadas para ayudar a las plataformas de redes sociales a capacitar a sus sistemas de inteligencia artificial.

Reuters sugiere que los contratistas están anotando las publicaciones basándose en cinco “dimensiones” : el contenido de la publicación (selfie, comida, puntos de referencia), la ocasión de la publicación (evento de la vida, actividad), elementos expresivos (opinión, sentimientos), intención del autor ( para planificar un evento, hacer una broma, inspirar a otros) y el entorno de la publicación (hogar, escuela, trabajo, al aire libre).

El contenido que se captura también incluye capturas de pantalla y publicaciones con comentarios, en ocasiones incluso con nombres de usuarios y otra información confidencial.

Para revisar esas publicaciones, Facebook solicitó ayuda a la compañía de subcontratación india Wipro, y reclutó a 260 de sus empleados para anotar las actualizaciones de estado de Facebook y las publicaciones de Instagram.

Según el informe, Wipro y el gigante de los medios sociales han estado trabajando juntos desde 2014.

A medida que las empresas de tecnología cambian cada vez más al aprendizaje automático y la inteligencia artificial para atender de manera proactiva las necesidades de sus clientes, existe un incentivo adicional para comprender mejor los diferentes tipos de contenido cargados en sus plataformas.

Los algoritmos de AI no solo son conocidos por su sed de big data, sino también por su incapacidad para comprender las complejidades del lenguaje humano y una variedad de tareas de reconocimiento .

Por ejemplo, si bien es fácil para nosotros entender que tanto “Nueva York” como “Nueva York” se refieren al mismo lugar, los algoritmos de AI pueden interpretarlos como dos términos separados, a menos que se indique explícitamente que no.

La tarea solo se vuelve más compleja cuando el algoritmo debe tener en cuenta diferentes idiomas y un rango de contenido como fotos, videos y enlaces.

Aquí es donde entra la anotación de datos. El etiquetado de contenido proporciona información adicional sobre la muestra de datos. Esto, a su vez, mejora la efectividad de los algoritmos de aprendizaje automático, ya sea procesamiento de lenguaje natural, traducción automática o reconocimiento de imagen, objeto y voz.

Al permitir que los revisores humanos etiqueten la información asociada, anotar "NYC" como la ciudad "New York City" en lugar de algo sin sentido y aleatorio, este enfoque de aprendizaje supervisado garantiza que el sistema pueda comprender mejor sus solicitudes y mejorar el servicio para todos.

La práctica no es necesariamente nefasta. El mes pasado, Bloomberg.escribió sobre cómo miles de empleados de Amazon escuchan las grabaciones de voz capturadas en los altavoces Echo , transcribiéndolos y anotándolos para mejorar el asistente digital de Alexa que alimenta a los altavoces inteligentes.

Pero dado que la tecnología de AI continúa estableciendo un punto de referencia más generalizado en nuestra vida cotidiana, la falta de transparencia en su política de privacidad genera preocupaciones importantes, especialmente teniendo en cuenta que la mayoría de los usuarios desconocen la existencia de dichos algoritmos.

Aún más importante, a los usuarios no se les da la opción de optar por estos esfuerzos de etiquetado de datos, lo que plantea mayores preguntas sobre el consentimiento del usuario. Otro problema es que casi no se menciona por qué (y por cuánto tiempo) se pueden almacenar dichos datos, y si existe algún peligro de uso indebido por parte de los empleados.

Facebook dice que tiene 200 proyectos de etiquetado de contenido en todo el mundo, que emplean a miles de personas en total. Reuters también citó a un empleado anónimo que trabaja para Cognizant Technology Solutions Corp, quien dijo que "él y al menos 500 colegas buscan temas delicados o lenguaje profano en los videos de Facebook".

En febrero, Casge Newton , de The Verge, publicó un informe de investigación, en el que se detallaba el agobiante problema que los trabajadores contratados con la moderación de contenido en Facebook tienen que tratar diariamente.

Después de ver cientos de videos que muestran temas de gran importancia emocional (a veces contenido violento, a veces pornografía) en la plataforma de redes sociales, algunos empleados de Cognizant desarrollaron síntomas parecidos a PTSD en el trabajo.

Facebook, por su parte, ha confirmado los detalles del informe, agregando que sus equipos legales y de privacidad aprueban todos los esfuerzos de etiquetado de datos. Además, agregó que recientemente introdujo un sistema de auditoría "para garantizar que se cumplan las expectativas de privacidad y que los parámetros establecidos funcionen como se esperaba".

Dado que la red social ya enfrenta una serie de desafíos regulatorios en todo el mundo por sus errores de privacidad relacionados con los datos de los usuarios, el momento no podría haber sido más desafortunado.

Fecha actualización el 2021-05-06. Fecha publicación el 2019-05-06. Categoría: facebook Autor: Oscar olg Mapa del sitio Fuente: thenextweb Version movil