Como mantener a los depredadores infantiles fuera de areas de juego virtuales como Fortnite

Como mantener a los depredadores infantiles fuera de areas de juego virtuales como Fortnite

Juegos Nline que son muy populares con los niños, al igual que Fortnite, Minecraft y Roblox se han convertido en zonas de caza para los pedófilos

Informes recientes sugieren que al menos miles, y tal vez mucho más que eso, los niños están siendo acicalados, engañados, engañados, intimidados o chantajeados para que envíen imágenes sexuales de sí mismos o de otros a los depredadores que rastrean plataformas de juegos y aplicaciones de chat como Discord para las víctimas

Si bien a menudo hay un elemento de pánico moral en juego cuando una nueva tendencia o tecnología mal entendida por los adultos se identifica como una amenaza para los niños, una investigación realizada por el New York Times dejó en claro que el problema es real, generalizado y está creciendo. Si todavía es escéptico, un relato de primera mano de lo que es cazar depredadores de un empleado de Bark , una startup que desarrolla controles parentales para aplicaciones en línea, ilustra cuán generalizado es el problema en las redes sociales y las plataformas de mensajería. Es imposible que un padre lea estas historias sin alarmarse por la seguridad y el bienestar de los niños en el mundo de los juegos en línea.

Sin embargo, lo que el informe hasta ahora no ha dejado completamente claro es qué se puede hacer sobre la amenaza. La mayoría de las compañías mencionadas en la historia del Times , incluidas Roblox, Discord, Sony (fabricante de Playstation) y Microsoft (fabricante de Xbox y Minecraft , entre otras), señalaron al menos algunas medidas que han implementado para proteger a los usuarios menores de edad. , pero pocos pudieron demostrar un éxito significativo. Casi todos los enfoques discutidos tenían defectos obvios. Y Epic Games, fabricante de Fortnite , ni siquiera respondió a las solicitudes de comentarios, ya sea del Times o OneZero . Supercell, fabricante de Choque de clanes , tampoco respondió a OneZero .

Los expertos en moderación de contenido, explotación sexual en línea y derecho de Internet le dijeron a OneZero que hay esperanza para abordar el problema de manera significativa. Simplemente no será fácil, y algunos argumentan que no sucederá sin cambios en la ley fundamental que protege a las plataformas en línea de muchas formas de responsabilidad.

Parte de lo que hace que vigilar los juegos sea tan complicado es que la interacción entre depredadores y niños rara vez permanece en las plataformas de juego. A menudo, los depredadores encuentran y forman una relación con los niños en un sitio de juegos, solo para pasar a aplicaciones de chat más privadas como Facebook Messenger o Kik para intercambiar imágenes sexuales y chantajearlas. Sarah Roberts, profesora asistente de estudios de información en la UCLA, comparó los chats de juegos no moderados con "un patio de juegos virtual con pelos de punta", y no hay padres presentes.

Puede imaginar múltiples enfoques para proteger tal lugar. Una sería traer adultos responsables para vigilarlo, es decir, moderación. Otra sería instalar cámaras de vigilancia, proporcionando supervisión a través de la automatización. Un tercer enfoque implicaría verificar las identidades o edades de todos los que ingresan al patio de recreo, una categoría que llamaré verificación. Un cuarto sería asegurarse de que todos los padres y los niños de la comunidad conozcan los riesgos del patio de recreo y ayudarlos a navegar de manera más segura, es decir, la educación. Finalmente, la sociedad podría introducir leyes que restrinjan tales parques infantiles, o responsabilizar a sus creadores por lo que sucede en ellos: la regulación.

Si solo hubiera un patio de juegos virtual, podría haber una sola respuesta correcta. Pero hay muchos, y sus características son distintas, por lo que es imposible diseñar una política efectiva única. "No veo una gran solución técnica", dijo Kat Lo, experta en moderación en línea y líder del proyecto para el Proyecto de Moderación de Contenido en la organización sin fines de lucro Meedan , que desarrolla herramientas de código abierto para periodistas y organizaciones sin fines de lucro.

Eso no significa que la situación sea desesperada. "Me siento más optimista sobre lo que se siente como un enfoque poco sistemático", agregó Lo. Las soluciones que sugirieron ella, Roberts y otros expertos se pueden dividir aproximadamente en las cinco categorías que describí anteriormente.

Moderación

Quizás la forma más obvia de vigilar un espacio digital es llevar a cabo la supervisión humana , ya sea sustituyendo a los usuarios como moderadores (como lo hace Reddit) o ​​contratando contratistas o empleados para hacer el trabajo. Pero poner a un empleado en cada chat es costoso para las empresas tecnológicas cuyos negocios se basan en software y escala, y para los usuarios que quieren hablar o coordinar su juego sin un monitor de sala mirando por encima de sus hombros.

La moderación tampoco tiene mucho sentido en el contexto de plataformas específicamente creadas para mensajes privados. Muchos juegos en línea multijugador masivo, como World of Warcraft de Blizzard , ofrecen a los jugadores la posibilidad de enviar mensajes privados a cualquier otro jugador en cualquier momento a través de una función llamada "susurro". Fortnite de Epic Games te permite enviar mensajes privados a los jugadores en tu lista de amigos, y ofrece chats de texto y voz en grupos pequeños. Roberts sugirió que tales plataformas "se muevan hacia un modelo de mensajes menos privados y mensajes más orientados al grupo", con monitoreo por parte de los administradores de la comunidad. Si bien el acceso a espacios privados es importante para el desarrollo de los niños, dijo, no hay razón para que las plataformas de juego necesiten estar entre estos espacios.

Por supuesto, la moderación está lejos de ser una solución perfecta. Simplemente pregúntele a Facebook, cuyos moderadores contratados soportan condiciones de trabajo difíciles y luchan por aplicar sus reglas de manera consistente. También existe el riesgo de que limitar la mensajería privada en una plataforma de juegos como Minecraft simplemente empuje a los usuarios a una plataforma aún más privada para chatear, como Discord. Pero dado que no existe una solución perfecta, más moderación en los chats de juegos sería un buen comienzo, suponiendo que pueda lograr que las plataformas lo hagan. (Llegaremos a ese desafío más abajo).

También existe la opción de limitar o eliminar las funciones de chat. Hearthstone , un juego de Blizzard lanzado en 2014, permite a los jugadores comunicarse con oponentes compatibles solo a través de un menú de mensajes preestablecidos. La compañía le dijo al sitio de juegos Polygon en ese momento que el objetivo era " mantener a Hearthstone sintiéndose divertido, seguro y atractivo para todos ".

Automatización

Fortnite tiene unos 250 millones de jugadores registrados , de los cuales más de un millón pueden estar en línea en cualquier momento. La escala en cualquier momento es parte del problema, en este caso porque hay demasiadas personas jugando juegos multijugador masivos en línea a la vez para que los humanos velen todo lo que se dicen: vale la pena al menos considerar si la automatización podría ser parte de la solución . Y resulta que la automatización ya es parte de la solución, en algunos entornos. Es simplemente superado.

Desde 2009, Microsoft lanzó una herramienta gratuita llamada PhotoDNA que escanea imágenes fijas para encontrar coincidencias con ejemplos conocidos de pornografía infantil, y ha sido ampliamente utilizada por otras compañías desde entonces. El año pasado, amplió la herramienta para incluir video . Y la semana pasada, la compañía anunció que lanzará una nueva tecnología llamada Proyecto Artemis que utiliza el aprendizaje automático para escanear conversaciones en línea en busca de indicadores de aseo infantil y marcar las sospechosas para revisión humana. Microsoft desarrolló la tecnología en colaboración con otras compañías tecnológicas, incluidas Roblox y Kik, así como con la organización sin fines de lucro Thorn, y la pondrá a disposición de forma gratuita para otras plataformas.

Roblox, por su parte, le dijo a OneZero que ya aplica herramientas de filtrado a todos los chats en su plataforma, con restricciones adicionales para niños menores de 13 años. Los filtros bloquean el lenguaje grosero, pero también intentan detectar y bloquear cuando un jugador intenta atraer a otro jugador fuera del juego y en la comunicación privada, como pedir su número de teléfono. Proyecto Artemis agregará otra capa a los sistemas de Roblox, dijo un portavoz.

Mientras tanto, Facebook ha estado construyendo su propio software de aprendizaje automático, incluida una herramienta que trata de identificar ejemplos de depredadores que preparan a los niños, es decir, se hacen amigos de ellos para solicitar imágenes sexuales más tarde. Las empresas que usan este tipo de software generalmente se asocian con el Centro Nacional para Niños Desaparecidos y Explotados, o NCMEC, para informar material a las fuerzas del orden. Pero como informó el Times en una investigación separada de pornografía infantil en plataformas como Facebook Messenger, el volumen de informes ha abrumado al propio NCMEC en los últimos años.

Las herramientas de escaneo de imágenes como PhotoDNA tienden a ser menos aplicables en plataformas de juegos porque las imágenes sexuales tienden a intercambiarse en servicios de mensajería más privados. Un enfoque como el Proyecto Artemis que analiza los chats en busca de patrones de discurso sospechosos podría ser prometedor para las plataformas de juegos, dijo Lo, pero depende del contexto. En algunas configuraciones en línea, ese tipo de monitoreo puede ser visto por los usuarios y quizás por los reguladores como una invasión de la privacidad. Si el sistema no es lo suficientemente sofisticado y no se actualiza constantemente, los depredadores aprenderán cómo funciona y utilizarán la voz codificada para solucionarlo. Y podría evitarse por completo en una plataforma como Discord, que permite a los usuarios chatear por voz y texto.

Los intentos de registrar y analizar las comunicaciones de voz en algunos entornos pueden estar limitados por las leyes de privacidad, señaló Jeff Kosseff, profesor asistente de derecho de ciberseguridad en la Academia Naval de los EE. UU. Y autor de un libro sobre la Sección 230 de la Ley de Decencia de las Comunicaciones, una pieza fundamental de ley de internet. Además, si las compañías tecnológicas trabajan muy de cerca con la policía para monitorear a sus usuarios, dijo Kosseff, esos esfuerzos podrían entrar en conflicto con las restricciones de la Cuarta Enmienda a las búsquedas sin orden judicial por parte del gobierno. Las compañías de juegos que buscan hacer este tipo de monitoreo tienen que hacerlo de manera independiente y notificar adecuadamente a los usuarios para obtener su consentimiento, como a través de sus términos de servicio.

La implementación de este tipo de IA puede requerir recursos de los que carecen los estudios de juegos más pequeños. Ahí es donde la cooperación y los estándares de la industria podrían ayudar, dijo Lo. Pero tales sistemas deben evolucionar constantemente, o los depredadores aprenderán rápidamente lo que están buscando y desplegarán estrategias evasivas, como el lenguaje codificado, para evitar la detección. Incluso los sistemas más sofisticados probablemente no pueden igualar la efectividad de los moderadores humanos entrenados, agregó Lo. Todavía hay valor en la detección automática como primera capa, como marcar interacciones sospechosas para el seguimiento humano, pero solo si funciona como parte de un enfoque más integral.

Verificación

Uno de los enfoques más simples sería simplemente separar a los niños de los adultos en las plataformas en línea. Pero hay muchos juegos, como Minecraft , que atraen tanto a adolescentes como a adultos. Separarlos completamente por edad sería un paso drástico y quizás poco realista.

Una medida más modesta podría ser limitar ciertas funciones, como el chat privado, a adultos. "Cuando se trata de niños y juegos, solo porque es posible permitirles tener capacidad de mensajería sin restricciones, ¿debería permitirse eso?", Dijo Roberts. “La privacidad de los niños es importante para su desarrollo. Pero tal vez no en todos los lugares en todo momento ".

Otro curso de acción posible sería exigir a los usuarios que se registren con sus nombres reales. Facebook requiere que los usuarios verifiquen su identidad, lo que limita parte, aunque no la totalidad, del trolling y el abuso anónimos que afectan a plataformas como Twitter y Reddit.

Pero estas políticas requieren la verificación de las identidades de las personas, lo que ha demostrado ser un dolor de cabeza a lo largo de la historia de los juegos y la Internet social. Kosseff señaló que los intentos de limitar el anonimato a través de la legislación o la regulación pueden plantear preocupaciones de la Primera Enmienda . Por ejemplo, un fallo de la Corte Suprema de 1995 defendió el anonimato como "un escudo contra la tiranía de la mayoría" al revocar una ley de Ohio que requería que las personas que escriben literatura de campañas políticas se identifiquen. Y en ausencia de regulación, las compañías que lo requieren pueden ahuyentar a los usuarios, además de aumentar el riesgo de cualquier violación de datos porque las actividades de los usuarios podrían estar más fácilmente vinculadas a sus identidades. Y Lo señaló otros problemas.

"Por ejemplo, un niño que se identifica como LGBT podría querer tener un perfil separado y muy privado" del que está vinculado a su identidad real, dijo Lo. "Si sus padres son abusivos o no aceptan su identidad", las políticas de nombre real "limitan las formas en que se involucran en línea y podrían aislar a las comunidades que ya están marginadas".

Educación

Informar y preparar a los niños y a sus padres para enfrentar la explotación infantil en línea podría ser el enfoque menos controvertido. Algunas plataformas de juegos ofrecen tutoriales para usuarios, mientras que algunas organizaciones sin fines de lucro imparten cursos de alfabetización digital. Más de cada uno podría ayudar.

"La supervisión de los padres tiene que ser parte de esto, al final del día", dijo Roberts. “Los padres deberían estar mucho mejor versados ​​y más preparados para invocar el privilegio de los padres en torno a restringir la funcionalidad en las plataformas que usan sus hijos. Pero eso significaría que necesitan tener la sofisticación para hacerlo. Desafortunadamente, en la mayoría de los hogares, son los niños los que son más sofisticados ”cuando se trata del funcionamiento de sus plataformas en línea favoritas. Una sugerencia podría ser que los padres limiten el juego a una parte pública de la casa, dijo. "No lo es, 'entras en la habitación con tu Nintendo Switch y cierras la puerta y Dios sabe lo que sucede'".

Mary Anne Franks, profesora de derecho de la Universidad de Miami y presidenta de la iniciativa sin fines de lucro Cyber ​​Civil Rights Initiative, estuvo de acuerdo en que "la educación es siempre una buena apuesta". Pero dijo que esperar que los padres hagan todo el trabajo de proteger a sus hijos en línea poco realista, y deja que las plataformas se descuelguen para facilitar esas interacciones. "Para mantener a sus hijos seguros, el costo de eso no debería ser decir que tiene que ser un experto en juegos", dijo.

Sin embargo, las plataformas podrían ayudar con la educación, incorporando tutoriales en sus servicios que los niños realmente podrían usar. Tal vez podrían incentivar completar un tutorial sobre cómo evitar ser explotado ofreciendo a los participantes recompensas en el juego. Sin embargo, en última instancia, "la conversación realmente tiene que ser la efectividad de estas técnicas", dijo Franks. Y nadie está en una mejor posición para descubrir cómo detener la explotación en las plataformas de juego que las compañías que los construyen y administran. Es por eso que Franks cree que la única respuesta real es ...

Regulación

"Creo que la razón por la que estamos en este lío es porque seguimos tratando los espacios en línea como si fueran muy diferentes de los espacios fuera de línea", dijo Franks. "Imagine una escuela que solo permite que adultos al azar vayan y vengan, tengan las conversaciones que quieran con los niños y esperen lo mejor".

Con algunas excepciones, la Sección 230 protege los espacios en línea de ser demandados por lo que publican sus usuarios. Parte de la Ley de Decencia de Comunicaciones de 1996, la disposición hace posible gran parte de la Internet moderna. Sin él, cualquier sitio web con una sección de comentarios, y mucho menos aplicaciones de redes sociales, enfrentaría un riesgo legal constante, ya sea que intenten moderar sus plataformas o no. Sin embargo, una de las excepciones es por violaciones de la ley penal federal, incluida la distribución de pornografía infantil. De hecho, si las plataformas tienen conocimiento real de pornografía infantil en sus servidores, por ley tienen que informarlo y eliminarlo. Pero los intentos de los adultos para preparar a los menores, o para persuadirlos de enviar imágenes sexuales a través de otro canal, no están necesariamente cubiertos por la ley penal federal.

El problema, dicen los críticos, es que la Sección 230 a menudo ha sido interpretada tanto por los tribunales como por la industria como una especie de carta blanca para la irresponsabilidad, por ejemplo, como una excusa para no hacer nada sobre el aseo infantil. Eso es lo que debe cambiar, argumentó Franks, señalando que las propias empresas están en una mejor posición que los reguladores o las organizaciones sin fines de lucro para saber qué medidas serían más efectivas para disuadir a la depredación infantil en sus propias plataformas. Pero hasta que sean considerados responsables por la ley, tienen pocos incentivos para tomar cualquier acción que pueda perjudicar sus resultados.

En teoría, un posible remedio sería otra exclusión de la Sección 230 centrada específicamente en la preparación del niño. Ese es el enfoque que adoptaron los legisladores al aprobar FOSTA-SESTA, el controvertido proyecto de ley de 2018 que responsabilizó a las plataformas por violaciones de las leyes estatales y federales de tráfico sexual. Pero ese proyecto de ley ha fracasado de múltiples maneras , incluyendo hacer que el trabajo sexual sea más peligroso para las personas que debe proteger. Más allá de eso, Franks dijo que cree que un enfoque poco sistemático para enmendar la Sección 230 equivale a una "mala política", creando una maraña confusa de regulaciones superpuestas que solo las empresas más grandes, con sus falanges de abogados, podrían cumplir de manera realista.

En cambio, Franks y Danielle Citron, profesora de derecho en la Universidad de Boston y vicepresidenta de la Iniciativa de Derechos Civiles Cibernéticos, están colaborando en ideas para enmendar la Sección 230 a un nivel más fundamental. Citron, quien fue coautor de una influyente propuesta de 2017 con Benjamin Wittes de Lawfare , cree que el mejor enfoque sería condicionar las protecciones legales de la Sección 230 en las plataformas para poder demostrar "práctica de moderación de contenido razonable".

En el caso de las plataformas de juegos y el cuidado de los niños, eso podría significar al menos ofrecer mecanismos de informes para los usuarios, y actuar en función de ellos. Eso dejaría en su lugar un fuerte escudo para compañías como Microsoft y Roblox que actúan de manera responsable, incluso si no atrapan a todos los depredadores. Pero eliminaría las protecciones de la Sección 230 para plataformas que ni siquiera toman medidas básicas para proteger a sus usuarios. Y podría sorprenderse cuántos de esos hay, agregó Citron. "Hemos visto mucha negligencia profunda e imprudencia", dijo, como las aplicaciones de citas que toman informes de violación o explotación infantil, pero nunca las siguen. Es difícil convencerlos de que inviertan los recursos necesarios para cambiar eso cuando la Sección 230 ofrece una expectativa de inmunidad legal.

Kosseff dijo que le preocupan tales cambios, a menos que se implementen con cuidado, podrían reducir las opciones de discurso en línea al hacer que las plataformas pequeñas sean demasiado riesgosas para operar. Las compañías tecnológicas más grandes, como Facebook, gastarían mucho en los moderadores, los sistemas de inteligencia artificial y los equipos legales necesarios para defenderse de las demandas por el comportamiento de sus usuarios. Pero otros podrían simplemente cerrar en lugar de arriesgarse a un aluvión de litigios que no pueden pagar.

Lo agregó que las plataformas que enfrentan responsabilidad por el discurso de sus usuarios "compensarían en exceso" al eliminar el anonimato e invadir la privacidad de otras maneras. Ella dijo que tiene que haber un equilibrio entre plataformas atractivas para tomar en serio problemas como el aseo infantil y permitir la existencia de espacios en línea que no supervisen agresivamente a sus usuarios.

La razonabilidad es obviamente un estándar subjetivo, reconoció Citron. Pero es común en otros ámbitos del derecho. "La idea de razonabilidad es encontrar un punto medio entre la responsabilidad estricta y la no responsabilidad".

Lo y Citron acordaron, sin embargo, que la responsabilidad recae principalmente en las plataformas, de una forma u otra. Legislar enfoques tecnológicos particulares crearía sistemas que rápidamente se volverían obsoletos a medida que los usuarios se adaptaran.

Fecha actualización el 2021-01-16. Fecha publicación el 2020-01-16. Categoría: Juegos. Autor: Oscar olg Mapa del sitio Fuente: medium