No se puede negar el papel cada vez mayor de las redes sociales en la actualidad. Y cuando se trata de plataformas líderes como YouTube, no puede evitar preguntarse si juega un papel en el lavado de cerebro de las personas.
Por ejemplo, imaginemos que su hijo menor está ocupado viendo su serie animada favorita. Si bien todo parece ir bien, de repente aparece un anuncio que los redirige a otro sitio, como una organización extremista.
Ahora, tiene sentido que probablemente culpes al algoritmo de la plataforma en este sentido por tratar de lavar el cerebro de otros en una dirección en la que están menos interesados, ¿verdad? Pero espera, no es tan simple.
Un informe reciente fue realizado por investigadores académicosquien realizó un análisis en profundidad sobre cuán influyente es YouTube para engañar a sus usuarios.
Y te sorprenderá saber que se produjeron algunos resultados muy interesantes en los que se reveló cómo la aplicación rara vez, si es que alguna vez, brinda a los espectadores sugerencias sobre contenido que está fuera de sus creencias.
Key findings https://t.co/VfcOUkSZ9t
— Brendan Nyhan (@BrendanNyhan) April 21, 2022
-Viewership of potentially harmful alternative & extremist YouTube channels heavily concentrated among subscribers
-Viewers frequently come from off-platform sources
-Algorithmic recs from normal content rare
-"Rabbit hole" patterns very rare https://t.co/fai8VrvPD1 pic.twitter.com/UNGuQrWK6l
En cambio, aquellos que realmente hacen el esfuerzo adicional de buscar dicho contenido que está fuera de su corriente principal son los que recibirán sugerencias. Entonces, la regla es lógica. Cuanto más busque, más resultados o sugerencias obtendrá en función de su búsqueda. Y creemos que a veces eso es justo.
También fue muy interesante notar cómo YouTube no es fanático de promover teorías de conspiración o asuntos extraños que no tienen fundamento. Si no muestra interés en el material, no le molestará el algoritmo de la aplicación con sugerencias relacionadas con ese género.
Pero espera, no todo es tan simple y directo. El estudio también encontró que la plataforma a veces también podría comportarse como una fuerza externa en el ámbito de la radicalización.
El artículo principal destacó que los voluntarios que ya poseían puntos de vista tan fuertes y radicales sobre un tema determinado o que incluso seguían un canal en la aplicación religiosamente tenían muchas más probabilidades de recibir recomendaciones de un tipo similar.
Entonces, ¿qué significan realmente estos hallazgos al final del día?
Bueno, el estudio delinea la gran necesidad de que los legisladores, el público en general y los principales ejecutivos de Internet se tomen un momento y piensen inteligentemente. No hay necesidad de centrarse en el usuario común de todos los días siendo engañado por YouTube para entrar en algún tipo de comportamiento extremista. En cambio, se debe poner mayor énfasis en las políticas diseñadas para endurecer las opiniones de aquellos usuarios que ya se inclinan en esa dirección.
Un profesor universitario que también resultó ser coautor del estudio dice que todos somos culpables de subestimar la forma en que las redes sociales ayudan a la demanda al vincular la oferta de las opiniones más extremas. Además, agrega que incluso una persona que pudiera tener un punto de vista extremo sobre un asunto tenía el potencial de dañar al mundo.
Recuerde, YouTube es una plataforma popular y tiene tanto sentido que, dado que las personas miran más de mil millones de horas de videos a través de los canales de la aplicación, las preocupaciones aumentan. Esto es similar a las preocupaciones que rodean a Facebook también.
Si bien esta es solo una parte del interesante estudio, es bastante interesante ver que el estudio señala que las cosas extrañas en la web causan poco daño y también cómo el algoritmo de la aplicación pone a tantas personas en riesgo de convertirse en un monstruo.
La investigación también observó cómo la mayor parte de la audiencia de contenido relacionado con el extremismo pertenecía a espectadores que tenían un gran resentimiento por los demás, ya sea por motivos raciales o de género. Pero recuerde, la investigación entró en vigencia en 2020.
Todos somos muy conscientes de que YouTube hizo algunos cambios importantes después de eso en términos de eliminar videos que informan mal a otros de manera negativa. Además, el estudio aún no ha sido revisado por expertos independientes.
Además, es necesario realizar más estudios de seguimiento que puedan ayudar a verificar los resultados mencionados y también hablar más sobre cómo YouTube puede hacer más para abordar asuntos como estos y reducir la exposición dañina.
Muchas gracias por visitarme. Sin usted, esta web no existiria, espero que le haya gustado y vuelva ☺️

Fecha actualizacion el 2022-04-28. Fecha publicacion el 2022-04-28 Autor: Oscar olg Mapa del sitio Fuente: digitalinformationworld