Estos bots son responsables de proteger Wikipedia

Estos bots son responsables de proteger Wikipedia

Wikipedia ha sido el salvador de todos los estudiantes cuando se trata de terminar proyectos escolares o universitarios

El sitio web de crowdsourcing más grande del mundo contiene información sobre cualquier tema que pueda imaginar.

Como ya sabe, Wikipedia es una enciclopedia en línea con información comprobable. La idea de que cualquier persona con una conexión a Internet puede editar la información libremente era una locura. Nunca iba a funcionar, pero de alguna manera el sitio aún cumple su propósito.

Wikipedia se lanzó hace 19 años, en 2001. En sus primeros días, los contribuyentes llevaron a cabo tareas como clasificar el vandalismo en el sitio web, ya que la información estaba disponible para todos y cualquiera podría haber realizado modificaciones. Fue posible en los primeros días ya que el número de contribuyentes era menor y esto dio como resultado menores ediciones que podrían haberse manejado manualmente. Pero en 2007, el sitio comenzó a ganar una cantidad increíble de tráfico y encontró alrededor de 180 ediciones por minuto . se fue de las manos para controlar esta cantidad manualmente.

Enter The Bots

Bot, abreviatura de "robot de software", es una herramienta automatizada desarrollada por colaboradores para llevar a cabo tareas específicas. Actualmente, hay un total de 1601 bots trabajando para Wikipedia llevando a cabo diferentes responsabilidades.

El Dr. Jeff Nickerson, profesor del Instituto de Tecnología Stevens en Hoboken, Nueva Jersey, que estudió bots de Wikipedia, dijo a Digital Trends que la razón principal por la que se crearon los bots fue la protección contra el vandalismo.

Dijo que hay muchas veces que alguien va a una página de Wikipedia y la difama. Con la cantidad de tráfico en el sitio web, se vuelve realmente molesto y difícil para aquellos que mantienen esas páginas realizar cambios continuamente en las páginas.

"Así que un tipo lógico de protección [era] tener un bot que pudiera detectar estos ataques" , dijo Nickerson.

El Dr. Nickerson junto con otros investigadores del Instituto de Tecnología Stevens realizó el primer análisis exhaustivo de todos los 1601 bots que trabajan para el sitio web. Este estudio fue publicado en la revista Proceedings of the ACM on Human-Computer Interactions . Según el estudio, el 10% de todas las actividades en el sitio web son realizadas por bots .

El estudio realizado por los investigadores dividió los bots en 9 categorías según sus roles y responsabilidades que se les asignaron. Las categorías se explican a continuación:

  • Generador: responsable de generar páginas de redireccionamiento y páginas basadas en otras fuentes.
  • Fixer: responsable de corregir enlaces, contenido, archivos y parámetros en template / category / infobox
  • Conector: responsable de conectar Wikipedia con otros Wikis y sitios.
  • Etiquetador: Responsable de etiquetado de estado del artículo, la evaluación del artículo, proyectos wiki, estado de multimedia.
  • Empleado: responsable de actualizar las estadísticas, documentar los datos del usuario, actualizar las páginas de mantenimiento y entregar alertas de artículos.
  • Archivador: responsable de archivar contenido y limpiar el sandbox.
  • Protector: Responsable de identificar violaciones, spam y vandalismo.
  • Asesor: responsable de proporcionar sugerencias para proyectos y usuarios de wiki. También saluda a los nuevos usuarios.
  • Notificador: responsable de enviar notificaciones a los usuarios.

Semrush sigue a tu competencia


Fecha actualizacion el 2020-02-04. Fecha publicacion el 2020-02-04. Categoria: web Autor: Oscar olg Mapa del sitio Fuente: beebom Version movil