El plan de YouTube de no recomendar videos conspirativos está funcionando

youtube

Un estudio de la Universidad de California reveló que la plataforma sí ha reducido las sugerencias de contenido límite, pero aún no es suficiente.


El algoritmo de YouTube es responsable de los videos que te aparecen como recomendados durante tu navegación. Se trata de algo que está tan ajustado, que simplemente es clave para que pases horas en la plataforma mirando listas de top 10, videos de gatos o sea lo que sea tu elección. Pero como la plataforma está llena de contenido irresponsable, no faltan los videos de conspiraciones que se vuelven tendencia.

Por eso, en enero del 2019, la plataforma anunció que dejaría de sugerir "contenido límite", una etiqueta que YouTube integró a su condiciones de uso para videos que no rompen las condiciones de la plataforma, pero están muy cerca de hacerlo, prohibiéndoles monetizar y promover su contenido. Dentro de este tipo de contenido figuran los videos de teorías conspirativas.

Ahora un estudio de la Universidad de California, Berkeley, reveló que que el plan de dejar de sugerir este tipo de videos por fin está cosechando sus primeros frutos. Los investigadores examinaron ocho millones de recomendaciones en un periodo de 15 meses, para juzgar si los esfuerzos de YouTube eran efectivos. Estos entrenaron el algoritmo de la plataforma para determinar si identificaba el contenido límite basado en la descripción, los comentarios o la transcripción, lo cual les entregó resultados mixtos.

Pero el lado bueno del estudio, es que los investigadores descubrieron que YouTube ha reducido exitosamente las sugerencias de contenido conspirativo, como que la tierra es plana o que el gobierno estadounidense planeó el atentado de las Torres Gemelas. Asimismo, descubrieron que en un periodo de seis meses (junio a diciembre), el porcentaje de sugerencias de ese contenido se redujeron en un 50%, posteriormente llegó a un 70%.

Sin embargo, llegaron a la conclusión de que la reducción en sugerencias no aseguraba que el video no fuera popular. Si bien son menos comunes que antes, estos siguen teniendo un gran número de seguidores, y la oportunidad de monetizar, ya que no rompen con ninguna regla de la plataforma. Sólo están cerca de hacerlo.

YouTube logró reducir algunas teorías conspirativas, pero otras siguen estando alarmantemente presentes, como las que niegan el cambio climático. Según los investigadores, pareciera que la plataforma no permite aquel contenido que recibe atención negativa, pero sí concede que el resto se mantenga presente.

Los investigadores realizaron el estudio según la navegación sin ingresar a una cuenta, lo cual no necesariamente refleja como la mayoría de los usuarios navegan por la plataforma. Sin la cooperación de YouTube es difícil replicar las sugerencias personalizadas a gran escala, y no dejaría que se lleguen a resultados concluyentes.

YouTube tiene aproximadamente dos mil millones de usuarios activos cada mes y todos los días aumenta el número, incluso, para la mayoría de ellos la plataforma es su principal fuente de noticias. Si bien dejar de sugerir videos conspirativos es un paso en la dirección correcta, se necesitan medidas más agresivas para reducir la desinformación en la internet.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.