Facebook ya ha eliminado 583 millones de cuentas falsas en 2018

facebook

La compañía reveló las cifras de sus acciones de moderación en lo que va de este año.


Facebook dio a conocer su informe Community Standards Enforcement Report, que corresponde a datos del primer cuatrimestre de 2018, revelando que la compañía tomó acciones contra 1,500 millones  de cuentas y publicaciones que incumplían las políticas de uso de la red social.

Entre los números más destacados, la compañía informa que eliminó 837 millones de contenidos spam y 583 millones de cuentas falsas, además de 2.5 millones de contenidos que contenían discursos de odio, 1.9 millones de publicaciones con propaganda terrorista, 3.4 millones de publicaciones que incluían violencia gráfica y 2.1 millones de piezas de material que incluían desnudez adulta y actividad sexual.

Según la compañía, para eliminar estos problemas fueron clave tanto las denuncias de los usuarios como sus propios sistemas de vigilancia. En ese último ámbito, la compañía de Mark Zuckerberg ha incorporado herramientas de Inteligencia Artificial, que son capaces de encontrar y moderar contenido sin la necesidad de que los usuarios lo reporten como sospechoso.

En este primer periodo del año, las IA de Facebook sirvieron especialmente para detectar contenido como las cuentas falsas y el spam. De los hallazgos hechos por Facebook en la materia, un 98.5% de las cuentas falsas cerradas fue detectada por ese medio, al igual que "casi el 100%" del spam.

La detección automática funcionó bien en los casos ligados al contenido, porque la IA opera bien con la tecnología de reconocimiento de imágenes. Pero la tarea fue más difícil en cuanto al discurso de odio, ya que el análisis debe efectuar con pistas contextuales a la publicación. Según cifras de la red social, en ese ítem, un 38% del contenido fue detectado antes de que los usuarios lo reportaran.

La publicación del informe estadístico de Facebook llega en medio de las modificaciones que la empresa ha tomado en sus políticas luego del escándalo de Cambridge Analitica, que incluyen medidas como un proceso de autentificación para los anunciantes políticos que devele su afiliación junto con sus anuncios.

Más importante aún, el informe de Facebook fue publicado justo una semana después de la publicación de los Principios de Santa Clara, un intento de escribir un manual sobre cómo las grandes plataformas deberían moderar el contenido. Los principios establecen, entre otras cosas, que las redes sociales deben hacer público el número de publicaciones que eliminan, proporcionar información detallada para los usuarios cuyo contenido se elimina, explicar por qué se tomó la decisión y ofrecer la oportunidad de apelar la determinación.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.