Facebook eliminó más de 3 mil millones de cuentas falsas y 11 millones de publicaciones de abuso infantil

facebook-logo

La compañía entregó su más reciente reporte de moderación, el que por primera vez incluyó cifras de Instagram.


Entre abril y septiembre de este año, Facebook eliminó alrededor de 3 mil 200 millones de cuentas falsas en su plataforma, lo que representa un incremento considerable respecto al mismo período anterior. De hecho, es más del doble, ya que la compañía informó que el año pasado se eliminaron mil 55 millones de cuentas falsas durante esos meses.

La cifra fue dada a conocer en su más reciente informe de moderación, publicado este miércoles y que por primera vez incluyó cifras de Instagram.

Además, desde Facebook especifican que se borraron millones de publicaciones asociadas a suicidio y abuso infantil. Respecto a eso último, la compañía explicó que eliminaron 11 millones 600 mil publicaciones que incluían desnudos infantiles o la explotación sexual de niños. En Instagram, informaron que 754 mil posts fueron eliminados solo en el tercer trimestre de este año.

"Para la desnudez infantil y la explotación sexual de los niños, realizamos mejoras en nuestros procesos para agregar violaciones a nuestra base de datos interna con el fin de detectar y eliminar instancias adicionales del mismo contenido compartido en Facebook e Instagram, lo que nos permite identificar y eliminar más contenido infractor", explicaron.

En cuanto al contenido de autolesiones, cuyas cifras de eliminación por primera vez fueron reveladas por Facebook, alcanzaron a 2 millones 500 mil publicaciones. Ese tipo de posts presentaban o animaban al suicidio o las autolesiones. En lo que respecta a Instagram, explicaron que eliminaron 845 mil publicaciones solo en tercer trimestre de este año, con el 79.1% detectados de forma proactiva.

Drogas y discursos de odio

El reporte de la compañía incluye esos datos de detección proactiva en cuestión, los que tienen relación con las diversas herramientas que ha implementado Facebook para detectar de forma automática este tipo de contenido a través de inteligencia artificial. En esa línea, otra cifra llamativa del reporte: 4 millones 400 mil publicaciones relacionaas al tráfico de drogas fueron removidas.

Por último, Facebook recalcó que en los últimos dos años han invertido en la detección proactiva del discurso de odio "para poder detectar este contenido dañino antes de que la gente nos lo informe y, a veces, antes de que alguien lo vea".

A partir de sus sistemas de detección, la tasa proactiva ha aumentado al 80%, desde el 68% de su último informe, aumentando el volumen de contenido que encontraron y eliminamos por violar su política contra los discursos de odio.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.