Facebook Inc señaló que eliminó 7 millones de publicaciones que compartieron información falsa sobre la COVID-19 en el segundo trimestre, incluyendo contenido que promovía medidas preventivas falsas y curas exageradas.

La empresa difundió los datos como parte de su sexto Informe de Aplicación de Estándares Comunitarios, que introdujo en 2018 junto con reglas más estrictas en respuesta a las críticas a sus medidas en cuanto a la vigilancia de los contenidos en sus plataformas.

Agregó que a partir de 2021 invitaría a expertos externos a auditar de forma independiente las métricas usadas en el informe.

La mayor empresa de redes sociales del mundo eliminó unos 22.5 millones de mensajes que contenían expresiones de odio en su aplicación principal en el segundo trimestre, frente a los 9.6 millones del primer trimestre. También eliminó 8.7 millones de mensajes relacionados con organizaciones extremistas, en comparación con los 6.3 millones del período anterior.

Facebook dijo que confió más en la tecnología de automatización para revisar el contenido durante los meses de abril, mayo y junio, ya que tenía menos revisores en sus oficinas debido a la emergencia sanitaria por la COVID-19.

Con información de Reuters