04 de junio del 2020
Esta semana, Facebook ha presentado su informe de transparencia de la compañía donde ha informado del borrado de 15,3 millones de publicaciones relacionadas con el odio. Una cifra que crece hasta los 16,9 millones de post si se suman las cifras de la hermana pequeña Instagram.
Datos que recogen la investigación realizada entre octubre de 2019 y marzo de 2020 por lo que el informe todavía no señala el impacto que haya podido tener la Covid-19 en las publicaciones en las diferentes plataformas de Mark Zuckerberg.
En el cuarto trimestre de 2019, Facebook eliminó de su red social 5,7 millones de contenidos debido a que contenía discurso de odio, y tomó acciones sobre 80,2 por ciento ante de que fueran vistos y denunciados por los usuarios.
Entre enero y marzo de 2020, las cifras aumentan: 9,6 millones de piezas de contenido eliminadas, con una actuación sobre el 88,8%. Sobre estos contenidos, la red social recibió 2,3 millones de reclamaciones entre octubre de 2019 y marzo de 2020, y llegó a restaurar unos 143.500 contenidos en el mismo periodo, según los datos del informe.
Descenso en Instagram
No obstante, en el caso de Instagram se observa un descenso en las publicaciones que se realizaron sobre contenido vinculado al discurso de odio en el primer trimestre de 2020 (805.900) respecto del cuarto trimestre de 2019 (843.600).
En estos seis meses la compañía también ha apreciado una ligera mejora en la tasa de detección de este tipo de contenido, del 43,1 por ciento en el cuarto trimestre de 2019 hasta el 44,3 por ciento en el primer trimestre del presente año.
Facebook, además, recopila los datos sobre «los esfuerzos para combatir» el odio organizado. Su inteligencia artificial capaz de detectar discursos de odio ha aumentado su capacidad de detección en más de ocho puntos en los dos últimos trimestres y en casi 20 puntos «en un solo año» como apunta la compañía en un comunicado.
Condenada a pagar a moderadores
El aumento de contenido delicado también hace mella en los trabajadores de la compañía. Más allá de la inteligencia artificial, la red social tiene contratados y, también, subcontratados a varios moderadores para vigilar lo que se dice en la red social y si cumple la normativa de la compañía.
Esta semana, Facebook ha llegado a un acuerdo con sus moderadores de contenido en Estados Unidos por el que pagará 52 millones de dólares para compensarles por los problemas asociados a su trabajo, que hizo que muchos de ellos tuviesen secuelas.
Según relataron entonces varios de estos trabajadores, apenas podían hacer pausas, no tenían equipos de psicólogos especializados y el estrés hacía que varios de ellos terminasen de baja.