En el marco de su "Informe de cumplimiento de las normas comunitarias", Facebook anunció que implementará un nuevo programa piloto para mejorar la detención y eliminación de discursos de odio de su plataforma.

De acuerdo a lo señalado por la compañía, este programa se enfocará en un grupo de moderadores de contenido que se dedicará exclusivamente a vigilar y retirar las publicaciones que infrinjan las normas de la red social en la materia. Estos moderadores no serán personal nuevo contratado por la empresa, sino que serán funcionarios existentes que serán reasignados en la nueva área.

Esta nueva medida para combatir los discursos de odio llega luego de que Facebook admitiera en el mismo reporte que ha tenido dificultades para identificar este contenido. En ese sentido, si bien la detección de ese material ha aumentado en 24% desde 2017, sigue detectando solo a un 65% de todo el contenido de ese tipo que llega a la plataforma.

En ese panorama, este grupo especializado de moderadores tendría como misión incrementar ese porcentaje, ya que la compañía espera que logren entender mejor como se manifiestan estos contenidos si solo se enfocan en ellos.

"Estamos lanzando un programa piloto donde algunos moderadores se especializan en discursos de odio", dijo el vicepresidente de operaciones globales de Facebook Justin Osofsky, según recoge Gizmodo. "En este momento, la mayoría de nuestros moderadores miran el contenido en todo el espectro. Al centrarse en la aplicación del discurso del odio, estos moderadores establecerán una comprensión más profunda de cómo se manifiesta y podrán tomar decisiones más precisas".

Facebook no indicó cuántos moderadores serán parte de la prueba, pero dijo que el piloto ya inició con "un par de docenas" de ellos.

El "Informe de cumplimiento de las normas comunitarias" indica que la cantidad de discursos de odio ha experimentado un aumento constante en la plataforma. Pero los datos no aclaran si eso va de la mano de las nuevas políticas de Facebook o las propias dinámicas de los usuarios.

De todas maneras, esas son las publicaciones que la compañía tendría más dificultades de detectar antes de que los usuarios las reporten. A diferencia de lo que sucede, por ejemplo, con el spam, la propaganda terrorista y contenido de explotación infantil que sería eliminado en 99% por los algoritmos y moderadores de la plataforma antes de llegar a los usuarios.