Las redes sociales son espacios que albergan todo tipo de contenidos. Desde algunos asociados al entretenimiento hasta otros dedicados a intereses específicos. Pero también, es común encontrar discursos de odio al interior de las distintas aplicaciones de internet, los cuales tienen el objetivo de denigrar a ciertas personas o grupos.
Frente a esta última situación, Meta, la empresa matriz de Facebook, realizó un estudio interno con 26.000 de sus usuarios, el cual sugirió que expulsar a los líderes de comunidades extremistas y tóxicas es eficiente para disminuir la propagación de odio.
Qué encontraron los investigadores
La investigación fue publicada esta semana en la revista académica PNAS y fue liderada por Daniel Robert Thomas y Laila A. Wahedi, quienes identificaron seis comunidades de este tipo y expulsaron a los perfiles más activos.
Tras la eliminación, analizaron si el resto de los usuarios seguía viendo, publicando o compartiendo contenidos relacionados.
Fue así como descubrieron que efectivamente se redujeron tales actividades.
“Reducen su consumo y producción de contenidos que incitan al odio, y se relacionan menos con otros miembros de la audiencia”, manifestaron los investigadores en declaraciones rescatadas por El País.
Con dicha medida, vieron que en promedio los usuarios pasaron a ver cerca de 10% menos publicaciones de este tipo, mientras que también revisaron otras que no necesariamente tenían una carácter agresivo.
De la misma manera, los más fieles a esas comunidades extremistas buscaron otros grupos similares, pero esta tendencia empezó a disminuir en los dos meses posteriores.
Por otro lado, los menos activos redujeron su interacción con estos contenidos de forma inmediata.
“La eliminación de líderes y los esfuerzos de degradación de la red pueden reducir la capacidad de las organizaciones de odio a operar con éxito en internet”, añadieron los autores del estudio.
Los efectos adversos y las implicancias
A pesar de lo anterior, destacaron según el citado medio que existen otras estrategias con las que podrían seguir compartiendo contenidos de esta categoría en la internet.
Entre ellas, se encuentran que pueden irse a otras redes sociales y que si hay otros grupos similares en vigencia, estos podrían atraer a los cibernautas interesados, hasta el punto de que lleguen a reemplazar a la comunidad anterior.
Es por esto que sugirieron que una potencial medida eficiente sería eliminar varias cuentas de líderes al mismo tiempo, para así dificultar que puedan “reconstruir sus redes” y ponerse en contacto para seguir operando.
La investigadora asociada al Instituto Reuters y académica de la Vrije Universiteit Amsterdam, Majó-Vázquez, explicó a El País que es importante considerar estas medidas, pero que debe hacerse “buscando un equilibrio entre la libertad de expresión y la preservación de otros derechos que pueden verse dañados”.
Bajo esta línea, detalló que hay tres conceptos distintos a diferenciar: el incivismo, el discurso tóxico y el de odio.
El primero hace referencia a conductas como faltas de respeto o sarcasmo, las cuales tienen un carácter más tenue, mientras que el segundo es más extremo y se caracteriza porque “ahuyenta a los demás de participar de una conversación”.
Si este último se agrava, puede llegar a ser violento y clasificarse dentro del discurso de odio, según dijo al citado medio.
“Son muy dañinos, porque no permiten el ideal democrático de deliberación pública”, enfatizó a El País.