Por primera vez Facebook explica qué y cómo prohíbe contenido en su red
Históricamente, Facebook nunca ha sido muy específico en lo que se relaciona a los procesos involucrados al censurar una publicación, y más de algún usuario puede afirmar que desconoce por qué alguno de sus posteos ha desaparecido.
Pero ello puede cambiar desde hoy, ya que la red social lanzó una guía de seis categorías que en casi 30 páginas donde especifica el procedimiento que sigue ante cualquier publicación. En ella podemos visualizar apartados como "violencia y comportamiento delictivo", "medidas de prevención", "contenido inaceptable", "integridad y autenticidad", "respeto a la propiedad intelectual" y "solicitudes relacionadas con contenido", cada una con sus propias especificaciones y consejos para que los moderadores sepan qué hacer en caso de duda ante un posteo, ya sea eliminándolo o incluso realizar una denuncia a las autoridades.
El documento, titulado "Facebook Community Standards" y disponible en 40 idiomas, asegura que actualmente existen 7.500 moderadores humanos (se espera aumentar la cifra a 20 mil a fines de este año), y que en algún momento el trabajo será realizado por un sistema de inteligencia artificial, aunque por el momento se encuentra en desarrollo. El objetivo es responder a los reportes en un plazo de 24 horas.
Así, es posible ver que entre otros, se prohíbe contenido como la compra y venta de marihuana o armas de fuego, registros de venta de medicamentos con receta, mostrar a menores en un contexto sexual, homicidios, caza furtiva de especies amenazadas, realizar amenazas violentas creíbles o promover el terrorismo. Las imágenes de senos son permitidas sólo en casos de pinturas o lactancia materna, y llama la atención la definición de asesinos en serie: cualquier persona que haya cometido dos o más asesinatos en "múltiples incidentes o ubicaciones". Sin embargo, quienes hayan cometido un único homicidio no serán excluidas de la red, ya que podrían haber actuado en defensa propia.
En parte, estos criterios recuerdan a los "estándares de la comunidad" revelados en 2015, aunque esta vez la información se encuentra más detallada. Ya en 2016, la red social se tuvo que retractar luego que eliminara una icónica fotografía de 1972 donde una niña corriendo desnuda pide ayuda tras un ataque de napalm en Vietnam, aduciendo que la imagen tenía una "importancia global".
Asimismo, Facebook señala que notificará a los usuarios cuando se elimine un contenido inapropiado, pudiendo apelar con hasta un máximo de 24 horas, algo que hasta ahora no era posible.
Fuente: Facebook
Comenta
Por favor, inicia sesión en La Tercera para acceder a los comentarios.