Las redes sociales fortalecen la democracia
ESPECIAL 70 AÑOS LT: VERDADES QUE YA NO SON
Se creía que el auge de internet afectaría positivamente a las sociedades, pero hoy los expertos coinciden que podría haber sido una ilusión. Ejemplo de esto es que las mentiras se difunden seis veces más rápido por Twitter que la verdad.
“¿Cómo hemos llegado hasta aquí?”, se preguntó en una columna en El País, Justin Rosenstein, fundador de One Project -iniciativa para promover la democracia frente a los retos de la era de internet-, y uno de los protagonistas del documental El dilema de las redes sociales. Rosenstein, quien ayudó a desarrollar herramientas como el botón “Me gusta” de Facebook, responde de inmediato: “En gran parte, porque las redes sociales han degradado las relaciones reales, han disminuido la capacidad de la gente de votar en elecciones justas y libres y han debilitado la fe en la democracia y sus perspectivas de futuro”, escribe.
La evolución de las redes sociales y el uso que hace la sociedad de estas ha sido turbulento y, al mismo tiempo, muy veloz. Según han señalado los propios creadores de las plataformas más usadas como Facebook, Twitter e Instagram, jamás pensaron en el rol que llegarían a tener y, mucho menos, en el daño que podrían generar a la democracia.
Durante un tiempo se pensó que el auge de internet y las redes sociales afectarían positivamente a las democracias, aportando con una mayor participación y colaboración a ésta. Las personas podrían así acceder más fácilmente a las noticias y a los temas de interés y, de esta manera, ejercer de mejor manera sus opiniones y puntos de vista. Sin embargo, todo habría sido una ilusión, ya que las redes sociales pasaron rápidamente de ser consideradas como una contribución a las democracias a ser catalogadas directamente como un daño para el sistema.
“Las redes sociales no son inherentemente buenas ni malas para la democracia: son una herramienta que los actores políticos pueden usar en un juego interminable del gato y el ratón para ver quién puede tomar la delantera”, explica a La Tercera Joshua Tucker, profesor de Política en New York University (NYU) y codirector del Centro de Política y Medios Sociales de NYU. “Si pensamos en las redes sociales como una herramienta que brinda a las personas a las que anteriormente se les negaba el acceso a los principales medios de comunicación, entonces es posible ver cómo ayudaría a los activistas democráticos en países autoritarios, pero también a los extremistas en países democráticos. Dado el rápido ritmo de los desarrollos tecnológicos, la idea de quién tiene la ventaja también cambiará a menudo”, agrega.
Los algoritmos, los bots, la desinformación y las injerencias políticas han socavado el funcionamiento de las redes sociales como un instrumentos útil para las democracias.
La interferencia rusa en las elecciones de 2016 fue una gran demostración del poder de las redes sociales. El objetivo del hackeo ruso, según lo determinado por la inteligencia estadounidense, era dañar la campaña de Hillary Clinton, aumentar las posibilidades de Donald Trump de llegar a la Casa Blanca y sembrar desconfianza en la democracia estadounidense en general. Con esta experiencia de fondo, para estas elecciones se consideró el tema de la injerencia a través de las plataformas de redes sociales, y también la difusión de noticias falsas.
El profesor del MIT Sinan Aral descubrió que las noticias falsas en Twitter se propagan seis veces más rápido que las verdaderas y llegan a 100.000 personas en promedio, en comparación con 1.000 de las ciertas. “Las historias falsas se difundieron más, más rápido, de manera más profunda y más ampliamente que la verdad, en cada categoría de información que estudiamos”, dijo Aral. Por otro lado, Facebook reconoció este año que el 64% del desarrollo de los grupos extremistas se producía debido a su propio algoritmo de recomendaciones.
Gordon Hull, profesor de Filosofía y director del Centro de Ética Profesional y Aplicada de la Universidad de Carolina del Norte-Charlotte, sostiene que lo sucedido con las redes sociales se puede explicar porque “los modelos de negocio de las redes favorecen el compromiso, por lo que los sitios están diseñados para promover y difundir elementos que mantengan a la gente comprometida. Y lo que mejor funciona son las historias sensacionalistas o falsas, porque cuando el contenido te enoja mucho, tiendes a permanecer en la red, a compartirlo, etc”, dice a La Tercera.
“La desinformación a gran escala podría considerarse como la otra cara de la moneda de las maravillas producidas por las plataformas digitales”, sostiene a La Tercera Delphine Halgand, redactora principal del informe de Infodemics, del Foro Información y Democracia, que presentó una serie de propuestas que podrían poner fin al “caos informativo que representa una amenaza vital para las democracias”.
Las empresas de redes sociales se volvieron un poco más responsables desde 2016. Pese a que en ese entonces, el director ejecutivo de Facebook, Mark Zuckerberg, se negó a reconocer que las noticias falsas en Facebook podrían afectar las elecciones, ahora las empresas se coordinaron para identificar grupos extranjeros que sembraban discordia.
Según expone The Washington Post, “Silicon Valley posicionó la semana de elecciones como una especie de prueba de su compromiso con la democracia”. Así, Facebook, Twitter, YouTube y Google, hicieron una serie de adaptaciones, incluida la limitación de algunos anuncios políticos y el fomento al registro de votantes.
“Los anuncios casi diarios de nuevas políticas de moderación de contenido por parte de Facebook, Twitter y otros proveedores de servicios en línea son simplemente medidas de extinción de incendios, lo que refuerza la urgencia de crear un nuevo modelo de regulación. El fuego no está contenido”, señala Delphine Halgand.
El informe Infodemics presentó 250 recomendaciones para estas plataformas a 38 países, entre las que se enumera la necesidad de una regulación pública para imponer requisitos de transparencia a los proveedores de servicios en línea; un nuevo modelo de metarregulación en lo que respecta a la moderación de contenidos; sanciones por incumplimiento que podrían incluir multas elevadas, publicidad obligatoria en forma de carteles, responsabilidad del director ejecutivo y sanciones administrativas, como el cierre del acceso al mercado de un país; y que las plataformas deben expandir el número de moderadores y gastar un porcentaje mínimo de sus ingresos para mejorar la calidad de la revisión de contenido.
Comenta
Por favor, inicia sesión en La Tercera para acceder a los comentarios.