Sandra González-Bailón: “Hay algo en el diseño de Facebook que favorece la desinformación y los contenidos de baja calidad”

Sandra González-Bailon
La socióloga y académica española Sandra González-Bailon.

La socióloga española y académica de la Universidad de Pensilvania dirigió un estudio con datos internos de Facebook sobre el consumo de contenidos noticiosos y desinformación en Estados Unidos, para las elecciones presidenciales de 2020. La próxima semana dictará una conferencia en la Universidad Adolfo Ibáñez.


Hace una década, entre 2011 y 2012, la Primavera Árabe y el movimiento indignados en España lograron una resonancia inusitada gracias a las redes sociales. Plataformas como Facebook y Twitter fueron vistas entonces como sinónimos de libertad, espacios que favorecían el activismo y la expresión ciudadana, especialmente en regímenes opresivos. Desde entonces el péndulo se ha movido en otra dirección, observa la socióloga española Sandra González-Bailón. A menudo, hoy se asocia a las redes sociales con polarización y desinformación, dos fenómenos que amenazan la democracia.

-Como siempre, yo creo que la verdad está un poco en medio. Es cierto que las plataformas han exacerbado ciertos desórdenes y animosidades, pero no las crean. La pregunta entonces es en qué sentido las están exacerbando y por qué -dice desde Filadelfia.

Doctora en Sociología por la Universidad de Oxford, Sandra González-Bailón es académica de la Escuela Annenberg de Comunicación y directora del Centro de Redes de Información y Democracia de la Universidad de Pensilvania. El próximo miércoles visitará Santiago para participar en la conferencia “Repensar la cultura digital: plataformas, polarización y desinformación” , organizada por la Universidad Adolfo Ibáñez.

-A las plataformas las culpamos de muchas cosas y son responsables de muchas de ellas, pero en otras no tienen la culpa. Este es un debate en el que la estructura y la agencia están en constante interacción. Las plataformas ponen la estructura y un tipo de agencia, en el sentido de que tienen sus objetivos como corporaciones, y luego estamos los usuarios que tenemos nuestras propias motivaciones y nos comportamos con cierto grado de libertad. Y usamos esa libertad para hacer ciertas cosas que no siempre se alinean con nuestros principios normativos de lo que una democracia debería ser.

Sandra González-Bailón dirigió el estudio más exhaustivo que existe hasta la fecha con datos internos de Facebook. Con motivo de las elecciones presidenciales en Estados Unidos, su investigación analizó datos de 200 millones de usuarios relativos al consumo de informaciones y contenidos de naturaleza política, entre julio de 2020 y enero de 2021. El análisis reveló un diseño tipo embudo: desde todo el inventario de contenidos disponibles para cada usuario, luego el que estos vieron y el que finalmente decidieron compartir.

Publicados en la revista Science, los resultados arrojaron conclusiones sorpresivas. Una de ellas tiene que ver con la segregación de los usuarios entre liberales y conservadores.

-Básicamente vimos que liberales y conservadores, en el contexto norteamericano, consumen distintos tipos de noticias, es como que viven en realidades paralelas. Y observamos que esa segregación ya existe a nivel del inventario, o sea, nuestras redes están segregadas, pero el nivel de segregación aumenta a medida que vas bajando por este embudo, tanto por el algoritmo de curación como por nuestras decisiones sobre con qué interactuamos.

La segunda conclusión y la más controversial tiene que ver con el consumo del contenido identificado como desinformación.

-Vimos que el 97% de las noticias que habían sido verificadas y etiquetadas como falsas eran consumidas predominantemente por usuarios conservadores, es decir, casi todo el contenido etiquetado como desinformación era consumido por ellos.

Sandra González-Bailón hace un pausa y pone un asterisco: la cantidad de contenido etiquetado como falso era minoritario, del orden del 1%.

-Con estos datos, que son los mejores datos que se han tenido nunca sobre Facebook, podemos decir que la desinformación es una fracción muy pequeña. Ahora bien, esta fracción está muy concentrada en un grupo de usuarios muy concreto, que son usuarios conservadores muy activos.

El estudio arrojó otra conclusión colateral: los medios que proporcionan las informaciones problemáticas son de dudosa reputación, sus contenidos son de baja calidad y su tráfico en la web es periférico. Sin embargo, en Facebook logran una atracción superior a la que obtienen en la web, donde los medios tradicionales concentran las preferencias.

-La cuestión es si hay algo arquitectónico o de diseño en la plataforma de Facebook que permite que estas organizaciones mediáticas que proveen contenidos de baja calidad sean más visibles. Si no fuera por Facebook serían mucho más periféricas. ¿Qué es lo que permite que estas organizaciones logren tanta visibilidad en Facebook? Esa es una pregunta a la que no respondemos directamente, pero hay algo en la construcción, en el diseño de estas plataformas que de alguna forma favorece la desinformación y los contenidos de baja calidad.

Fake

¿Quiere decir que Facebook facilita este tráfico?

Hay una discrepancia de visibilidad: estos sitios son mucho más visibles en Facebook. En sus primeros años, Facebook no tenía páginas ni grupos, pero en un momento dado decidieron facilitar este tipo de cuentas. Muchas de las fuentes no fidedignas surgen de páginas y de grupos, y luego, evidentemente, está el tema, por ejemplo, del botón de compartir, lo que permite la viralidad. El botón de compartir se introdujo en 2010, fue una decisión de diseño. Hay organizaciones y toda una maquinaria de producción de contenido que ha prosperado en Facebook dados los diseños de esta plataforma, pero también hay una demanda, y esa demanda no la crea Facebook, quizá la refuerce, pero no la crea Facebook.

La desinformación y la propaganda durante las campañas políticas siempre existió. ¿Qué distingue el fenómeno actual?

Yo les digo a mis alumnos que las redes siempre han facilitado las grandes revoluciones. En Leipzig, en 1989, antes de que cayera el Muro de Berlín, estaban las protestas de los lunes, iban por la avenida que circunda la ciudad, y era el equivalente del newsfeed actual, permitía que la información fluyera, que la gente se sumara y que se alcanzara una masa crítica. La propaganda es lo mismo, siempre ha existido. Lo que ha cambiado es la infraestructura que permite que esta difusión sea mucho más rápida y se te vaya de las manos muchos antes. Lo que han permitido las plataformas y las redes digitales es que se puedan incendiar de forma mucho más rápida y tienen mucho mayor alcance: no hay mucho coste en publicar, no hay mucha fricción a la hora de compartir, entonces, acelera dinámicas que no son nuevas; lo nuevo es la rapidez y la repercusión que en una cuestión de horas pueden tener. La propaganda se consideraba que era cuestión de los gobiernos, de los Estados, y ahora la desinformación está en manos de cualquiera. Y en este momento estamos en otro punto de inflexión en la evolución de estas tecnologías con la irrupción de la inteligencia artificial generativa. Si ya era fácil publicar contenidos, ahora va a ser mucho más fácil no solamente publicarlos, sino personalizarlos de tal modo que te hablen a ti, ya no como miembro de una categoría social, sino como individuo de una manera muy personalizada.

Que la desinformación sea minoritaria, ¿le quita gravedad?

Las élites políticas tienen un poder de alcance crucial. Donald Trump era el mentiroso oficial del país. El poder de alcance de estas personalidades en plataformas y fuera de ellas es enorme. También es cierto que cuando hay una revolución, sólo necesitas una, o sea, solo necesitas una toma de la Bastilla; cuando hay un asalto violento en el Capitolio, solo necesitas uno para que las cosas se desmadren y salgan mal. Aunque sepamos que solo es una minoría, muy comprometida, de los usuarios de estas plataformas que están obsesionados con información problemática, con desinformación, eso no quita que no tenga la capacidad en un momento crítico determinado de tumbar el equilibrio general y de liarla. El hecho de que algo sea marginal y minoritario no significa que no pueda ser un problema en determinadas circunstancias de violencia política.

¿Y en ese sentido no es exagerado decir que la democracia está asediada por la desinformación y la polarización de redes sociales?

Yo creo que la democracia está pasando por un momento crítico de falta de confianza en las instituciones, de conflicto, y eso es real. Tengo mis dudas de que la culpa de esto la tengan las plataformas. Las plataformas son una pieza más en este tapiz complejo de la contingencia histórica en la que estamos en este momento y, como sabes, la investigación o incluso la labor periodística no puede atacarlo todo al mismo tiempo, es imposible. Lo cual no quiere decir que no tengamos que pedir mayor transparencia, porque el poder que las redes tienen es inmenso, y la desinformación es un tipo de contenido problemático, pero están pasando muchas cosas por debajo del radar, contenido que se etiquetaría como problemático, pero por otras razones: porque es tóxico, porque no falta a la verdad, pero es engañoso en la manera en que la enmarca. El problema no es solo la desinformación, hay otro tipo de desórdenes informativos que pueden ser problemáticos, porque exacerban este tipo de conflictos, de toxicidad, de erosión de normas democráticas. Y las plataformas son muy opacas, muy cerradas. Estos estudios de los que hablábamos son la excepción, no son la regla. En el momento en que empezamos esta colaboración con Facebook, la esperanza que teníamos es que fuera el comienzo y ha sido todo lo contrario.

EE:UU
Imagen del asalto al Capitolio por seguidores de Donald Trump. Foto: La Tercera/Archivo

¿Los algoritmos favorecen el contenido problemático?

Favorecen los clics. El contenido problemático suele ser muy visceral, suele apelar al miedo, suele apelar a una serie de emociones para que tú reacciones. Hay evidencia que sugiere que hay un proceso de amplificación, de que el contenido más problemático es el que los algoritmos ven más, porque la gente reacciona más a él. Pero también es verdad que no todo es algorítmico. O sea, las minorías adquieren mucho poder en la red, porque son las que generan la mayoría de estas migajas de pan que los algoritmos luego van a recoger y analizar. Digamos, los usuarios que tienen unas visiones políticas muy enraizadas y que tienen unas posiciones muy inamovibles, muy extremas, y son muy vociferantes. La mayoría de las poblaciones están en el promedio, no están en los extremos. Y muchas de las cosas que suceden en las redes no son comportamientos promedio, son comportamientos extremos. Y, de nuevo, los algoritmos responden a esto, pero no lo crean.

Detrás de esto está también la lógica comercial: finalmente las redes son un negocio.

Con el cambio de la web a las plataformas, pasamos de un ecosistema abierto a estos jardines cerrados que son las aplicaciones. Los buscadores en la primera época de la web tenían fuerza centrífuga, tú buscabas y te mandaban a otro sitio. En estas plataformas es todo muy centrípeto, la intención es que pasen la mayor parte del tiempo pegado a la pantalla de su feed. Al final lo que intentan maximizar es el tiempo que pasas en la plataforma y da igual que para conseguir eso te den fastfood en lugar de comida sana, da igual si eso lo consigue con contenido de baja calidad, al algoritmo a eso le da igual.

¿Facebook y las redes deberían combatir la desinformación?

Absolutamente, y están haciendo mucha investigación internamente que supongo que tiene ese objetivo, pero es una organización muy compleja. Como ciudadana y como científica estoy totalmente de acuerdo, deberían de tener esta responsabilidad, y si no lo quieren hacer voluntariamente deberíamos obligarlos a que lo hicieran. Mi pequeña contribución aquí es abogar por trabajo de investigación independiente que nos dé la evidencia necesaria para poder demandar las responsabilidades. Pero me parece que estamos de acuerdo en que estas plataformas si están dañando nuestros sistemas democráticos deberían dejar de hacerlo. La pregunta es por qué lo están haciendo y qué parte de su funcionamiento debería modificarse. Necesitamos más transparencia, sin transparencias en acceso a datos no podemos investigar y no tenemos evidencia, y eso significa que tenemos que regular y demandar responsabilidades a ciegas, y yo creo que es el peor escenario.

Elon Musk está enfrentado a los gobiernos de Australia y Brasil por tratar de combatir la desinformación en redes. Los trató de fascistas.

No estoy de acuerdo en nada de lo que dice Elon Musk, pero no es un problema fácil de resolver. ¿Dónde trazas la línea de la expresión permisible? ¿Dónde trazas la línea del contenido problemático? En Europa, quizá por la historia que hemos tenido con los fascismos, se piensa de una manera muy distinta a como se piensa en Estados Unidos, donde la libertad de expresión va por encima de todo. Aquí volvemos al tema de descentralizar el proceso de toma de decisión. Yo creo que lo más problemático es el todo vale y luego centralizar esa toma de decisión de cómo se van a regular los contenidos a puerta cerrada, sin ningún tipo de debate público. Son cuestiones muy difíciles de resolver y precisamente porque son tan difíciles no deberían de estar en manos de corporaciones cuyos objetivos son básicamente capitalistas, que no tienen necesariamente el bien común como prioridad número uno.

Comenta

Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.