Guillaume Chaslot es el fundador de AlgoTransparency, un proyecto que demanda una mayor transparencia por parte de las plataformas en línea. Además trabajó para Google en el algoritmo de recomendación de Youtube y fue precisamente esa experiencia la que lo motivó a crear su nueva organización.

"No es intrínsecamente horrible que YouTube use inteligencia artificial para recomendarte un video, porque si la IA está bien sintonizada, puede ayudarte a obtener lo que deseas. Esto sería increíble. Pero el problema es que la IA no está diseñada para ayudarte a obtener lo que deseas, sino que está diseñada para hacerte adicto a YouTube. Las recomendaciones fueron diseñadas para perder su tiempo ", recalcó Chaslot en conversación con The Next Web.

El informático explicó, en una conferencia DisinfoLab, que el tiempo de observación de un video es la métrica que utiliza el algoritmo para determinar cuáles son las recomendaciones que debe realizar. En ese sentido, aunque eso podría ser genial para una empresa que intenta vender anuncios publicitarios, Chaslot asegura que no refleja necesariamente lo que el usuario quiere. De hecho, sostiene que por eso el contenido sensacionalista o el que está hecho para dividir opiniones es recomendado ampliamente, incluyendo a las teorías de conspiración como el terraplanismo o noticias falsas.

Aunque un portavoz de Youtube, en la misma conferencia, aseguró que han realizado estudios que indican que la gente pasa más tiempo con el contenido de calidad, Chaslot no está de acuerdo.

"Tenemos que darnos cuenta de que las recomendaciones de YouTube son tóxicas y pervierten la discusión cívica. En este momento, el incentivo es crear este tipo de contenido límite que sea muy atractivo, pero no prohibido", agregó el informático.

Chaslot explicó que creó una herramienta que permite que las personas supervisen lo que realmente está siendo recomendado por Youtube, ya que busca qué videos son los compartidos por la mayoría de los canales.

Por ejemplo, cuando fue liberado el reporte Mueller, sobre la posible colusión entre Rusia y la campaña de Donald Trump, uno de los video que salía al tope de las recomendaciones era un informe de RT, el canal de noticias amparado por el estado ruso. De ahí que su contenido era pro-Kremlin y su narrativa cuestionaba a los medios masivos estadounidenses. Los mismos que Trump critica.

"Era muy extraño ver que una gran cantidad de canales recomendaran este video, comparado con la cantidad de vistas que tenía. La cosa extraña es que nadie entendía realmente por qué estaba sucediendo", agregó.

Google, sin embargo, descarta la metodología utilizada por AlgoTransparency y explica que no refleja realmente cómo funciona su algoritsmo de recomendación.

"Como con la mayoría de las afirmaciones hechas por AlgoTransparency, no hemos podido reproducir los resultados aquí. Hemos diseñado nuestros sistemas para garantizar que el contenido de las fuentes autorizadas aparezca de manera prominente en los resultados de búsqueda y vea las siguientes recomendaciones en ciertos contextos, incluso cuando el espectador está viendo contenido relacionado con noticias en YouTube", explican desde la compañía.

Pero Chaslot simplemente recomienda borrar la función de videos recomendados, a través de extensiones como "Nudge", pues es inevitable hacer click en los aspectos adictivos de la navegación.