Alexander Nix
Alexander Nix, CEO de Cambridge Analytica. Foto: Reuters

Facebook y Cambridge Analytica: Un escándalo anunciado

Los analistas han estado sonando la alarma sobre las firmas recolectoras de datos en Facebook durante casi una década. La última crisis, revelada tras una exhaustiva investigación del diario The Guardian, muestra que quizás sea demasiado tarde para detenerlas.


La noche del viernes antepasado, Facebook suspendió la cuenta de Cambridge Analytica, la compañía de datos de índole política respaldada por el multimillonario Robert Mercer y que operó como consultora en las campañas del Brexit y del Presidente estadounidense, Donald Trump. La medida se ejecutó justo antes de que The Guardian y The New York Times publicaran artículos en los cuales el informante Christopher Wylie, quien ayudó a fundar la empresa, declarara que Cambridge Analytica había usado datos que un académico había extraído de manera inapropiada de la red social. Estas informaciones, respaldadas por el relato de Wylie y documentos internos, salieron a la luz tras años de reporteo de The Guardian y The Intercept.

Los detalles parecen bizantinos. Aleksandr Kogan, por ese entonces un académico de Cambridge, fundó la compañía Global Science Research e inmediatamente tuvo un gran cliente llamado Strategic Communication Laboratories, el cual eventualmente dio nacimiento a Cambridge Analytica (Steve Bannon, un asesor de la empresa y ex colaborador de Trump, supuestamente, eligió el nombre).

La promesa de la empresa de Kogan consistía en ser capaz de construir perfiles sicológicos de vastas cantidades de personas usando datos de Facebook. Esos perfiles, a su vez, podrían ser útiles para afinar los mensajes políticos que Cambridge Analytica enviaba a potenciales votantes. Tal vez un cierto tipo de mensaje podría cautivar más a los extrovertidos, los narcisistas o la gente más amable.

Para reunir esa información, reporta el diario Times, Kogan contrató a un grupo de trabajadores a través de la red Mechanical Turk de Amazon -una especie de mercado laboral para tareas que todavía exigen inteligencia humana- y los hizo instalar una app de Facebook en sus cuentas. La aplicación, construida por Global Science Research, recopilaba una cantidad inusual -pero no insólita- de datos sobre los mismos usuarios y sus amistades. Así fue como 270.000 miembros de Turk terminaron proveyendo 30 millones de perfiles de usuarios estadounidenses de Facebook que podrían ser cotejados con otros sets de información.

Según el reporteo que existe hasta ahora, parece que Kogan violó los términos de servicio de Facebook al decir que estaba usando los datos para estudios académicos, cuando en realidad se los vendía a Strategic Communications Laboratories. Eso es lo que metió a Cambridge Analytica y Kogan en problemas (Cambridge Analytica le dijo a The Guardian que no está en posesión de los datos ni que tampoco usó nada de esta información en la elección presidencial estadounidense de 2016. Una fuente anónima en la historia del Times pone en duda esa afirmación).

Hay varias cosas sobre Cambridge Analytica que no calzan. ¿Son genios de los datos que lograron cambiar el voto que finalmente determinó el Brexit y que también hicieron que Trump resultara elegido? ¿O son farsantes que engañan a todos para obtener grandes y jugosos contratos? Justo después de la elección de Trump, varias historias apuntaban a los perfiles sicológicos que la compañía hizo de los votantes como un factor crucial de la máquina digital de Trump. A medida que pasó el tiempo, el rol de la empresa fue visto como menos importante, más en línea con la delgada tajada del tesoro que obtuvieron de la campaña de Trump, algo así como US$ 6 millones.

Si bien los detalles específicos de esta particular violación son importantes de entender, la historia revela verdades más profundas sobre el mundo en línea que opera a través y al interior de Facebook. En primer lugar, parte del crecimiento de Facebook ha sido impulsado por apps, luego que la compañía se diera cuenta de que estas extendían el tiempo que la gente pasa en la plataforma, tal como pueden atestiguar los usuarios del juego FarmVille, que opera en la red social. Para atraer desarrolladores, Facebook tuvo durante años políticas de manejo de datos bastante laxas (o, como algunos dirían, "amistosas para los desarrolladores").

A comienzos de esta década, investigadores universitarios empezaron a publicar advertencias sobre las apps de Facebook elaboradas por terceros y cómo estas representaban una gran fuente de posibles vulneraciones a la privacidad. Algunos hicieron notar que las amenazas inherentes que surgían al compartir datos con estas apps no siempre quedaban claras para los usuarios. Un grupo bautizó nuestra realidad como una "privacidad interdependiente", ya que nuestros amigos de Facebook determinan, en parte, nuestros propios niveles de privacidad.

Desde que existen las apps, ellas han requerido grandes cantidades de datos y la gente ha sido propensa a entregárselos. En 2010, investigadores de la Universidad Penn State registraron sistemáticamente qué datos estaban requiriendo las 1.800 apps más populares que operan en Facebook. Presentaron sus resultados en 2011 en el estudio "Aplicaciones de terceros en Facebook: privacidad y la ilusión del control". Una tabla mostraba que 148 apps estaban requiriendo permiso para acceder a la información de amigos de los usuarios.

Pero esa no es la única forma en que los amigos provocan la fuga de datos de sus propios contactos. Tomemos el ejemplo de permitir que una app vea nuestras fotos. Tal como muestran los investigadores de Penn State, todo tipo de información puede ser recolectada: quién aparece en las imágenes, quién marcó "me gusta" en cualquiera de ellas, quién las comentó y qué se dijo. Si alguien navegara sistemáticamente a través de todos los datos que se pudieran recoger sólo de la información básica de un usuario, esa persona podría construir una imagen decente del mundo social de ese individuo, incluyendo una cantidad sustancial de información de sus amigos.

Facebook ha endurecido algunas de sus políticas en años recientes, especialmente alrededor de las apps que acceden a la información de los amigos de los usuarios. Pero el artículo de The Guardian sugiere que los esfuerzos de la compañía por resellar la caja de Pandora han sido insuficientes. Wylie, el informante, recibió una carta de Facebook pidiéndole que borrara cualquier dato de esa red social casi dos años después de que la existencia de esa información fuera reportada por primera vez. "Para mí, eso fue lo más impactante. Esperaron dos años y no hicieron absolutamente nada para asegurarse de que los datos habían sido borrados. Todo lo que me pidieron fue marcar una casilla en un formulario y enviarlo de vuelta", dijo Wylie a The Guardian.

Pero incluso si Facebook fuera sumamente agresiva a la hora de vigilar este tipo de situación, lo que está hecho está hecho. No se trata de los datos que se han escapado, sino que del hecho de que casi con seguridad Cambridge Analytica aprendió todo lo que pudo de ellos. Como publicó The Guardian, el contrato entre GSR y Strategic Communications Laboratories establece, específicamente, que el producto final del set inicial de datos "es crear un 'estándar dorado' en la comprensión de la personalidad a partir de la información de perfil de Facebook".

Es importante reflexionar sobre esto. No se trata de que este análisis pudiera identificar cada votante de Estados Unidos sólo a partir de estos datos, sino que lograse desarrollar un método para clasificar a la gente basándose en sus perfiles de Facebook. Wylie cree que la información fue crucial para construir los modelos de Cambridge Analytica. Ciertamente parece posible que una vez que el "set inicial" fue usado para aprender cómo perfilar sicológicamente a la gente, esa información específica en sí ya no era necesaria. Pero la verdad es que nadie sabe sí los datos de Kogan tenían mucha utilidad en el mundo real de las campañas políticas. Perfilar sicológicamente suena macabro, pero la manera en que Kogan y Cambridge Analytica intentaron hacerlo la primera vez quizás haya probado ser, tal como sostiene la empresa, "infructuosa".

Entonces, ¿qué queda por hacer? Es posible que estos nuevos reportajes hagan que Facebook restrinja el uso de sus datos por personas ajenas a la compañía, incluyendo los investigadores legítimos. Pero esa clase de regulación autoimpuesta o externa podría no atacar el punto verdaderamente escalofriante de todas estas iniciativas.

Si el avisaje dirigido de Cambdrige Analytica funciona, las personas se preocuparán porque podrían ser manipuladas con información -o incluso pensamientos- que no han entregado a nadie de forma consentida. Y, socialmente, una democracia que opera en base a publicidad política microdirigida y procesada específicamente para segmentos cada vez más finos de la población seguramente va a estar en problemas, tal como advirtieron expertos como Zeynep y Tufekci en 2012 y 2014 ("Estos métodos terminarán empoderando las campañas mejor financiadas. Las bases de datos son caras, los algoritmos son propietarios, los resultados de los experimentos en campaña son secretos y los análisis requieren una expertise especial", escribía hace seis años Zeynep Tufekci, tecno socióloga de la Universidad de Carolina del Norte en Chapel Hill, en The New York Times).

Esas dos preocupaciones se extienden mucho más allá de Cambridge Analytica. De hecho, el mejor sistema para que los avisos microdirigidos, políticos o de otro tipo, lleguen a segmentos de la población particularmente fáciles de convencer es Facebook. Por eso el valor de mercado de la red social es de 500 mil millones de dólares.

En el sistema de avisaje de Facebook no existen restricciones para enviar avisos a las personas en base a atributos puntuales, tales como hombres mayores que se interesan en los "Estados confederados de América", en la Asociación Nacional del Rifle y que son "propensos a enganchar con contenido político conservador". Eso sin mencionar la habilidad para crear bases de datos de gente a partir de otras fuentes -registros electorales, información sobre hábitos de compra, afiliaciones a ciertos grupos o cualquier otra cosa recopilada por los cientos de empresas de datos en línea- y luego dejar que Facebook se encargue de cotejar a esa gente con sus perfiles en la red social. Facebook quizás nunca revele los nombres en una audiencia a avisadores o campañas políticas, pero los efectos son los mismos.

La laxitud de Facebook y la felonía de los investigadores son de interés noticioso. ¿Acaso el problema con las redes sociales que obvian la privacidad, la elaboración de perfiles sicológicos y los avisos políticos microdirigidos es que algún investigador violó los términos de servicio de Facebook? ¿O acaso es el hecho de que esta controversia provee una ruta para abordar los cambios casi impensables que se han producido en los procesos democráticos durante la era de Facebook?

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.