Dos mujeres que se están preguntando qué tan machista es Google
¿Alguna vez nos hemos preguntado por qué al buscar conceptos como “chicas latinas” en Google o “mujeres negras”, “chicas asiáticas” o cualquier otra minoría étnica -en femenino- los resultados en una búsqueda de imágenes son predominantemente contenido sexual? Safiya Noble fue una de las primeras voces que trató de llevar atención hacia este problema. En un ejercicio muy ilustrativo y que dio el puntapié inicial a su investigación en 2009, la socióloga especializada en estudios étnicos, realizó una serie de búsquedas en internet bajo la frase “black girls” (”chicas negras”). Sorprendentemente para Safiya, en ese entonces la avasalladora mayoría de los resultados obtenidos era contenido pornográfico. Lo mismo se repetía para chicas latinas y asiáticas. “Estamos tan acostumbrados a ver a las mujeres asociadas con pornografía e hipersexualizadas, que fue muy difícil convencer a otros de que esto era un tema relevante”, explica Safiya en una de sus presentaciones TED, que ya acumula más de 25 millones de visitas.
La información que recibimos de parte de nuestro entorno sobre quiénes y cómo somos no es irrelevante. Los psicólogos norteamericanos Kenneth and Mamie Clark, así lo confirmaron ya en la década del 40. Mediante experimentos utilizando muñecas de raza afroamericana y otras de raza caucásica presentados a niños, los Clark fueron capaces de demostrar de forma concluyente que la mayoría de los participantes percibían los juguetes de piel clara y pelo rubio como mejores y los calificaban con atributos buenos en contraposición a los de piel negra. Incluso los niños afroamericanos. La conclusión de los estudios —que incluso fue aplicada por jueces y fallos en tribunales— es que en un entorno que los percibía como inferiores, los niños afroamericanos se veían a sí mismos como inferiores también.
La actual investigadora de la Universidad de California, ha dedicado los últimos 10 años de su carrera a una investigación que la apasiona y que culminó con la publicación de un libro titulado Los algoritmos de la opresión. “Hay un problema con los resultados de los motores de búsqueda y es que no representan de forma adecuada a niñas y mujeres”, explica Safiya en su charla TED. Y si bien la experta reconoce que herramientas como Google son muy poderosas y beneficiosas en muchos sentidos, explica que deben ser usadas con precaución y teniendo ciertas consideraciones en mente. “Lo que no vemos son los dilemas éticos, los prejuicios que inherentemente forman parte del sistema y las formas en las que el dinero influencia los tipos de resultados que obtenemos”, comenta Safiya.
Y ese es precisamente el foco de la investigación de la académica de origen suizo Anna Jobin. La socióloga dedicada a estudiar las dimensiones sociales de los algoritmos utilizados en internet, ha puesto su foco en cómo operan los mercados detrás de un motor de búsqueda como Google y por qué estos influyen en los estereotipos de género que se reflejan en nuestras búsquedas en internet.
Durante una campaña de concientización realizada por ONU mujeres en 2013, se invitó a realizar búsquedas en Google asociando la palabra mujeres al verbo deber y esperando que el buscador sugiriera el resto. Los resultados fueron sorprendentes: “las mujeres deberían quedarse en la casa”; “las mujeres deberían ser esclavas”; “las mujeres deberían ser puestas en su lugar”. Estos son solo algunos de los ejemplos que la función de auto completar de Google sugería a los usuarios en la búsqueda cuando ingresaban la frase “las mujeres deberían”. En un complejo sistema que conecta millones de resultados de información con usuarios ávidos por ella, utilizando algoritmos sofisticados para hacer un calce perfecto entre lo que buscamos y lo que realmente queremos, es difícil determinar dónde está el origen del problema.
En una publicación para Sociostrategy, Anna Jobin explicó que la función de autocompletar en los buscadores funciona como una especie de prótesis de lenguaje y opera incluso antes de que podamos aplicar nuestros propios sesgos a la búsqueda. “El autocomplete media entre nuestro pensamiento y la forma en que lo expresamos en lenguaje escrito. Y toda esta mediación hecha por algoritmos es particularmente poderosa porque no corrige después de escribir, sino que sugiere antes”, explicó la especialista. En este sentido, es posible afirmar que buscadores como Google sugieren prejuicios a través de sus logaritmos antes de que podamos plasmar los propios, porque actúan antes de que siquiera apretemos Enter.
Anna Jobin plantea que frente a esto no se trata de exigir mayor veracidad a Google, sino de entender que este no es el fiel reflejo de la sociedad que muchos creen. “Google no es el espejo objetivo que dice ser”, comenta Anna en su texto. “Google es una compañía que opera de la forma que estima conveniente y en vez de enfocarnos en exigir veracidad, deberíamos exigir responsabilidad”. Es por esto que la académica propone que, más allá de lo representativos o no que sean los resultados que ofrece el buscador, este debe hacerse responsable por la información que provee en un universo que pareciera simplemente estar regido por algoritmos. “No quiero decir que los resultados negativos y estereotipados en una búsqueda de Google sean su intención. Pero esto tampoco quiere decir que Google sea completamente inocente. La responsabilidad social va más allá de la opción binaria de intencionalidad o completa inocencia”, explica Anna.
Comenta
Por favor, inicia sesión en La Tercera para acceder a los comentarios.