“Soy una presentadora de noticias generada por inteligencia artificial y estoy emocionada de unirme al Grupo Fórmula”, dice Nat, una joven virtual de voz tranquila y amable. Nat es la primera presentadora de televisión generada por inteligencia artificial en Latinoamérica y “trabaja” en una cadena de noticias mexicana; comparte espacio en vivo con los comentaristas de carne y hueso de toda la vida. ¿Y cómo es Nat? Una mujer joven, delgada, con ojos grandes y labios prominentes. Viste una blusa blanca bien ceñida al cuerpo y lleva los primeros botones desabrochados para dejar ver un escote de clavículas marcadas y pechos pronunciados. En su primera presentación en vivo, la mujer es entrevistada por el conductor principal, un hombre mayor que deja en evidencia el rol de esa robot: asistirlo y darle información, al igual como lo hacen Siri, Alexa, Cortana y otras voces femeninas, dulces y amables, generadas por la tecnología para mejorar nuestra calidad de vida.
¿Es coincidencia que sean mujeres y que estén representadas de esta forma?
Al parecer no tanto: La ONU, de hecho, publicó un informe sobre cómo estos asistentes digitales diseñados con nombres y voces femeninas -Siri de Apple, Alexa de Amazon y Cortana de Microsoft - refuezan y perpetúan los estereotipos sexistas sobre la mujer, haciendo un llamado a las empresas de tecnología a poner especial ojo en las repercusiones sociales que esto tiene. En el caso de las robots con imagen como Nat, estas son representadas con una apariencia femenina que sigue cánones de belleza sexualizados, pero no solo tiene que ver con la apariencia, sino también con una personalidad asociada a lo “femenino”, ya que estas asistentes están programadas para ser sumisas y serviles e incluso para responder de forma polite a los insultos (en un comienzo Siri respondía “me sonrojaría si pudiera” cuando la llamaban “puta”). “La sumisión de Siri ante el abuso de género, así como el servilismo expresado por muchos otros asistentes digitales proyectados como mujeres jóvenes, proporciona una potente muestra sobre los sesgos de género codificados en los productos tecnológicos”, indicaba el informe.
ChatGPT y perspectiva de género
Con el lanzamiento del ChatGPT, el prototipo de chatbot de inteligencia artificial desarrollado por OpenAI que se especializa en el diálogo, la reflexión sobre perspectiva de género e inteligencia artificial vuelve al debate y se profundiza más. Es cierto, el Chat no tiene nombre ni voz ni tampoco se identifica con algún género, pero al momento de responder a tus preguntas, sí evidencia sesgos preocupantes. Cuando le pido, por ejemplo, que me de una lista de los regalos ideales para niñas y luego para niños, en la primera me incluye regalos que desarrollen el arte y en el segundo regalos de construcción. Suena algo sin importancia, pero para algunos expertos esto es solo la punta del iceberg y estos sesgos que persisten en los conjuntos de datos, algoritmos y dispositivos de capacitación de la AI, tienen potencial para propagar y reforzar estereotipos, así como estigmatizar y marginar aún más a las mujeres.
¿Qué tanto sesgo de género tiene esta herramienta? Le pedí al mismo ChatGpt que me lo explicara y esto es lo que me contestó: “Como modelo de lenguaje entrenado en una gran cantidad de datos recopilados en línea, reflejo la perspectiva de género de la sociedad en la que se recopilaron esos datos. Por lo tanto, es importante tener en cuenta que los datos de entrenamiento pueden estar sesgados o reflejar estereotipos y prejuicios de género, lo que puede afectar mis respuestas”. Para explicarme más, el Chat me expone algunos ejemplos, partiendo por sesgos en los datos de entrenamiento: “Las IA aprenden a través de conjuntos de datos que contienen patrones y relaciones entre diferentes conceptos y palabras. Si los datos de entrenamiento están sesgados hacia un género en particular, la IA puede replicar estos sesgos en sus respuestas. Por ejemplo, si un conjunto de datos de entrenamiento para una IA de contratación de personal incluye principalmente perfiles de candidatos masculinos, la IA podría ser más propensa a recomendar candidatos masculinos para puestos de trabajo en el futuro.” Aquí evidentemente ya no se trata de algo anécdotico, sino de una realidad que podría profundizar la brecha laboral entre hombres y mujeres. El Chat también reconoce un sesgo en el modelo linguístico, que es cuando el lenguaje utilizado por una IA puede reflejar sesgos de género subconscientes, como estereotipos y roles de género tradicionales. “Por ejemplo, una IA puede utilizar pronombres masculinos para referirse a un grupo de personas de género mixto, lo que sugiere que los hombres son más importantes o relevantes que las mujeres”. Por último, el sesgo en diseño y programación: “Si un equipo de desarrollo de IA está compuesto en su mayoría por hombres, es posible que la IA resultante refleje los puntos de vista y experiencias de los hombres de manera desproporcionada.”
Efectivamente los ejemplos que da el ChatGPT son parte de las principales preocupaciones en materia de igualdad de género e IA; la discriminación que podría generar sesgos presentes en los datos que nutren los sistemas y un mal diseño en los algoritmos que terminen invisibilizando a la mujer. “Es importante tener en cuenta que estos sesgos pueden ser sutiles y difíciles de detectar, y que pueden tener efectos negativos significativos en la vida de las personas. Es necesario trabajar en el desarrollo de metodologías y prácticas para identificar y mitigar estos sesgos, para asegurarnos de que la IA se utilice de manera justa y equitativa para todas las personas, independientemente de su género”, me dice GPT. Es decir, la intención está, pero aún no es suficiente
¿Qué opinan las expertas?
Jocelyn Dunstan, académica del Departamento de Computación de la Universidad Católica e investigadora del Instituto Milenio Fundamentos de los Datos, afirma la necesidad de crear modelos no sesgados, lo cual, dice, es un tópico actual en ciencias de la computación, ya que desde varias perspectivas esto es preocupante. “Las máquinas aprenden de los datos de entradas, y puesto que en la web hay lenguaje de odio contra mujeres y etnias, el chat GPT y los modelos en general los reproducen y amplifican”. Por su parte, Barbara Poblete, académica del Departamento de Computación, Universidad de Chile, Investigadora del Centro Nacional de Inteligencia Artificial (CENIA) explica que, por defecto, las tecnologías basadas en LLMs (large language models o modelos de lenguaje grandes) como ChatGPT no están hechas para fomentar un mundo más igualitario: ojo con eso: “Esto ha sido ampliamente documentado en investigaciones realizadas en esta área. En este sentido, la automatización de procesos que pueden impactar la vida de las personas presenta un riesgo importante de perpetuar desigualdades. Es necesario trabajar proactivamente para que la IA sea equitativa, ya que no siempre se desarrolla con esto en mente. Es necesario incluir la perspectiva de grupos diversos, en particular de las mujeres, en todo diseño tecnológico, sobre todo si éste tendrá efectos en la vida de las personas. Es muy difícil detectar problemas en el diseño de las cosas si estos problemas nunca te van a afectar personalmente. Esto pasa mucho cuando hablamos de tecnología, que se caracteriza por ser desarrollada principalmente por hombres blancos en el Norte Global.”