Santiago fue amable con Eve Andersson y le presentó su mejor cara. La ejecutiva de Google que encabeza el equipo a cargo del desarrollo de aplicaciones de accesibilidad aterrizó casi al tiempo que la lluvia se retiraba para presentar aquella postal de aire limpio que suele impresionar a las visitas. Más desde las alturas de las oficinas de la empresa californiana en Chile. Al día siguiente las nubes volvieron, a tiempo para que ella fijara su atención en otra postal: el panorama de cómo las herramientas de la Inteligencia Artificial han posibilitado el trabajo en productos de accesibilidad. Ese fue el tema de su presentación en el marco del lanzamiento del Primer Índice Latinoamericano de IA, desarrollado por el Centro Nacional de Inteligencia Artificial (CENIA), realizado el viernes pasado en el auditorio del edificio de la CEPAL, en Vitacura.
Andersson describió el aporte de aplicaciones como Lookout, lanzada en 2019, orientada a usuarios con ceguera o capacidad de visión limitada y que en su última versión agregó una función de “pregunta y respuesta de imagen”, usando IA para captar imágenes y describirlas, y al mismo tiempo responder a consultas que haga el usuario sobre ella. También habló de desarrollos como el subtitulado automático e instantáneo de cualquier contenido con sonido -ya sea en un dispositivo Android o en un computador usando aplicaciones como Chrome o Google Meet- orientado al público con discapacidades auditivas.
-Ustedes en Google han estado trabajando con IA durante mucho tiempo. Pero la población general ha estado experimentando con estas herramientas sólo desde hace unos meses, ¿ha marcado eso una diferencia para ustedes?
-Es cierto, hemos estado en este camino por un tiempo. Yo he estado trabajando en accesibilidad, personalmente, durante 10 años. Y desde el principio vimos el potencial de la IA para resolver problemas. Colaboramos muy profundamente con personas en la investigación de la compañía, pero descubrimos que los modelos no eran realmente prácticos la mayor parte del tiempo, cuando se trataba de escalar o simplemente trabajar con ellos. Fue hace unos cinco años que las cosas realmente comenzaron a cambiar y entonces desarrollamos herramientas como Lookout, que por supuesto usa modelos de visión por computadora para diferentes tareas. Y tenemos otras aplicaciones que usan diferentes elementos de IA para ayudar a comprender la pantalla, comprender lo que está haciendo el usuarios, e incluso para las herramientas internas que usamos dentro de Google, estamos usando IA para hacer mejores pruebas incluso antes de que llegue a las pruebas de los usuarios. Así que está integrado en todo lo que hacemos y ni siquiera puedo imaginar el trabajo sin él en este momento.
-En la lógica de la competencia y diferenciación entre plataformas y sistemas operativos, ¿Qué tan universales son los criterios cuando se trata de desarrollar herramientas de accesibilidad para personas con alguna discapacidad?
-Los servicios de accesibilidad son completamente diferentes en Android e iOS solo porque los sistemas operativos son diferentes y los lenguajes de programación son diferentes. Por supuesto, algunas de las mismas API se pueden usar al desarrollar los servicios, pero es bastante distinto. Sin embargo, en varias plataformas de Android, se puede reutilizar mucho. Eso no quiere decir que el 100% pueda porque algunos teléfonos, por supuesto, tienen procesadores más potentes, etcétera. Pero en general, si una persona desarrolla una aplicación de accesibilidad, entonces funcionará en diferentes dispositivos Android. Y, de hecho, esto que menciono es interesante: “si una persona desarrolla una aplicación de accesibilidad”; las API de accesibilidad de Android están abiertas, de manera que cualquiera puede desarrollar un servicio de accesibilidad en Android. Por supuesto, Google crea bastantes; mi equipo y otros equipos de la empresa construimos servicios de accesibilidad. Pero cualquier desarrollador externo, cualquiera que quiera hacer algo especial. Porque las discapacidades son realmente diversas y, a veces, las personas tienen diferentes combinaciones o diferentes preferencias. la aplicación lista para usar no es exactamente lo que quieren. Pero esa es una parte clave de lo que hacemos.
-¿Qué otras aplicaciones han desarrollado en esta línea?
-Por ejemplo, en el ámbito de las discapacidades auditivas, tenemos una aplicación llamada Live Transcribe. Está disponible aquí en Chile y en español, por supuesto. Y esto es para personas sordas o con dificultades auditivas para ayudarlos cuando tienen conversaciones, generalmente conversaciones uno a uno, y simplemente transcribe lo que las personas dicen. Pero lo interesante es que recientemente también agregamos una comprensión sólida. Así que no la comprensión del habla, sino el sonido. Entonces, si hay un golpe en la puerta, o un timbre, o un bebé llorando, también lo refleja.
-En otra área de su empresa también han desarrollado un programa para dar oportunidades de carrera para personas neurodiversas. En torno a ese tema las concepciones han cambiado bastante, desde el propio término para referirse, por ejemplo, a las personas dentro del espectro autista, a la conversación sobre cuándo es una condición o simplemente una diferencia. Y en general se asume que no sólo las personas con cualquier diferencia deban adaptarse al mundo, sino que también el mundo debe adaptarse a ellas. ¿Cómo abordan ustedes esos temas al desarrollar iniciativas como esta?
-Sí, me encanta y estoy totalmente de acuerdo con esa filosofía. No creo que la carga deba recaer sobre las propias personas. El mundo necesita adaptarse. Y eso es a través de la tecnología, en la que trabaja mi equipo, y también a través del comportamiento más humano, la aceptación social y todo aquello. No estoy personalmente involucrado en el programa de contratación de personas neurodiversas al que usted se refirió, pero sé que adaptamos bastante nuestras prácticas en Google para asegurarnos de crear un entorno inclusivo para las personas. Hay varias maneras diferentes en que hacemos eso. Una es asegurarse de que la contratación sea inclusiva: los entrevistadores y los reclutadores están capacitados para poder adaptarse a diferentes estilos durante el proceso, porque, obviamente, las mismas cosas no van a funcionar para todos. También hay capacitación de ejecutivos, y personalmente me he beneficiado de ese coaching.
-Cómo concilian las preocupaciones sobre la privacidad de datos planteadas por los reguladores con la necesidad de recabar datos sobre el grupo de usuarios para los que crean aplicaciones de accesibilidad?
-La privacidad es un tema enorme, hay un debate cada vez mayor sobre eso con los legisladores y el público en general. Por eso tratamos de desarrollar nuestras aplicaciones preservando la privacidad en la medida de lo posible, o al menos dando a los usuarios la opción. Por ejemplo, en Lookout el reconocimiento de imágenes se hace offline, reconoce objetos usando un modelo desconectado de Internet, no tiene que hablar con un servidor y los datos no se almacenan en el servidor. Sin embargo, hay cosas más avanzadas que se pueden hacer y, por lo tanto, al usuario se le puede dar la opción de usar tecnologías basadas en servidor más avanzadas.
-Pero al mismo tiempo el usuario puede beneficiarse mucho de compartir más información sobre lo que está haciendo con las aplicaciones..
-Así es, es un intercambio. Pero los usuarios tienen diferentes preferencias a lo largo de ese espectro. Y, cuanto más opciones puedas darles, mejor.
-Y, en general, ¿cómo cree que se ha llevado a cabo o desarrollado la conversación sobre las herramientas de IA en este sentido?
-Bueno, una de las cosas es que me parece una lástima que a la inteligencia artificial se le llame así, porque no tiene nada que ver con inteligencia. En realidad es sólo un tema de optimización. He trabajado en muchos desarrollos de modelos de Machine Learning, y eso es: optimización. Si se lo llamara así, creo que la gente no se asustaría. Pero la gente escucha ese término (IA) y piensa en mundos distópicos. La regulación, por supuesto, es importante, estoy a favor de ella. Pero la sobrerregulación puede conducir simplemente a la falta de innovación, al miedo a probar cosas nuevas. Como mencioné, personas de todo el mundo están desarrollando servicios de accesibilidad y usan IA a menudo, y una regulación excesiva de eso en realidad dañaría a las personas con discapacidades que pueden beneficiarse de estas aplicaciones.
-¿Tiene que trabajar de forma diferente cuando piensa en los mercados europeos, considerando que la Unión Europea tiene una regulación más estricta?
-Sí definitivamente. Hemos tenido que cumplir con GDPR (General Data Protection Regulation), como todos los demás. Y eso significaba que también teníamos que pensar en cómo almacenamos los datos para nuestras aplicaciones de accesibilidad. Pero creo que como habíamos diseñado todo con la privacidad en mente, no fue un gran problema, y no siento que haya degradado la calidad de las aplicaciones, afortunadamente.
- ¿Cómo ve a las diferentes empresas tecnológicas trabajando en la dinámica de competencia versus colaboración cuando se trata de servir a las personas con discapacidad?
-Una de las cosas que me encanta de trabajar en accesibilidad es que todos queremos subir el agua para todos los barcos. Entonces, por ejemplo, en Google lanzamos bibliotecas abiertas de accesibilidad de IOS para que las usen los desarrolladores. Y colaboramos en varias cosas. Por ejemplo, hay un proyecto de accesibilidad del habla en el que la Universidad de Illinois Urbana-Champaign está colaborando con nosotros, Microsoft, Amazon, Meta y otros para desarrollar un mejor reconocimiento del habla para personas con patrones de habla no estándar. Esta es una gran colaboración. Si podemos aunar recursos y compartir y colaborar con esta universidad, que también ayuda con el objetivo de preservar la privacidad, entonces podemos hacer más de lo que podríamos hacer por nuestra cuenta.