Desde que asumió como ministra de Ciencia, Tecnología, Conocimiento e Innovación, en marzo de 2023, la abogada Aisén Etcheverry puso a la Inteligencia Artificial (IA) como una de las prioridades de esta cartera. Por ejemplo, ha sido una de las que ha empujado la creación del Índice Latinoamericano de Inteligencia Artificial, desarrollado por el Centro Nacional de Inteligencia Artificial (Cenia), que se presentó el 11 de agosto ante la Cepal y fue apoyado por gigantes tecnológicas como Google, Amazon Web Services y otras entidades como Hub APTA, el BID, la CAF, la Unesco, la OEA y la Universidad de Stanford. Su foco: la importancia de la IA para el desarrollo económico y social.
En términos legislativos, este ministerio está apoyando el proyecto de ley del diputado Tomás Lagomarsino (Partido Radical), que busca regular los sistemas de IA, robótica y tecnologías afines, el que está en discusión en la Comisión Futuro, Ciencias, Tecnología, Conocimiento e Innovación de la Cámara Baja.
Este mes, Etcheverry lideró el Foro de Altas Autoridades sobre IA que se llevó a cabo en Santiago, donde participaron ministros, ministras y encargados de políticas digitales y de IA de toda la región, el que culminó el 24 e octubre con la “Declaración de Santiago para promover una Inteligencia Artificial (IA) ética en América Latina y el Caribe”. “Es clave para el país darnos cuenta que estamos en un momento científico-tecnológico muy distinto de cuando, por ejemplo, llegó internet. Eso cambia totalmente la conversación y cómo nos apropiamos del tema de la IA”, comienza diciendo la ministra, quien sobre uno de los temas de la semana, la decisión de la china Sinovac de mayo de 2022 de abandonar un proyecto científico en Antofagasta, se limita a decir que las conversaciones con la empresa siguen abiertas (ver recuadro). “La IA es, probablemente, la tecnología más disruptiva de los últimos 30 años, con sus luces y sus sombras”, agrega la ministra.
¿A qué se refiere con luces y sombras?
-Aumenta la productividad en algunos casos, ya que entrega mejores servicios. Pero también podría generar ciertos riesgos asociados, como por ejemplo, sesgos. Nosotros estamos tomando un aire que ya venía del gobierno anterior con la Estrategia de IA, pero ahora estamos en un momento distinto, especialmente con la irrupción de la IA generativa (ChatGPT). Tenemos que actualizar la mirada y ver si queremos ser protagonistas de este desarrollo, pero a la vez, que nuestros ciudadanos estén resguardados. Por eso partimos con una actualización del capítulo de ética y regulación. Estamos de cabeza metiéndonos en abordar el tema regulatorio y nos sumaremos con propuestas concretas a la discusión el proyecto de ley del diputado Lagomarsino en las próximas semanas.
¿En qué línea van esas propuestas?
-Hay dos aristas. Una, que tiene que ver en cómo promovemos mayor innovación y desarrollo local de la IA. Incluso, ya tenemos ejemplos como las startups NotCo y Runway. En ese aspecto, estamos apoyando con fondos concursables para fortalecer la infraestructura de cómputo, además de tener una conversación abierta con la industria para saber cuáles son sus preocupaciones, qué tipo de capital humano necesitan, etc. Y la segunda parte tiene que ver con lo regulatorio en base a las preguntas que surgen.
¿Cuáles preguntas?
-Por ejemplo, surgen preguntas en el sector financiero para evaluar riesgos o, en materias vinculadas a la libre competencia. En la industria del retail también hay preguntas, como qué significa el uso de la IA a la hora de proponer ciertos productos sobre otros o de hacer análisis de los precios de los competidores. No digo que se esté usando mal en esos ámbitos, sólo que se debe tener presente. En el mundo pre-inteligencia artificial era relativamente fácil identificar cuándo había una práctica contraria a la norma vigente. Cuando interviene la IA se requieren herramientas que permitan que esos análisis puedan hacerse. Lo que tenemos claro es que la IA no puede ser una caja negra que nos impida ver qué está ocurriendo o cómo se están tomando las decisiones. En términos internacionales se habla de ‘explicabilidad’ y transparencia del algoritmo.
¿Explicabilidad y transparencia del algoritmo…? ¿Qué significa eso en términos sencillos y cómo se lleva a la práctica?
-Hay dos formas de abordar la IA. Por un lado, tengo un proceso, que redunda en un resultado, como pasa con las películas. Mi perfil del servicio de streaming me recomienda particularmente comedias románticas, pero cuando mi hijo de 15 años ingresa a su perfil, el servicio le ofrece películas de espías y acción. La razón por la que se llega a esa conclusión es la que se tiene que explicar. Puedes llegar a ella porque es magia o alquimia, o bien, porque la empresa, el Estado o quien sea quien entregue este producto final, te explica el proceso. Cómo tomó tus búsquedas anteriores, cómo visualiza tus preferencias, el tiempo que pasaste viendo una película, el patrón de peticiones, etc. Esa es la explicabilidad y transparencia del algoritmo.
¿Cómo llevamos eso a los servicios del Estado?
-Supongamos que el Ministerio de Desarrollo Social tiene que entregar un bono o subsidio específico pensando en familias con niños. Puede decir: ‘meto esto en una máquina, la cual me dirá que le corresponde a una persona, pero no a su vecino’. O bien, puede explicar que el beneficio se basa en la información previa que se tiene de la persona, a la cual se le aplicaron ciertas reglas de negocios. Cuando lo hacemos con transparencia y explicabilidad, empoderamos al usuario final en sus derechos. Y si se siente afectado, puede indicar que su información que se utilizó estaba mala o que está en desacuerdo con el proceso y quiere apelar. Como también podría decir que no le gusta la película que el servicio de streaming está recomendando. Esa lógica es fascinante, porque supone poner a la persona en el centro y ejercer sus derechos frente a la tecnología.
Pero en la práctica, ¿esos procesos los tiene que hacer el oferente de la tecnología de IA o quien la aplica?
-Hay distintos mecanismos. El Estado está obligado por la Ley de Transparencia a explicar ciertas cosas. Además, está la Ley de Datos Personales, que es independiente a la IA. Lo mismo ocurre con los mercados, que deben tener un especial cuidado. Por ejemplo, en el uso de los chatbox del retail ya se está indicando explícitamente que quien contesta no es una persona. Y eso lo podemos llevar a todas las industrias. Desde cómo diagnosticamos enfermedades hasta cómo definimos el riesgo en las compañías de seguros. Es entender cuál es el proceso de decisión, la responsabilidad y la información que está utilizando en esa IA. Es algo clave para asegurar que las reglas que ya existen en la industria de la salud, en el sistema financiero y en el retail, sigan funcionando como deben. Y eso… es muy difícil transformarlo en ley.
¿Hasta dónde dejamos al libre mercado el uso de la IA y hasta dónde lo regulamos? Especialmente cuando la IA es la base del negocio de muchas empresas.
-Hay que entender que la IA no es un objeto de regulación en sí misma, sino que es el uso de esa herramienta lo que tenemos que analizar y entender cómo impacta en los distintos ámbitos. Por ejemplo, las reglas de la libre competencia no van a cambiar porque existe IA. Pero la IA no tiene que ser un medio para saltárselas. Y esa estructuración de la normativa es la que hoy estamos trabajando. En el caso de salud, la IA puede acelerar los procesos de diagnóstico y ayudar al médico a tomar una decisión de tratamiento, pero no puede en ningún caso reemplazarlo o eximir responsabilidad al médico sólo porque se apoyó en la herramienta de IA. La diferencia es que cuando hay IA de por medio es más complejo entender lo que ocurrió, porque son procesos muy rápidos. Algoritmos que a veces no entendemos cómo funcionan y bases de datos que están estructuradas de cierta manera. Y eso es lo que la regulación tiene que favorecer. Que las reglas que ya están establecidas se mantengan a pesar de uso de la IA.
¿Cómo están trabajando con el sector privado al respecto?
-Hasta ahora, hemos trabajado con los que producen IA. Llevo un par de meses reuniéndome con altos ejecutivos de Google, Amazon Web Services (AWS), Meta y Microsoft, por nombrar algunos. Esto, con dos objetivos: abrir la discusión regulatoria con ellos, gracias a su mirada global y experiencia y, por otro lado, entendiendo cómo puede haber una colaboración e inversión más estrecha de IA para Chile.
¿Y cómo ha sido el feedback de esas y otras empresas?
-Muy positivo. Hay un interés genuino de las empresas en estas materias y de cómo estar en el ecosistema. Por otro lado, las compañías que son usuarias de los servicios de IA también se están subiendo a este carro, al igual que el gobierno. De hecho, ya hay como 100 algoritmos de IA siendo implementados en este momento por el gobierno. La puerta que queremos abrir ahora es la de la conversación. Ya hemos hablado con entidades como Fundación País Digital y la Sofofa para entender cómo nos podemos asociar para ayudarlos en ese proceso.
¿Podría todo eso transformar a Chile en un polo de IA?
-Creo que ya está pasando. Chile tiene una historia bien consistente de desarrollo de TI. Todas las inversiones y apoyo de los gobiernos que se ha hecho en centro de datos, en conectividad y en regulaciones han permitido eso. La IA es una especie de continuación de eso. Estamos bien adelantados con respecto a otros países.
Leyes complementarias
¿Cómo conversa la posible Ley de IA con la Ley de protección de datos?
-La ley de datos personales entrega el primer marco, porque genera derechos a las personas respecto de sus datos que después tiene que ser parte del proceso de implementación de la ley de IA, por ejemplo, para evitar la discriminación en los algoritmos.
¿Cómo así?
-El caso más evidente son los mecanismos de reconocimiento facial que identifican mucho mejor a hombres blancos que a mujeres o personas de otras razas, lo que está documentado. Esto pasa porque son entrenados en datos en ese tipo de segmento. Entonces, cuando hay una ley de protección de datos robusta se logra crear mecanismos desde el origen para proteger a las personas respecto de posibles discriminaciones.
Ok, pero muchas empresas de reconocimiento facial o de otro tipo que usan algoritmos de IA están en el extranjero. ¿Cómo llega la legislación ahí?
-Esa es la otra parte difícil. Hace muchos años ya que la tecnología no reconoce fronteras. Y si bien hay mecanismos de territorialidad que se han establecido, son muy costosos de implementar, pero no excluyentes, por lo que se deben analizar.
¿Cuáles son los pasos que vienen entonces?
-Lo primero es juntar todo lo que salió de las mesas de discusión, lo que ocurrió en la cumbre de esta semana, más lo que hemos estudiado respecto a la metodología de “sandbox” (NdeR: Entornos de prueba para aplicar la normativa en una producto o servicio específico). En base a eso, vamos a presentar indicaciones al proyecto del diputado Lagomarsino. Lo hemos estado trabajando con él y con el diputado Eric Aedo (DC) para reformular algunos elementos en base a lo que hemos escuchado de los expertos. Esperamos que sea una discusión bien técnica, pero también transversal en términos del espectro político.
¿Alguna expectativa de cuándo se podría transformar en ley?
-Son leyes que tienen que discutirse a fondo y que no es bueno apurarlas. No nos puede pasar lo mismo que sucedió con la Ley de Protección de Datos. Pero tampoco queremos un proyecto que sea extremadamente exhaustivo, sino que se enfoque en principios y algunas herramientas. No me atrevo a especular plazos, pero lo ideal es terminar la discusión en la comisión de la Cámara Baja antes de que termine la presidencia del diputado Aedo, en marzo de 2024.
Caso Sinovac
“Creo que tanto la empresa como el ministro (Nicolás) Grau y yo hemos sido bien claros. Esta es una conversación que sigue abierta y estamos trabajando de muy buena manera con la empresa. Yo me reuní con ellos esta semana para entender el componente científico-tecnológico y nos manifestaron que tienen una muy buena opinión y que les es muy útil la ciencia que se está haciendo en Chile y que eso sigue, al igual que sigue la conversación de cómo lo podemos profundizar en el futuro”.