Cuando a mediados de marzo de este año el Parlamento Europeo aprobó la Ley de Inteligencia Artificial marcó un antecedente histórico a nivel global. En un mundo donde optimistas y apocalípticos frente a estas nuevas herramientas coinciden en su enorme potencial para cambiar el modo en que vivimos, llegar a acuerdos en torno a legislaciones que den cuenta de los desafíos que plantea la IA y que a su vez no imponga trabas a su desarrollo ha resultado complejo. Sin embargo el bloque europeo logró consensuar una legislación que desde el resto del mundo miran con atención.
También desde Chile. El gobierno enviará hoy jueves al parlamento su proyecto de Ley de Inteligencia Artificial, definida en el texto como un “conjunto de sistemas basados en máquinas que infieren, a partir de información de entrada, determinada información de salida, que puede consistir en predicciones, contenidos, recomendaciones o decisiones capaces de influenciar espacios físicos o virtuales”.
Ministra Aisén Etcheverry y proyecto de ley sobre Inteligencia Artificial: “Tenemos que regular por competitividad y seguridad, y tenemos que hacerlo rápido”
El proyecto -pionero en el continente- responde a una demanda por una política regulatoria clara en el tema, que dio sus primeros pasos en 2021 cuando durante la segunda administración de Sebastián Piñera el Ministerio de Ciencia, Tecnología, Conocimiento e Innovación publicó una Política Nacional de Inteligencia Artificial, cuya actualización fue emprendida el año pasado por la actual administración, que además emitió en diciembre una circular sobre el uso responsable de herramientas de IA en el sector público, y que ha asumido como una política de estado el desarrollo en estas materias, por ejemplo mediante la focalización de las becas de posgrado de la Agencia Nacional de Investigación y Desarrollo precisamente en materias de IA.
Desde la academia, la creación del Centro Nacional de Inteligencia Artificial (CENIA) ha potenciado el trabajo en torno al tema y puesto de relieve su importancia. En el Parlamento, en tanto, iniciativas como las mesa de trabajo en IA de la Comisión Desafíos del Futuro del Senado también han promovido la discusión en este tema. Actualmente hay tres mociones parlamentarias que apuntan a regular aspectos de la IA.
El proyecto que el ejecutivo ingresará hoy adopta una estrategia similar a la europea, donde se establecen categorías de riesgo para los diferentes sistemas de IA. El texto establece la clasificación de herramientas de riesgo inaceptable (es decir, prohibidas), de alto riesgo, de riesgo limitado y sin riesgo evidente.
La ministra de Ciencia, Tecnología, Conocimiento e Innovación, Aisén Etcheverry, reconoce las dificultades de legislar en una materia en constante evolución. “Las referencias que uno usa no están todavía maduras y el consenso social que se necesita para poder avanzar en una regulación tampoco está cuajado”, comenta. “Pero sabemos que tenemos que regular esto por razones de competitividad y de seguridad, y tenemos que hacerlo rápido. Y ahí entran todas estas piezas. En el fondo, nos propusimos abrir la conversación a la mayor cantidad de espacios posible, tomar todas las experiencias que estaban ocurriendo no lideradas por el Ministerio y hacerlas propias, como parte del análisis. Y enfocarnos con mucho énfasis en lo que estaba pasando a nivel internacional también. De ahí viene todo lo que pudimos recoger a propósito de la actualización de la Política Nacional de Inteligencia Artificial, que nos ayudó a entender las preocupaciones ciudadanas en torno al tema, que es súper importante a la hora de pensar en regulación. Y todo lo que hizo la Cámara y el Senado con el proyecto del diputado (Tomás) Lagomarsino y las mesas de la senadora Rincón. Son instancias que nos ayudaron también a entender cuáles eran las expectativas más expertas respecto de una regulación. Y a nivel internacional, la disputa o las distintas visiones que hay de los países que están avanzando en la regulación. Pero sobre todo la reacción que tuvieron sus empresas, sus expertos y su comunidad frente a las regulaciones que presentaron. Y por eso, por ejemplo, esperamos a que saliera la regulación europea para entender qué pasaba, cuáles eran las preocupaciones. Y aprendimos harto de esa experiencia.
-¿Por qué dice que es importante hacer pronto esto desde el punto de vista de la competitividad?
-Porque en general, nosotros somos un país que es súper abierto en temas de comercio. Tenemos fronteras abiertas y tratados de libre comercio. Tenemos además mucha colaboración científica. Pero las regulaciones pueden inhibir o habilitar el comercio. Puede funcionar para cualquiera de los dos lados. Entonces, cuando se trata de una tecnología nueva, uno puede tomar una decisión estratégica de usarlo como barrera o como habilitante. Y cuando miramos las capacidades que tiene Chile en inteligencia artificial, dijimos: aquí hay un potencial de competitividad súper grande. ¿Por qué nos interesa regular? Porque nos interesa que para el mercado en general, para las empresas, pero también para los investigadores, esté muy claro no sólo qué se puede hacer y qué no se puede hacer, sino además que la posición del país sea completamente concordante con lo que están haciendo los líderes en inteligencia artificial. Y eso entrega a las personas que quieren invertir en Chile la seguridad de que no les van a cambiar las reglas en tres años más, con algo que es completamente distinto que los otros lados. Y para los desarrolladores nacionales, la certeza de que pueden, desde Chile, avanzar con regulaciones claras que, a su vez, les permiten entrar rápidamente en los otros mercados. Eso tiene que ver con que las regulaciones, o en este caso el proyecto de regulación chileno, sea justamente concordante con, por ejemplo, el europeo.
-Europa fue pionera en regular el uso de la IA. ¿Qué lecciones sacaron de eso?
-Nosotros, tal como los europeos, usamos esta idea de que las regulaciones sean interoperables, que encajen muy rápidamente. Eso fue lo primero que aprendimos: aplicar la misma lógica que la regulación europea, que es súper ambiciosa, en el sentido de decir: esto es según análisis de riesgo, hay categorías de riesgo a las cuales se adscriben los distintos usos de la tecnología. En ese esquema, en la discusión con los europeos nos dimos cuenta que tenían un desafío súper importante, que era el de la certificación o el de la verificación del cumplimiento de las obligaciones. Dicho en sencillo: los europeos dicen “vamos a analizar según riesgo, y hay ciertos usos de la inteligencia artificial o ciertas tecnologías que antes de entrar al mercado van a tener que acreditar que cumplen con X, Y o Z”. Eso, que parece súper razonable, es extremadamente difícil de hacer. Porque estamos pensando en tecnologías que cambian muy rápido, que requieren de muchas capacidades para poder ser analizadas, que están en constante evolución, y entonces hoy día se hacen la pregunta de cómo van a certificarlas. Los desarrolladores han avanzado mucho en autorregulación, previendo lo que va a ocurrir con la regulación, incorporando muchos de estos estándares. Por lo tanto nosotros nos hicimos la pregunta, ¿vale la pena hacer una evaluación ex ante de todo o hacemos evaluación en caso de que haya un problema, una falla, y aplicamos multa? Esa, por ejemplo, fue una decisión que no estaba clara al comienzo, y mirar lo que estaba ocurriendo en la Unión Europea nos sirvió.
-En Europa se recordaba a propósito de este tema ese dicho que reza: “Estados Unidos innova, China copia y Europa regula”. ¿Qué hace Chile? Porque EE.UU. tiene una postura más abierta y reactiva: deja hacer y opera en caso de que detecte problemas o controversias…
-A ver, nosotros no somos ni Europa, ni Estados Unidos, ni China. Y creo que ese punto de partida hay que tenerlo súper claro. Pero tampoco somos un actor irrelevante en inteligencia artificial, y eso es nuevo. No estamos acostumbrados a no ser irrelevantes en materia tecnológica. Entonces, el ejercicio es súper estratégico, en el fondo. ¿Qué queremos lograr? Tenemos un objetivo súper claro, que es que necesitamos tener mucho desarrollo en inteligencia artificial, necesitamos mucha implementación de inteligencia artificial, y eso lo necesitamos para el crecimiento de nuestra economía, para poder lograr más ciencia, para hacer que el país avance, en el fondo. Nosotros no nos paramos desde la postura de “esto es súper peligroso, no tenemos que usarlo”; nos paramos desde un espacio donde creemos que esto tiene que ser utilizado de buena manera. Desde ahí, el siguiente paso es mirar qué pasa con nuestra industria: ¿tenemos algún potencial? La verdad es que sí: si miramos las startups de base científica tecnológica, casi un cuarto están en inteligencia artificial. Si uno mira la implementación de IA, las distintas industrias van en aumento sostenido ya hace un par de años. Todos los indicadores que tenemos apuntan a que sí, hay potencial. Entonces, ¿cómo generábamos una propuesta de marco regulatorio que permitiera, en primer lugar, que siguieran llegando los más nuevos desarrollos de inteligencia artificial y se instalaran, ojalá, en Chile? Lo hemos hecho con data center, con conectividad, con inteligencia artificial. ¿Y cómo hacemos que los desarrollos hechos en Chile con inteligencia artificial, puedan entrar al mundo en un formato de exportación lo más rápido posible? Y a esto llegamos. ¿Regulamos? Sí, porque creemos que hay que resguardar derechos humanos y hacerse a cargo de la desigualdad y de la discriminación de todos estos componentes, y hay que empoderar a los ciudadanos. Pero no nos vamos al punto donde la regulación pueda significar un retroceso en materia de posibilidades de innovación, porque necesitamos que nuestra industria despegue también en esta materia. Ahí es donde nos posicionamos: no somos ni Estados Unidos, ni Europa, ni China, pero somos capaces de conversar con los tres.
-Hay un punto que surge a menudo en la conversación sobre el uso de la IA y la eventual colisión con otros derechos: el de los sistemas de identificación biométrica tales como el reconocimiento facial. En la legislación europea se autoriza en casos específicos que tienen que ver con la seguridad. Pero cuando uno habla de la seguridad, uno puede decir seguridad nacional, pero también uno puede decir lucha contra el crimen organizado, o contra la trata de personas, etcétera. Uno puede ampliar muchísimo el rango de seguridad ¿Cómo se resuelven ese tipo de cosas en este proyecto?
-De nuevo, tomamos decisiones. Lo primero fue decir que no todo se puede hacer. Definimos un un catálogo de usos de riesgo inaceptable, donde la posibilidad de vulneración de derechos fundamentales o de riesgo en la salud o integridad de las personas es tan grande que simplemente no se pueden permitir. Y ahí entran algunos de los ejemplos que tú mencionaste. Por ejemplo, el análisis biométrico en tiempo real en espacios públicos, que tiene un alto riesgo de vulneración de derechos fundamentales, como el derecho a la privacidad y de reunión, etc. ¿Es inaceptable en todos los casos? No, porque también entendemos que hay un valor particularmente relevante que es la seguridad y la persecución del crimen organizado. En esos casos sí se puede, pero con un contorno súper claro, que es que las autoridades competentes, que estén autorizadas por ley, lo permitan. No cualquiera va a poder hacer análisis biométrico; solamente actores específicos que estén habilitados. Otros ejemplos son el aprovechamiento de ciertas vulnerabilidades para generar efectos negativos en la salud de las personas, o en la salud física o psíquica: deepfakes de niñas en los colegios con contenido sexual. No, punto. No, eso no se puede. Fuimos explícitos en la ley. Y así hay un catálogo de casos de usos que consideramos inaceptables. Pero luego vienen todos los grados de grises, que no describimos en la ley directamente, sino que generamos esta institucionalidad que es un comité con gente experta, con una mirada bastante más multidisciplinaria, que tiene que ayudarnos a hacer esa categorización. Y ahí viene también el componente de cómo generas una regulación que te dé certezas, pero también la flexibilidad suficiente para hacerse cargo de una tecnología en evolución.
-Concretamente, ¿cuál es la institucionalidad que se crea?
-El Consejo Asesor Técnico de Inteligencia Artificial es un comité que está compuesto por representantes de universidades, de distintos ministerios que están asociados a distintos derechos fundamentales o derechos a proteger, por representantes de la industria, de la academia y de la sociedad civil. Ese comité tiene dos funciones fundamentales. Una es generar listados de riesgos altos o de riesgos limitados. El estar en una de esas clasificaciones implica que tienes ciertas obligaciones adicionales, obligaciones de transparencia, de ciberseguridad, de protección de datos y tal. Y la segunda es ayudarnos a dotar de contenido técnico esas obligaciones. Por ejemplo, un sistema que es considerado de alto riesgo tiene que mantener como registro de todos los posibles incidentes de seguridad o registro de acciones que puedan significar una vulneración de derechos mayores. Yo puedo escribir eso en la ley, pero ¿qué significa eso en la práctica? ¿Significa que hay un órgano de control externo? ¿Significa que tienen que reportar cada hora, cada seis horas, cada seis meses? Todo eso va cambiando. Entonces, este comité tiene esa función también de decirnos desde una perspectiva más técnica qué significa o cuál es el estándar con el cual esa obligación se cubre.
-¿Cómo conversa este proyecto con otros cuerpos legales relevantes en discusión, como la actualización de la ley de datos personales?
-En el caso de datos personales, totalmente. De hecho, la agencia encargada de la fiscalización de la ley es la nueva Agencia de Protección de Datos Personales. A ella se le entregan todas las facultades de imponer multas, de llevar los procesos y todo eso. Y lo otro que tiene este proyecto de ley, que es bien interesante, es que habilita a las agencias regulatorias a hacer sandboxes, o espacios protegidos de testeo. Por ejemplo, si el Sernac quiere promover que haya uso de inteligencia artificial, en el comercio, pero tiene dudas respecto de cómo afectan los derechos de los consumidores, puede habilitar un espacio de testeo de la regulación, que permita que todos los que están creando o desarrollando ese software puedan ir y probar, con la supervisión del Sernac. Lo que propone la ley, es que todos estos espacios regulatorios puedan hacer eso, y de esa forma promovemos que haya más tecnología, que los servicios empiecen a utilizarla de mejor manera, y que no tengamos doble regulación, una para el mundo de la inteligencia artificial y otra para el mundo “real”, sino que una opera como herramienta en el espacio del otro.