Las visiones más apocalípticas apuntan a que el poder de la inteligencia artificial es tal que se nos escapará de las manos y terminaremos controlados por esta. Y más allá de que para muchos las posiciones extremas están más cerca de la ciencia ficción que de la realidad, lo cierto es que la mayoría de las autoridades del mundo ya no discuten si se debe regular o no esta tecnología. El problema global, al igual que en Chile, es definir cómo legislar sobre una herramienta que avanza y muta día a día.

Con la llegada de la Inteligencia Generativa (aplicaciones como ChatGPT), el debate se ha acelerado. Sin embargo, la falta de consenso pasa hoy por hasta dónde se debe llegar y quién decide las reglas. En el mundo ya se desarrollan diferentes tipos de legislaciones y Chile observa estos debates para tomar sus propias definiciones.

Hoy en el país no existe ningún cuerpo legal que aborde la inteligencia artificial, pero hay al menos tres iniciativas en progreso. Mientras el gobierno está en la etapa de revisión final para presentar un proyecto de ley sobre inteligencia artificial, en la Comisión de Futuro, Ciencias, Tecnología, Conocimiento e Innovación de la Cámara de Diputadas y Diputados se discute una moción parlamentaria al respecto. Además, desde la Comisión de Desafíos del Futuro del Senado se creó una mesa que elabora un informe para presentar otro proyecto de ley. Por otro lado, un equipo de expertos está actualizando la Política Nacional de Inteligencia Artificial que fue presentada en 2021.

A modo de marco, Chile fue uno de los pioneros en legislaciones ligadas a la tecnología, al aprobar en 2021 la protección de los neuroderechos y la integridad mental, y el desarrollo de la investigación y las neurotecnologías -impulsada, entre otros, por el exsenador Guido Girardi. Además, el año pasado se aprobó la ley marco de ciberseguridad, y hoy se discute, en su etapa final, la legislación sobre protección de datos personales.

A pesar del trabajo hecho, hasta hoy no hay ninguna regulación que sea ley sobre la inteligencia artificial.

Hacia dónde apunta el mundo

Los principales referentes legislativos en la materia se encuentran hoy en la Unión Europea, Estados Unidos y China.

En el caso de la Unión Europea se está por aprobar un proyecto de ley integral sobre IA, que se discute hace varios meses, y que busca regularla según sus riesgos, clasificando las herramientas de IA en tres categorías: de riesgo inaceptable, de alto riesgo y de riesgo bajo para la seguridad de las personas. De esta manera, se busca integrar la normativa a la regulación actual sobre protección de datos, derecho de autor y otras. También se reformaría la institucionalidad existente para que se haga cargo de implementar la futura ley.

En Estados Unidos, el propio gobierno de Joe Biden ha expresado que su nación -ya que son las empresas estadounidenses las que lideran la innovación en IA- debe ser la catalizadora de la acción global y liderar los consensos.

Una orden ejecutiva emanada de la Casa Blanca tiene como objetivo implementar estándares universales de IA. Ahí se crea un Instituto de Seguridad de la Inteligencia Artificial para implementar reglas de una inteligencia artificial segura y confiable. Antes, en julio de 2023, se anunció un acuerdo de autorregulación entre el gobierno y siete grandes empresas norteamericanas desarrolladoras de IA, para la creación de productos seguros para el público, sistemas de monitoreo y control de fallas, así como de herramientas que garanticen la confianza de la población.

En China, en tanto, en el mes de julio de 2023 se presentó a consulta su tercera normativa sectorial para IA, sobre Servicios de Inteligencia Artificial Generativa. El país está generando capacidades para la aplicación efectiva de una regulación de la IA, haciendo énfasis en el control estatal de su desarrollo.

Paralelamente, organismos internacionales, como la ONU, crearon un Consejo de Inteligencia Artificial para crear pautas globales y el G7 trabajó en un código de conducta para el desarrollo de sistemas de inteligencia artificial.

El escenario nacional

“En nuestro caso, el gobierno ha hecho un ejercicio bien reflexivo respecto de la materia. Incluso, yo misma como ministra he ido cambiando la postura a lo largo del año; si uno revisa las primeras declaraciones, cuando recién llegamos dijimos: ‘Estamos observando si es que hay que regular o no regular’, hoy día de frentón estamos trabajando en un proyecto de ley donde tenemos un primer borrador al que le estamos haciendo los últimos ajustes”, explica la ministra de Ciencia, Tecnología, Conocimiento e Innovación, Aisén Etcheverry.

La ministra de Ciencia, Tecnología, Conocimiento e Innovación, Aisén Etcheverry. FOTO: DEDVI MISSENE

Según cuenta la secretaria de Estado, el Ejecutivo ha estado observando el debate en el resto del mundo. “Teníamos un proyecto de ley prácticamente listo, quisimos esperar a ver qué pasaba con la Unión Europea, vimos las primeras reacciones y reculamos un poco”.

Etcheverry detalla que finalmente se apuntó a una legislación que busca un doble objetivo: “Por un lado, que se resguarde sobre el riesgo de sesgo, de posibles discriminaciones, de usos en ámbitos donde sabemos que es complejo, pero que por el otro lado permita un desarrollo de la tecnología y su incorporación en procesos de innovación, en todos los ámbitos posibles”.

Pero la iniciativa del gobierno respecto de la inteligencia artificial no fue la primera en debate en el país. En abril de 2023 se presentó una moción parlamentaria, de autoría del diputado Tomás Lagomarsino (independiente), que regula los sistemas de inteligencia artificial, la robótica y las tecnologías conexas, en sus distintos ámbitos de aplicación. El proyecto se encuentra actualmente en la Comisión de Futuro, Ciencias, Tecnología, Conocimiento e Innovación de la Cámara de Diputadas y Diputados y estaría próximo a ser votado.

El diputado Tomás Lagomarsino, autor del proyecto sobre IA que se discute en la Cámara. FOTO: MARIO TELLEZ / LA TERCERA

“El proyecto de ley que ingresé como autor se basa en el proyecto de ley de la Unión Europea, pero tratando de cambiar el enfoque hacia uno más de derechos humanos, más que un enfoque tan centrado en la innovación, producto que, desde mi punto de vista, son pocas las probabilidades de que Chile sea un país que desarrolle sistemas de IA, sino que vamos a ser más consumidores de estos sistemas y, eventualmente, víctimas de ellos”, explica Lagomarsino

A pesar de haber participado del debate de este texto, el gobierno no está por impulsar esta moción: “Efectivamente, hubo un primer esfuerzo que presentó el diputado Lagomarsino y que dio impulso a la discusión en el Parlamento, donde tuvimos a varios expertos exponiendo respecto de ese proyecto y donde llegamos todos al convencimiento de que esa no es la dirección. Respecto del contenido, fue muy buena la discusión, porque llegamos todos al convencimiento de que no iba por ese camino”, dice la ministra Etcheverry.

En tanto, desde el Senado también se están haciendo esfuerzos. “Desde la Comisión de Desafíos del Futuro encomendamos y coordinamos la creación de una Mesa de Inteligencia Artificial, donde mujeres y hombres, más de 120 profesionales de todas las áreas, desde filósofos, periodistas, sociólogos, hasta ingenieros, expertos en base de datos e inteligencia artificial, confluyeron en la elaboración de un informe final que servirá de base para presentar la que esperamos sea la primera ley marco de inteligencia artificial de Chile y América”, explica la senadora Ximena Rincón (Demócratas).

La senadora Ximena Rincón, presidenta de la Comisión Desafíos del Futuro de la Cámara Alta. FOTO: LEONARDO RUBILAR CHANDIA/AGENCIAUNO

Para Rincón, quien es la presidenta de la Comisión de Desafíos del Futuro, Ciencia, Tecnología e Innovación de la Cámara Alta, la legislación “significa un desafío multidisciplinario”. Y por eso, en la mesa técnica del Senado, en la que también participó el gobierno, las submesas abordaron temas como la prospectiva (tendencias, escenarios futuros, ética e impacto); de política pública (regulación, acceso, riesgos); educación y talentos (formación, capacitación y recambio de habilidades); industria (investigación y rubros sensibles en Chile), y responsabilidad y sesgos (responsabilidad ética y legal, transparencia, sesgos y mitigación de sesgos en IA y modelos de riesgos).

Además de lo estrictamente legal, en el país se están realizando otras acciones para hacer frente a los avances de la inteligencia artificial, una de ellas es la actualización de la Política Nacional de Inteligencia Artificial que se creó en 2021. Explica la ministra Aysén Etcheberry: “Esa política sigue vigente, se construyó en la era pre ChatGPT por un grupo de expertos, que es el mismo grupo que hemos seguido convocando para conversar de estos temas. Tomamos la decisión el año pasado de hacer un actualización de la política, que ha dado muy buenos resultados, el índice del Cenia da cuenta de eso, hemos avanzado en fomento, en capacidades, pero el grupo de expertos que la escribió -yo fui parte de ese grupo- estábamos de acuerdo en que el componente de regulación y de ética quedaba un poco cojo, porque era otro momento del desarrollo de la tecnología. Esa actualización está en proceso de revisión por los expertos y después de eso lo vamos a someter a consulta pública, igual como se hizo en su primera versión”.

Poco antes de terminar el año 2023, el gobierno publicó una circular para un uso responsable de la IA en los servicios públicos. El documento, que fue redactado por el Ministerio de Ciencia y la División de Gobierno Digital del Ministerio Secretaría General de la Presidencia, que entró en vigencia el 1 de enero y fue distribuido a todos los servicios públicos, entrega lineamientos a los directores de estos en cuatro categorías: inteligencia artificial centrada en las personas; transparencia y explicabilidad; privacidad y uso de datos, y otras medidas.

Un poco antes, con la firma de la “Declaración de Santiago para promover una Inteligencia Artificial (IA) ética en América Latina y el Caribe”, culminó en octubre pasado el Foro de Altas Autoridades en esta materia, convocado por el gobierno de Chile, la Unesco y CAF, y que se realizó durante dos días en Santiago. “Acordamos una coordinación que quedó en manos de Chile por ahora y esa coordinación tiene que avanzar en dos direcciones: una, en crear una institucionalidad permanente, un consejo de inteligencia artificial y, además, en empezar a construir posiciones comunes en algunas materias”, señala la secretaria de Estado, esto de cara también a la Cumbre del Futuro que se realizará en septiembre en la Asamblea General de la ONU.

La industria es uno de los actores claves en este debate. Para Marcelo Solari, CEO de Kibernum, una compañía chilena orientada a crear e implementar servicios IT, y quien ha participado en las mesas de diálogo en torno a una legislación nacional sobre esta tecnología: “Vamos en el camino correcto, ya que hoy en Chile existen equipos multidisciplinarios que están conversando y trabajando acerca de la inteligencia artificial. Tenemos un ecosistema completo de colaboración, donde interactúan el mundo público, privado, la academia y el mundo civil. Además, se creó un Centro Nacional de Inteligencia Artificial - Cenia-, una organización líder en Latinoamérica en el desarrollo científico y tecnológico en IA, que ya ha logrado reconocimiento a nivel mundial por su contribución a mejorar la calidad de vida de las personas”.

Marcelo Solari, CEO de Kibernum.

Solari plantea que “ya existen condiciones más que positivas para desarrollar la regulación en torno a la IA. De hecho, somos un país que, por condiciones naturales, por el acceso que tenemos a internet y a la jurisdicción digital existente, estamos en un muy buen pie para establecer una regulación de alto estándar”. Y agrega que “dicha regulación debe tener como principales pilares la transparencia, a través de estándares y requisitos que la garanticen; la responsabilidad y rendición de cuentas, en el caso de que se produzcan errores; la máxima claridad sobre los límites éticos, de probidad y de ciberseguridad para proteger datos personales y, por último, pautas de sesgo y discriminación para garantizar que los sistemas de IA sean justos e imparciales”.

Otro de los actores clave del debate es el Centro Nacional de Inteligencia Artificial (Cenia). Para su gerente, Rodrigo Durán, el gobierno ha dado pasos en la línea correcta respecto de la inteligencia artificial. No obstante, apunta que se debe recoger el debate que se ha dado en el Congreso -en el que el Cenia ha participado- y que se debe dejar flexibilidad para que sea el propio Ejecutivo el que pueda adaptarse a los rápidos avances de esta tecnología.

Rodrigo Durán, gerente del Centro Nacional de Inteligencia Artificial (Cenia).

“Lo primero es entender el contexto local, lo que necesariamente implica diferenciar entre desarrollo y uso de estas tecnologías. Lo segundo es entender qué queremos hacer con la inteligencia artificial, si queremos promover su uso o restringirla. La legislación, desde mi punto de vista, debería promover su uso de manera responsable. Ese marco conceptual es súper relevante a la hora de lo que vamos a discutir. Y tercero, avanzar en una legislación que promueve el uso responsable de la IA basada en principios compartidos con la ciudadanía, donde los impactos específicos en cada uno de los espacios que consideremos críticos los tenga que ver el Ejecutivo y no el Congreso. Entender y hacerse cargo del desarrollo acelerado de la tecnología es súper relevante a la hora de legislar”, señala Durán.

Entonces la interrogante queda abierta: ¿Será la nueva ley capaz de seguirle el ritmo a una tecnología que avanza día a día en forma exponencial?