Columna de Karin Moore: “Inteligencia artificial, el reto de su regulación”

"Tenemos la tarea de consensuar una regulación inteligente con reglas claras y sentido ético, que incentiven y faciliten el uso de la tecnología en los múltiples ámbitos donde su aplicación supone una mejora exponencial que se traduce en bienestar para las personas"



El sistema de inteligencia artificial (IA) desarrollado por Open IA, ChatGPT, ha revolucionado todos los niveles y está centrando el debate sobre el impacto de la IA en diferentes sectores y profesiones, a causa de una tecnología que supone un cambio de paradigma, incluso, para lo que hoy conocemos como internet.

Su creadora, Mira Murati sostuvo, en una reciente entrevista con la revista Time, que es hora de avanzar hacia la regulación de la IA y que considera necesario que todos, incluyendo a los gobiernos, comiencen a involucrarse, dado el impacto que van a tener estas tecnologías.

Regular la IA es fundamental por varias razones, entre ellas el que, tanto gobiernos como empresas, la utilizan para tomar decisiones que pueden tener un significativo impacto en diversos ámbitos de nuestras vidas – como el financiero, educacional o, incluso, penal – además, de la complejidad que implica determinar y hacer efectiva la responsabilidad en caso de que quienes utilizan IA, infrinjan las normas.

En la mayoría de los países no existe legislación que regule el uso de IA, por lo que se utilizan leyes de protección de datos, de defensa de los consumidores o resguardo de la libre competencia. La UE ha destacado por sus esfuerzos en este sentido, a través de normas como la Ley de Servicios Digitales que se focaliza en el uso, por parte de las plataformas en línea, de algoritmos de modelación de contenido. Sin embargo, la iniciativa más ambiciosa hasta la fecha es la Ley de IA, propuesta la Comisión Europea, que prohíbe el uso de la IA para fines inaceptables, centrándose en la defensa de las libertades personales y estableciendo mayores obligaciones de transparencia sobre el funcionamiento de los algoritmos, tanto para la autoridad, como para las empresas.

Por su parte, EE. UU publicó los “diez principios para la regulación de la IA” y, en la misma línea, la OCDE y el Foro Económico Mundial han elaborado directrices éticas, dentro de las que se plantean como principales desafíos en el uso responsable de la IA, el sesgo o preferencia hacia determinados grupos y la “toxicidad”, entendida como la generación de daño hacia determinados colectivos, además del reto que supone decidir lo que está bien y lo que está mal en el entrenamiento de los sistemas de IA. Si bien las normas éticas son fundamentales, no son suficientes, debido a que su incumplimiento no genera graves consecuencias y los incentivos para instaurarlas son débiles.

Esto hace necesaria la supervisión de un ente público y una regulación que atienda a la proporcionalidad de los riesgos al mismo tiempo que cuida el equilibrio. La clave está en no caer en una sobrerregulación que termine gravando excesivamente a las empresas de tecnología o a las compañías que la utilicen, o que exacerbe el proteccionismo de ciertos sectores frente a potenciales innovaciones, lo que terminaría por paralizar el potencial desarrollo de nuestro país.

Tenemos la tarea de consensuar una regulación inteligente con reglas claras y sentido ético, que incentiven y faciliten el uso de la tecnología en los múltiples ámbitos donde su aplicación supone una mejora exponencial que se traduce en bienestar para las personas como, por ejemplo – a propósito de dolorosa situación que se está viviendo en el sur de Chile – la prevención y control de incendios forestales. El desafío está en nuestras manos y, como señaló Murati: “la tecnología nos moldea y nosotros la moldeamos de manera que esté alineada con los valores humanos”.

* La autora es abogada, Clapes UC y Fac. de Economía y Administración UC.