Columna de Susana Sierra: IA, navegando entre oportunidades y desafíos

ciberseguridad


Corría el año 1834 cuando dos banqueros franceses, los hermanos Blanc, “pincharon” la red de telégrafos ópticos estatales para modificar los mensajes enviados y manipular el mercado de bonos, dándose una ventaja clave frente a sus competidores. Fue lo que podría considerarse el primer gran hackeo o ciberataque en la historia del que se tenga registro, y aunque el gobierno descubrió la trampa dos años más tarde, los hermanos no fueron condenados debido a la falta de leyes que tipificaran ese delito.

El telégrafo óptico, en su momento, representó una tecnología vulnerable, similar a lo que fue internet en sus inicios y lo que es hoy la inteligencia artificial (IA).

Respecto a esta última, el panorama regulatorio aún es incipiente a nivel mundial, en gran parte debido a la dificultad de regular una tecnología en constante evolución. Sin embargo, está avanzando a medida que gobiernos y organizaciones reconocen su potencial transformador para la economía y la urgente necesidad de gestionar sus riesgos.

Estados Unidos es uno de los países que está trabajando fuertemente en la regulación de la IA, dando especial foco al sector de servicios financieros, dado que la información que se maneja es sensible e incluso podría afectar la seguridad nacional.

A fines del año pasado, el Consejo de Supervisión de la Estabilidad Financiera (FSOC), formado por los principales reguladores financieros de EE.UU., identificaron por primera vez el uso de la IA como una vulnerabilidad del sistema financiero y enfatizaron en la necesidad de vigilar su rápida evolución para asegurar que las estructuras de supervisión se anticipen a los riesgos emergentes.

Por su parte, el Departamento del Tesoro publicó en marzo de este año un informe sobre los riesgos de ciberseguridad relacionados con la IA en el sector financiero, indicando los pasos a seguir; y, en mayo, resaltó su uso para reforzar el cumplimiento de normativas contra el blanqueo de capitales y el financiamiento del terrorismo. Actualmente, el Tesoro está realizando una consulta pública sobre los “usos, oportunidades y riesgos de la IA en el sector de servicios financieros” para entender de primera fuente su aplicación, riesgos, oportunidades y obstáculos, promoviendo así el uso ético de la IA y la estabilidad financiera en EE.UU.

La innovación responsable en la industria financiera es una preocupación clave para los reguladores, porque si bien trae grandes beneficios como predicciones más precisas, mejoras en la experiencia del cliente, mayor eficiencia operativa o reducción de costos, también presenta enormes desafíos, como la protección al consumidor, dado el uso de una mayor cantidad y variedad de datos, lo que genera nuevos riesgos para la privacidad; mayor supervisión de la IA, especialmente considerando la existencia de sesgos que perpetúan la discriminación al aprender de datos que refuerzan prejuicios históricos; o los riesgos de terceros, dado que muchas instituciones financieras dependen de proveedores externos para sus operaciones comerciales, incluido el uso de IA.

Por otro lado, dado el aumento de ciberataques, es fundamental que las empresas se autorregulen para prevenir estos delitos, ya que la IA continuará facilitándolos, y el sector bancario seguirá siendo un blanco fácil debido al uso electrónico de sus productos. Aunque los métodos de ataque variarán, el objetivo siempre será el mismo: robar información mediante engaños casi imperceptibles, como lo son hoy las suplantaciones de voz o rostro (deepfake) y mensajes maliciosos por correo, voz o textos (phishing, vishing, smishing). Desconocemos qué nuevos engaños podrían implementarse en el futuro, pero siempre habrá nuevos riesgos.

En Chile, se presentó recientemente la nueva Política Nacional de Inteligencia Artificial con foco en la gobernanza y aspectos éticos. Asimismo, se presentó un proyecto de ley que busca regular y fomentar el desarrollo responsable de esta tecnología. Igualmente, uno de los grandes problemas a nivel global, es definir cómo legislar sobre una herramienta que avanza y cambia día a día.

En un contexto donde se ha redefinido el fraude ante la creciente sofisticación de los delitos, las empresas tienen la obligación de autorregular el uso de la IA, si no queremos que esta nos termine dominando, porque es deber de todos estar atentos. Para eso se debe empezar por establecer protocolos y controles internos, además de un mayor involucramiento en las decisiones estratégicas con foco en la ética y transparencia, aplicar ciberseguridad, capacitación en los potenciales riesgos, colaboración con los reguladores, intensificar el know your customer, establecer canales de denuncias, monitoreo y supervisión.

Si no actuamos con miras al futuro, historias como la de los hermanos Blanc o la desprotección de la privacidad y la perpetuación de los sesgos, seguirán repitiéndose en un futuro donde la tecnología seguirá avanzando sin que conozcamos sus límites.

Por Susana Sierra, directora ejecutiva de BH-Compliance

Comenta

Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.