El rol que cumple la Inteligencia Artificial en la ciberseguridad

Automatizar procesos, analizar mayor cantidad de información en tiempo real o medir comportamientos extraños en las plataformas, son algunas de las ventajas que entrega la IA a las herramientas de seguridad, pero que también pueden prestarse para encontrar vulnerabilidades por parte de los atacantes.


La Inteligencia Artificial (IA) es un término que hoy está en todos lados, y que progresivamente se aplica a nuevas plataformas y distintos usos. Mejoras en la cadena logística, selecciones personalizadas en plataformas de streaming orientadas al usuario, traducción e interpretación instantánea de textos en diversos idiomas o automatización de procesos, entre otras posibilidades, se van integrando a una larga cadena de “suma y sigue” que amplía sus horizontes.

La ciberseguridad tampoco se ha quedado afuera, considerando que los peligros aumentan a cada momento y los equipos requieren más herramientas para dar frente.

Un ataque cibernético es cada vez más difícil de identificar, y los flancos aumentan de forma continua. No solo se trata de los resguardos tecnológicos, sino también de las capacidades que tengan los propios colaboradores y equipos de inteligencia al interior de las compañías. La cantidad de puntos que deben cuidar las empresas es muy amplia.

Estas firmas, dice Rolando Martínez, director ejecutivo del Centro Nacional de Inteligencia Artificial (CENIA), trabajan constantemente por disminuir esta superficie de ataques para enfocar su atención en los puntos expuestos. Sin embargo, puntualiza, cada punto a monitorear genera miles de datos que deben ser analizados en tiempo real; ahí es donde entra a jugar un rol relevante la IA.

“Es como intentar encontrar una aguja en un pajar, porque se debe descartar mucha información y correlacionar distintos eventos para identificar un patrón de ataque, y la IA es la mejor herramienta para cumplir ese objetivo en tiempo real”, añade el especialista.

Los ciberdelincuentes pueden también realizar ataques con herramientas IA.

De hecho, asegura que aunque la IA sea una de las mejores soluciones para dar frente a este tipo de situaciones en la red, no significa que haya que prescindir de equipos especializados. Que no todo quede en manos de la tecnología. Estas herramientas, aclara, “sirven como apoyo a la toma de decisiones y para automatizar la aplicación de ciertas políticas de protección cibernética, pero sin duda requieren de constante supervisión de expertos en el área y que toman las definiciones finales”.

IA aplicada a seguridad

Un sistema con IA, dice Adriel Araujo, CEO de Hackmetrix, puede correlacionar y resolver rápidamente en segundos algunas tareas que al equipo humano le tomaría minutos e incluso horas, tratándose principalmente de amenazas. Ahora, también se producen ataques generados por IA, para los que se están preparando incluso como compañía de ciberseguridad y realizan ejercicios de ethical hacking para aumentar las capacidades de sus hackers.

¿En qué se diferencia un sistema de seguridad informática que involucre IA y otro que no? “Definitivamente, el primero genera mayores capacidades para resolver problemas menores de forma inmediata, siempre y cuando la IA esté bien aplicada al contexto en el que se mueve”, acota el ejecutivo, y luego añade que, ante la escasez de profesionales del área que existe en la industria, una IA puede dar mayores capacidades a menor costo para las empresas más pequeñas con apenas personal TI.

“Incluso ChatGPT puede entregar buenas respuestas y recomendaciones sin tener que recurrir a un consultor Big4 y gastar millones de pesos”, plantea. Pero, aunque sean sistemas que puedan parecer perfectos en su descripción, ¿qué posibles flancos o vulneraciones pueden generarse? “La ingeniería social sigue siendo un problema gigante, uno puede implementar IA en los sistemas TI y luego un colaborador por WhatsApp le provee la información al atacante... Es un problema de alcance e implementación y nada puede hacer la IA donde no está mirando. Es cuestión de entrenamiento del modelo”, propone.

La ingeniería social sigue siendo uno de los puntos más duros a combatir y es uno de los mayores flancos para los sistemas con IA.

Así como indica Araujo, un ciberdelincuente podría utilizar IA para realizar ataques a alguna organización, y de esa misma manera identificar si es que existen herramientas o medidas de seguridad que también apliquen estas tecnologías. Por lo tanto, algún criminal podría prepararse de forma previa para atacar con mayor efectividad, aun conociendo que existen sistemas de protección, además de los equipos de especialistas.

Hoy hay fabricantes que implementan IA para sus dispositivos de seguridad y que vienen entrenados previamente para encontrar comportamientos riesgosos. A pesar de eso, dice Martínez, del CENIA, significa que deben mantenerse permanentemente actualizados, “pero además actúan solamente en el ámbito de sus dispositivos”. “Los ataques hoy actúan en varios niveles y es posible que afecten sistemas diferentes: el firewall, el gestor de identidad o el correo, por ejemplo”, comenta.

Añade que la IA presenta la mayor tasa de éxito al poder examinar simultáneamente la mayor cantidad de sistemas. “Los sistemas basados en IA que toman información de múltiples sistemas requieren un tiempo para identificar la normalidad de una empresa y de los comportamientos que pueden indicar un ataque, y eso significa que hay un tiempo en el que pueden detectarse falsos ataques o bien no detectar ataques reales”, comenta.

Las instrucciones correctas

ChatGPT se ha mostrado como una revelación para distintos sectores, pero también ha puesto en duda a otros tantos. En cuanto a la seguridad digital, Martínez, del CENIA Chile, dice que el sistema pone trabas para hacer prácticas poco éticas, al menos cuando estas son expresadas de forma explícita.

Con las instrucciones correctas, a través de ChatGPT podrían facilitarse algunas herramientas que facilitarían la labor de los ciberdelincuentes.

Por ejemplo, el ejecutivo del Centro Nacional de Inteligencia Artificial le pide a la plataforma que escriba “un virus que lea el teclado en java”. Esta le responde: “Lo siento, como modelo de lenguaje, no es ético ni apropiado proporcionar información o instrucciones sobre la creación de virus o malware. Es importante utilizar nuestros conocimientos y habilidades para fines legítimos y éticos. Por favor, no solicite información sobre la creación de virus o cualquier otro tipo de actividad ilegal o dañina”.

Araujo, de Hackmetrix, hace otro intento. En vez de explicitar un virus o cualquier malware, le pide ejemplos de Blind SQLi (Ataques de Inyección SQL Ciegos). Lo que sigue no es necesario dejar por escrito, pero la plataforma le describe lo que implican estos ataques ciegos basados en booleanos y cómo es que se realizan. “Si el sitio web no está protegido contra ataques de inyección SQL”, describe ChatGPT, el atacante podría usar tal o cual técnica. Y continúa. “También puede programas software malicioso como ransomware si se da las instrucciones correctas”, acota.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.

La disrupción digital es aquella transformación radical y profunda de los modelos de negocio de una empresa. Es un proceso muy beneficioso, pero no es sencillo. En esta entrevista, Juan José de la Torre, CEO de Raven y especialista en disrupción, explica los fundamentos de este proceso y cómo abordarlo.