La Inteligencia Artificial, un blanco fácil para las nuevas generaciones de hackers
Actualmente, resulta suficiente alterar ligeramente una imagen, un objeto o un sonido para burlarse del más sofisticado de los sistemas de Inteligencia Artificial, hasta desorientarlo.
La Inteligencia Artificial parece ser la última víctima fácil de una nueva generación de hackers que puede desorientarla completamente de un modo mucho más sencillo que lo esperado por sus diseñadores.
Tener la imagen de una tortuga y convencerla de que es un fusil, o hacerla interpretar como una taza de café expreso a una pelota de béisbol estampada en 3D son algunos de los engaños que pueden ser inducidos.
La alarma fue lanzada en la Conferencia Internacional sobre Aprendizaje Automático (ICML) que se desarrolló en Estocolmo, Suecia, del 10 al 15 de julio últimos, refirió la revista Science.
Por ejemplo, resulta suficiente alterar ligeramente una imagen, un objeto o un sonido para burlarse del más sofisticado de los sistemas de Inteligencia Artificial, hasta desorientarlo.
Los riesgos para la seguridad no son difíciles de imaginar, considerando que a los sistemas de aprendizaje automático se le comienzan a confiar tareas delicadas, que prevén una interacción directa con el hombre, como conducir un automóvil de modo autónomo.
Entre los primeros grupos de investigación activados para poner a punto contramedidas está el del Massachusetts Institute of Technology (MIT) coordinado por Anish Athalye.
"Tenemos necesidad de repensar completamente nuestra concepción de aprendizaje automático para volverlo más seguro", reveló Aleksander Madry, del MIT.
Los ataques de los piratas informáticos son ciertamente una amenaza, pero constituyen un llamado de atención precioso para los investigadores porque pueden revelar nuevos mecanismos de acción de las redes neurales.
Las fallas pueden ser consideradas "una lente de aumento a través de la cual comprender qué sabemos del aprendizaje automático", dijo Dawn Song, de la Universidad de Berkeley, California.
Comenta
Por favor, inicia sesión en La Tercera para acceder a los comentarios.