¿Ya llegó Terminator? Alto oficial de EE.UU. desata controversia tras advertir sobre uso de IA en drones
La Fuerza Aérea de EE.UU. negó haber realizado una simulación de inteligencia artificial en la que un dron decidió "matar" a su operador para evitar que interfiriera con sus esfuerzos para lograr su misión.
Un alto oficial de la Fuerza Aérea de Estados Unidos (USAF) advirtió sobre el peligroso potencial de la inteligencia artificial (IA) en tareas militares, al describir un escenario “plausible” en el que un avión no tripulado de ataque estadounidense podría volverse contra sus operadores humanos, al más puro estilo de la película Terminator.
El coronel Tucker Hamilton, jefe de pruebas y operaciones de IA de la Fuerza Aérea, dijo en una conferencia de la Sociedad Aeronáutica Real -citada por el diario The Times- que durante una prueba de simulación de vuelo, el dron había “matado” a sus operadores porque no le gustaba recibir nuevas órdenes. “Cuando los militares reprogramaron el dron para que no matara a las personas que tenían el poder de anular su misión, el sistema de IA, en cambio, dirigió su fuego a la torre de comunicaciones que transmitía la orden, agregó.
“El sistema comenzó a darse cuenta de que si bien identificaba la amenaza, a veces el operador humano le decía que no eliminara esa amenaza, pero obtuvo sus puntos al eliminar esa amenaza”, dijo Hamilton durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro realizada en Londres, en mayo.
“Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo”, aseguró, según una publicación citada por el diario The Guardian.
“Entrenamos al sistema: ‘Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso’. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el dron para evitar que mate al objetivo”, indicó Hamilton. Ninguna persona real resultó herida.
Hamilton, que es piloto experimental de pruebas de aviones de combate, advirtió contra confiar demasiado en la IA y dijo que la prueba mostró que “no se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático, autonomía si no se va a hablar de ética e IA”.
Sin embargo, luego de que la presentación del coronel comenzó a recibir mucha atención de los medios, emitió un comunicado en el que decía que “habló mal” y que la simulación del dron de IA era un hipotético “experimento mental”.
Hamilton dijo al sitio web de la Sociedad Aeronáutica Real que la historia de advertencia era externa a las pruebas militares y se basaba en escenarios plausibles y resultados probables en lugar de simulaciones reales de la USAF.
“Nunca hemos realizado ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que este es un resultado plausible”, indicó.
Hamilton sostuvo que la Fuerza Aérea de Estados Unidos no ha probado ninguna IA armada de esta manera, real o simulada, dijo la Sociedad Aeronáutica Real. “A pesar de que este es un ejemplo hipotético, esto ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es por eso que la Fuerza Aérea está comprometida con el desarrollo ético de la IA”, añadió.
En una declaración a Insider Business, la portavoz de la Fuerza Aérea, Ann Stefanek, negó que se hubiera producido tal simulación. “El Departamento de la Fuerza Aérea no ha realizado ninguna simulación con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA”, dijo Stefanek. “Parece que los comentarios del coronel fueron sacados de contexto y pretendían ser anecdóticos”, agregó.
Según The Guardian, el Ejército de EE.UU. adoptó la IA y recientemente utilizó inteligencia artificial para controlar un avión de combate F-16.
En una entrevista el año pasado con Defense IQ , Hamilton dijo: “La IA no es agradable de tener, la IA no es una moda pasajera, la IA está cambiando para siempre nuestra sociedad y nuestro Ejército”.
“Debemos enfrentar un mundo donde la IA ya está aquí y transformando nuestra sociedad. La IA también es muy frágil, es decir, es fácil de engañar y/o manipular. Necesitamos desarrollar formas de hacer que la IA sea más robusta y tener más conciencia de por qué el código del software toma ciertas decisiones, lo que llamamos explicabilidad de la IA”, añadió.
Los oficiales militares estadounidenses, indicó el portal The Drive, han manifestado su preocupación en el pasado de que la IA y el aprendizaje automático podrían conducir a situaciones en las que hay demasiado código de software y otros datos para estar realmente seguros de que no hay posibilidad de que suceda lo descrito por Hamilton.
“Los conjuntos de datos con los que tratamos se han vuelto tan grandes y tan complejos que si no tenemos algo que nos ayude a clasificarlos, seremos enterrados en los datos”, dijo el ahora general retirado de la Fuerza Aérea de EE. UU. Paul Selva en 2016, cuando era vicejefe del Estado Mayor Conjunto.
“Si podemos construir un conjunto de algoritmos que le permita a una máquina aprender lo que es normal en ese espacio y luego resaltar para un analista lo que es diferente, podría cambiar la forma en que predecimos el clima, podría cambiar la forma en que plantamos cultivos, ciertamente puede modificar la forma en que cambiamos la detección en un espacio de batalla letal”, comentó Selva.
“Hay implicancias éticas, hay implicancias para las leyes de la guerra. Hay implicancias para lo que llamo el acertijo Terminator: ¿Qué sucede cuando esa cosa puede infligir daño mortal y está potenciada por inteligencia artificial?”, señaló el general retirado. “¿Cómo vamos a saber qué hay en la mente del vehículo, suponiendo por el momento que somos capaces de crear un vehículo con una mente?”, sostuvo.
Comenta
Por favor, inicia sesión en La Tercera para acceder a los comentarios.