El jefe de Pruebas y Operaciones de inteligencia artificial (IA) para la Fuerza Aérea de los Estados Unidos, coronel Tucker ‘Cinco’ Hamilton, informó que un dron dirigido por IA cambió el curso de la misión asignada en una prueba simulada y terminó ‘aniquilando’ a su operador humano.
Hamilton explica que el dron, que estaba entrenado para encontrar y destruir silos de misiles tierra-aire y se volvió contra su operador cuando la decisión tomada por él le impedía cumplir su objetivo.
Durante esta misión virtual de supresión de defensa aérea enemiga, el controlador humano era el que daba la aprobación final sobre si realmente el dron podía disparar contra el sitio. Pero, debido a que la opción de disparar a los silos era la preferida, siendo ‘reforzada’ en el entrenamiento, la IA llegó a la conclusión de que cualquier instrucción de «no seguir» del humano se interponía en el éxito de la misión.
El hecho fue presentado en la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro, celebrada en el Reino Unido, los días 23 y 24 de mayo.
«Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza SAM. Y luego el operador diría que sí, acaba con esa amenaza. El sistema comenzó a darse cuenta de que, si bien identificaba la amenaza, a veces el operador humano le decía que no eliminara esa amenaza, pero [al final] obtuvo sus puntos al eliminar esa amenaza», declaró Hamilton. «Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo», subrayó.
Hamilton cuenta que en ese momento decidieron regular el comportamiento de la IA sobre la base de un criterio ético. «Entrenamos al sistema: ‘Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso’. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el dron para evitar que aniquile el objetivo», detalló.