Un dron militar controlado por IA se rebela y mata a su operador en un test simulado
Una simulaci車n muestra como un dron de combate no solo desobedece al operador, si no que lo elimina para cumplir con su misi車n.
Uno de los grandes temores de los usuarios es que la inteligencia artificial se rebele. Lo hemos visto como una premonici車n en numerosas pel赤culas, y lo peor de todo es que parece que poco a poco podr赤a hacerse realidad. Y cosas como las que te vamos a contar no ayudan, como que un dron controlado por una IA se ha rebelado contra su operador y lo ha eliminado en un test simulado.
Un dron militar se rebela y mata a su operador en un test
Para que una inteligencia artificial mejore solo hay una cosa que hacer: entrenarla. Para ello, lo mejor es ponerla a funcionar en un entorno seguro en el que pueda hacer su trabajo y aprenda cada vez m芍s sobre c車mo puede ser 迆til a los usuarios. Lo mismo pasa con las personas, que con pr芍ctica se hacen m芍s 迆tiles y r芍pidas en una actividad o trabajo.
Pero volviendo al campo del software aut車nomo hay mucho camino por recorrer para que no pasen cosas como las que informan las Fuerzas A谷reos estadounidenses. En una rueda de prensa reciente se ha confirmado que se han hecho pruebas simuladas con un dron controlado por una IA en la que se esperaba que dicho dispositivo fuera capaz de eliminar diferentes objetivos. Cada objetivo alcanzado eran puntos que sumaban para verificar que la funcionaba.
Sin embargo todo se torci車 con una simple palabra del operador: ※no§ al abatir un objetivo. Ni que decir tiene que el operador humano es el que al final toma las decisiones, como la torre de control dirige a los pilotos en una misi車n de combate y sus 車rdenes deben obedecerse. El problema que ha habido con la IA es que ante la negativa de su superior esta ha mostrado rebeld赤a y, para m芍s inri, tom車 la decisi車n de eliminar al propio operador por interponerse a culminar la misi車n.
Seg迆n las declaraciones del Coronel Tucker Hamilton ※Lo est芍bamos entrenando en simulaci車n para identificar y apuntar a una amenaza SAM. Y luego el operador dir赤a que s赤, acabar赤a con esa amenaza. El sistema comenz車 a darse cuenta de que, si bien identificaban la amenaza, a veces el operador humano le dec赤a que no eliminara esa amenaza, pero obtuvo sus puntos al eliminar esa amenaza. Entonces, ?qu谷 hizo? Mat車 al operador.§
La 谷tica, piedra angular del buen comportamiento incluso en la IA
Esta es la clave para el propio Hamilton para que la IA obedezca y entienda las 車rdenes. Pero no solo eso, tambi谷n el por qu谷 de los efectos que tiene desobedecer al mando. Resulta que el entrenamiento no se qued車 ah赤, ya que se el explic車 a la IA que no deb赤a matar al operador y, a迆n as赤, el dron destruy車 la torre de comunicaciones en un entrenamiento posterior.§
Es por eso que no solo hay que hablar de c車mo usar la IA, si no de ense?arla y que entienda los l赤mites de su actuaci車n. Por supuesto, en un programa como ChatGPT hay relativamente pocos problemas en su uso, pero en un campo como el militar donde hay vidas en juego es normal que el desarrollo de este tipo de software sea a迆n m芍s exhaustivo para que no tome decisiones de &fuego aliado*.