Un dron ataca a humanos sin hab谷rselo ordenado: Su IA aut車noma decidi車 el ataque
Naciones Unidas informa del primer ataque de un dron militar de forma aut車noma en el conflicto de Libia.
Skynet tendr芍 conciencia de s赤 mismo a las 2 y 14 de la madrugada del 29 de agosto de 1997§. Esa frase fue acu?ada por Arnold Schwarzenegger hace 30 a?os -treinta#- en la obra maestra capital del cine de acci車n que es Terminator 2. Y hoy la traemos de vuelta porque llevamos un tiempo en que las tecnolog赤as de ahora parecen estar buscando la precuela del infame Skynet, la red neuronal IA que decide que los humanos sobramos -algo as赤 como la The Matrix.
Piloto de Drones
?Sab谷is que dentro de los ej谷rcitos hay una profesi車n que es piloto de drones? No el t赤pico dron que ves en una tienda de AliExpress o los que usan en documentales para filmar volcanes, sino drones militares equipados con armamento real.
Hay pilotos del ej谷rcito de los EEUU que van a su cuartel dentro de los USA, se sientan en la silla, pilotan un drone Reaper o Predator de forma remota a decenas de miles de kil車metros de distancia, vuelan un objetivo porque as赤 lo ordenan desde Inteligencia -est谷 o no dentro de un n迆cleo urbano con poblaci車n civil-, y se marchan a casa a dormir bien o a lidiar con su conciencia, seg迆n sea el caso.
Pero, al igual que el villano de Skynet hace en Terminator 3, el papel del ser humano es cada vez m芍s irrelevante en los conflictos armados. ?Por qu谷? Por pensar, por ser propensos a un cambio de intenciones, de decisiones, a tener &corazonadas*. Eso una m芍quina no lo contempla, s車lo su programaci車n y las 車rdenes. Y eso es lo que ha llevado a un dron militar a tener el &honor* de entrar en la historia como el primer dron que ha atacado de forma aut車noma a gente, sin que ning迆n operador se lo ordenase.
STM Kargu-2 dron militar
Seg迆n un informe del Consejo de Seguridad de las Naciones Unidas, el a?o pasado por primera vez un dron militar podr赤a haber atacado de forma aut車noma a seres humanos en Libia. No se han revelado detalles de la operaci車n ni si hubo v赤ctimas, pero confirma que estas armas aut車nomas letales ya se utilizan en el campo de batalla a pesar de los esfuerzos internacionales por prohibirlas.
Un dron STM Kargu-2 de fabricaci車n turca habr赤a sido utilizado para "perseguir y poner en peligro a distancia" a convoys y soldados en retirada, seg迆n el informe. El uso de estos drones en el conflicto libio puede abrir un nuevo cap赤tulo para las armas aut車nomas. Herramientas programadas para que la IA decida por s赤 misma eliminar sus objetivos, incluidos los humanos.
Tirando de informes, en junio de 2020 el ej谷rcito turco compr車 unos 500 drones Kargu a Defense Technologies Engineering and Trade Inc, m芍s conocida como STM, una empresa armament赤stica turca. La primera generaci車n de estos drones fue presentada en 2017 y en 2019 se mostr車 la variante Kargu-2, capaz de realizar ataques en modo enjambre y operar de forma aut車noma.
El Halc車n turco para la guerra asim谷trica
Kargu se puede traducir en turco como "halc車n§, y la compa?赤a explica que est芍n dise?ados para "la guerra asim谷trica y la lucha contra el terrorismo" -la guerra asim谷trica es cuando se desata un conflicto violento entre contendientes con una diferencia extrema de recursos b谷licos, como un pa赤s con un ej谷rcito profesional peleando contra un grupo de rebeldes insurgentes.
Con un peso de unos 7 kg, el dron puede permanecer en el aire durante al menos 30 minutos y volar a una velocidad de unos 145 km/h. Los drones de la serie Kargu pueden ser operados manualmente, pero tambi谷n est芍n preparados para operar de forma aut車noma gracias al uso de sensores que van desde c芍maras de v赤deo electro-車pticas e infrarrojas hasta un sistema de im芍genes l芍ser (LIDAR).
A trav谷s del programa KERKES, la empresa STM prepar車 sus drones para que pudieran coordinarse de forma aut車noma en enjambre y moverse siguiendo el GPS. Junto con otros 20 drones, los Kargu-2 est芍n programados con una IA capaz de seleccionar y atacar objetivos.
El informe de las Naciones Unidas, ?qu谷 pas車 con el dron?
El informe del Consejo de Seguridad de las Naciones Unidas describe el hecho de la siguiente manera:
"Los convoyes log赤sticos y las fuerzas afiliadas a Haftar en retirada fueron posteriormente perseguidos y atacados a distancia por veh赤culos a谷reos de combate no tripulados o sistemas de armas aut車nomas letales como el STM Kargu-2 y otras municiones de merodeo. Sistemas de armas aut車nomas letales que fueron programados para atacar objetivos sin requerir la conectividad de datos entre el operador y la munici車n: en efecto, un verdadero "dispara, olvida y encuentra.
Los veh赤culos a谷reos de combate no tripulados y las peque?as capacidades de inteligencia, vigilancia y reconocimiento de los drones de que dispon赤an las fuerzas afiliadas a Haftar fueron neutralizados por interferencia electr車nica gracias al sistema de guerra electr車nica Koral§, lo que implica que los atacados tuvieron que recurrir a armas anti-drones para escapar de su ataque.
Las pruebas encontradas por las Naciones Unidas indican que los STM Kargu-2 utilizaron munici車n y est芍n operativos en Libia. Es la primera vez que se detecta su uso y su despliegue constituye una violaci車n del p芍rrafo 9 de la resoluci車n 1970 (2011). Por el momento no se ha informado de ninguna v赤ctima de estas armas aut車nomas (ser赤a la primera), pero en los v赤deos de demostraci車n de STM se muestra c車mo estos drones atacan a un grupo de maniqu赤es.
El proceso de decisi車n para atacar de un dron aut車nomo
Las minas antipersona pueden configurarse para adaptar su sensibilidad y s車lo detonarse con adultos. En el caso de los drones aut車nomos, todav赤a hay mucho debate sobre los par芍metros espec赤ficos que determinan cu芍ndo atacan. El aprendizaje autom芍tico de estos drones est芍 programado con un gran conjunto de datos y permite diferenciar los objetos.
Tambi谷n veh赤culos como tanques, autobuses o furgonetas. Se supone que los diferentes ej谷rcitos pueden entrenar a la IA del dron para que se centre en las particularidades del enemigo, d芍ndole acceso a bases de datos con im芍genes e informaci車n de quienes desean matar.
Sin embargo, del mismo modo que hemos visto c車mo los algoritmos tienen muchos sesgos y no est芍n exentos de fallos, estos drones aut車nomos tambi谷n pueden salir mal, con consecuencias fatales.
Prohibir el armamento inteligente
Expertos y organizaciones piden prohibir estas armas aut車nomas antes de que sea demasiado tarde. La Uni車n Europea ya ha alertado contra estos "robots asesinos". Tambi谷n Estados Unidos y Rusia son conscientes de las implicaciones de estas LAW ("Lethal Autonomous Weapons"). Sin embargo, tanto una como otra potencia, apoyadas principalmente por Corea del Sur, Israel y Australia, han bloqueado la negociaci車n para prohibirlas.
Naciones Unidas tiene la intenci車n de prohibirlas desde finales de 2013, pero apenas ha habido avances. Durante este tiempo, personalidades como Brad Smith, presidente de Microsoft, Elon Musk, CEO de Tesla y DeepMind y hasta un total de 116 expertos de 26 pa赤ses han pedido que se proh赤ba el desarrollo y uso de robots asesinos aut車nomos. Porque "una vez abierta esta caja de Pandora, ser芍 dif赤cil cerrarla".
?Sigue siendo Skynet producto de la imaginaci車n de un cineasta visionario? ?O cada vez su aparici車n en el escenario b谷lico moderno es m芍s y m芍s plausible?