La peligrosa predicci車n de Bill Gates sobre una nueva ※bomba at車mica§
El cofundador de Microsoft alerta en su blog &GatesNotes* de los peligros que puede suponer un mal uso de la Inteligencia Artificial.

Bill Gates, cofundador de Microsoft, tambi谷n es conocido por su faceta de fil芍ntropo y por ser algo as赤 como un divulgador cient赤fico que intenta pronosticar qu谷 va a ocurrir en el futuro y cu芍les son las principales amenazas a las que se enfrentar芍 la humanidad. Entre otras estimaciones, Gates ya ha hablado de la importancia de la Inteligencia Artificial y de c車mo tiene que prepararse el mundo para una pr車xima y potencial pandemia.
Coincidiendo con el estreno de Oppenheimer, la pel赤cula que narra la historia de Robert Oppenheimer, el desarrollador de las primeras armas nucleares, el cofundador de Microsoft ha alertado de la llegada de una nueva ※bomba at車mica§ en la que la tecnolog赤a cobrar芍 gran importancia.
※Hay un riesgo relacionado a un nivel global: una carrera armament赤stica por la cual la IA puede ser usada para dise?ar y lanzar ciberataques contra otros pa赤ses§, ha explicado Gates en su web GatesNotes. En otras palabras, que la Inteligencia Artificial se podr芍 utilizar entre pa赤ses para &hackear* a otras potencias.
※Todos los gobiernos quieren tener la tecnolog赤a m芍s poderosa para poder disuadir los ataques de sus adversarios. Este incentivo para no dejar que nadie se adelante podr赤a desencadenar una carrera para crear ciberarmas cada vez m芍s peligrosas. Todos estar赤an peor§. Por ello, el cofundador de Microsoft aboga por ※la creaci車n de un organismo global para la IA§ similar a la Agencia Internacional de Energ赤a At車mica, un organismo que ※los gobiernos deber赤an considerar§.
En definitiva, que la IA puede ※ayudar a los piratas inform芍ticos a escribir un c車digo m芍s efectivo§ y a acceder a ※informaci車n p迆blica sobre personas, como d車nde trabajan y qui谷nes son sus amigos, para desarrollar ataques de phishing m芍s avanzados que los que vemos hoy§.
Seg迆n Gates, tambi谷n se recurrir芍 a la IA para desarrollar armas nucleares, por lo que hay que poner l赤mites a esta nueva tecnolog赤a. ※No debemos tratar de evitar temporalmente que las personas implementen nuevos desarrollos en IA, como algunos han propuesto. Los ciberdelincuentes no dejan de fabricar nuevas herramientas. Tampoco lo har芍n las personas que quieran usar IA para dise?ar armas nucleares y ataques bioterroristas. El esfuerzo por detenerlos debe continuar al mismo ritmo§.
Los gobiernos y las empresas tendr芍n que ser cautos con la IA
Por todo esto, los gobiernos deben comenzar a tratar el tema de la inteligencia artificial de forma cauta, y ※desarrollar experiencia§ en las IA ※para que puedan elaborar leyes y regulaciones§.
Las empresas privadas de IA, por otro lado, ※deben realizar su trabajo de manera segura y responsable§. ※Eso incluye proteger la privacidad de las personas, asegurarse de que sus modelos de IA reflejen los valores humanos b芍sicos, minimizar los sesgos, distribuir los beneficios a tantas personas como sea posible y evitar que la tecnolog赤a sea utilizada por delincuentes o terroristas§, indica Gates.
※Finalmente, animo a todos a seguir los desarrollos en IA tanto como sea posible. Es la innovaci車n m芍s transformadora que cualquiera de nosotros ver芍 en nuestras vidas, y un debate p迆blico saludable depender芍 de que todos conozcan la tecnolog赤a, sus beneficios y sus riesgos. Los beneficios ser芍n enormes y la mejor raz車n para creer que podemos manejar los riesgos es que lo hemos hecho antes§, concluye Gates.