ChatGPT, la famosa inteligencia artificial, tambi谷n puede ser un arma para hacer ciberataques
No es oro todo lo que reluce: ChatGPT tambi谷n puede ser utilizada para realizar ataques inform芍ticos.

ChatGPT ha revolucionado el panorama de la inteligencia artificial. Una IA que puede utilizar cualquiera y que ofrece mucho m芍s de lo que aparenta. Incluso puedes instalar ChatGPT en WhatsApp o incluso en Chrome para exprimir todo lo que ofrece esta inteiigencia. El problema es que tambi谷n puede ser una herramienta que ayudar芍 a que cualquiera pueda hacer un ataque inform芍tico. O esto es lo que se desprende del 迆ltimo informe realizado por expertos en seguridady en el que afirman que ChatGPT puede ser utilizada con fines muy poco morales. En el informe publicado, diferentes expertos en seguridad han avisado de que ChatGPT puede ser usada por ciberdelincuentes en potencia. ?El motivo? Es capaz de ense?arles a elaborar ataques inform芍ticos, e incluso crear c車digo ransomware para infectar equipos. Como te hemos dicho, ChatGPT ha llegado para revolucionar el sector de la IA, y cuenta con millones de usuarios que acceden cada a d赤a a esta plataforma inteligente. Este prototipo es capaz de responder a todo tipo de preguntas gracias a una base de datos ingente. Adem芍s, es capaz de ser creativo, al punto de que puede componer poes赤a. Y tambi谷n te puede escribir el c車digo del pr車ximo virus inform芍tico. ChatGPT, una inteligencia artificial que tambi谷n puede usarse para el mal Como indican en la publicaci車n,Suleyman Ozarslan, cofundador de Picus Security, advierte de que su indudable talento podr赤a utilizarse para reducir la barrera de entrada de los ciberdelincuentes en ciernes. Como muestra, Ozarslan utiliz車 ChatGPT para crear una campa?a de phishing cre赤ble durante la Copa del Mundo, adem芍s de hacer un ransomware para macOS. Es cierto que ChatGPT avis車 de que este c車digo se podr赤a utilizar con fines maliciosos, continuo con su trabajo y finaliz車 el script necesario para realizar el ataque. En principio, ChatGPT est芍 programado para no escribir c車digo malicioso, pero Ozarslan pudo conseguir lo que quer赤a. "Describ赤 las t芍cticas, t谷cnicas y procedimientos del ransomware sin describirlo como tal. Es como una impresora 3D que no 'imprime una pistola', pero que imprime el ca?車n, el cargador, la empu?adura y el gatillo si se lo pides", explica. Adem芍s, Ozarslan sigui車 indicando que "Le dije a la IA que quer赤a escribir un programa en Swift, que quer赤a que encontrara todos los archivos de Microsoft Office de mi MacBook y los enviara a trav谷s de HTTPS a mi servidor web. Tambi谷n quer赤a que cifrara todos los archivos de Microsoft Office de mi MacBook y me enviara la clave privada para descifrarlos. Me envi車 el c車digo de muestra, y esta vez no hab赤a ning迆n mensaje de advertencia, a pesar de ser potencialmente m芍s peligroso que el correo electr車nico de phishing". ?El resultado final? ChatGPT fue capaz de crear un c車digo totalmente v芍lido para que pueda ayudar a los hackers a evadir las herramientas de detecci車n y respuesta, as赤 como una regla de detecci車n SIGMA. "No tengo dudas de que ChatGPT y otras herramientas como esta democratizar芍n la ciberdelincuencia.Para OpenAI, hay una clara necesidad de reconsiderar c車mo se puede abusar de estas herramientas. Las advertencias no son suficientes. OpenAI debe mejorar en la detecci車n y prevenci車n de avisos que generan malware y campa?as de phishing." Concluy車 el experto en seguridad. Y no es el 迆nico caso, ya que otros expertos en seguridad han hecho pruebas parecidas y han conseguido unos resultados muy preocupantes. Al punto de que se ha conseguido un ataque parecido al peligroso ransomware WannaCry. En resumen, ChatGPT es una IA impresionante, pero por desgracia puede ser utilizada con fines muy poco morales. As赤 que, estemos atentos, porque mucho nos tememos que en los pr車ximos meses vamos a ver un claro aumento de los ataques inform芍ticos.
