ChatGPT, la famosa inteligencia artificial, tambi¨¦n puede ser un arma para hacer ciberataques
No es oro todo lo que reluce: ChatGPT tambi¨¦n puede ser utilizada para realizar ataques inform¨¢ticos.
ChatGPT ha revolucionado el panorama de la inteligencia artificial. Una IA que puede utilizar cualquiera y que ofrece mucho m¨¢s de lo que aparenta. Incluso puedes instalar ChatGPT en WhatsApp o incluso en Chrome para exprimir todo lo que ofrece esta inteiigencia. El problema es que tambi¨¦n puede ser una herramienta que ayudar¨¢ a que cualquiera pueda hacer un ataque inform¨¢tico. O esto es lo que se desprende del ¨²ltimo informe realizado por expertos en seguridady en el que afirman que ChatGPT puede ser utilizada con fines muy poco morales. En el informe publicado, diferentes expertos en seguridad han avisado de que ChatGPT puede ser usada por ciberdelincuentes en potencia. ?El motivo? Es capaz de ense?arles a elaborar ataques inform¨¢ticos, e incluso crear c¨®digo ransomware para infectar equipos. Como te hemos dicho, ChatGPT ha llegado para revolucionar el sector de la IA, y cuenta con millones de usuarios que acceden cada a d¨ªa a esta plataforma inteligente. Este prototipo es capaz de responder a todo tipo de preguntas gracias a una base de datos ingente. Adem¨¢s, es capaz de ser creativo, al punto de que puede componer poes¨ªa. Y tambi¨¦n te puede escribir el c¨®digo del pr¨®ximo virus inform¨¢tico. ChatGPT, una inteligencia artificial que tambi¨¦n puede usarse para el mal Como indican en la publicaci¨®n,Suleyman Ozarslan, cofundador de Picus Security, advierte de que su indudable talento podr¨ªa utilizarse para reducir la barrera de entrada de los ciberdelincuentes en ciernes. Como muestra, Ozarslan utiliz¨® ChatGPT para crear una campa?a de phishing cre¨ªble durante la Copa del Mundo, adem¨¢s de hacer un ransomware para macOS. Es cierto que ChatGPT avis¨® de que este c¨®digo se podr¨ªa utilizar con fines maliciosos, continuo con su trabajo y finaliz¨® el script necesario para realizar el ataque. En principio, ChatGPT est¨¢ programado para no escribir c¨®digo malicioso, pero Ozarslan pudo conseguir lo que quer¨ªa. "Describ¨ª las t¨¢cticas, t¨¦cnicas y procedimientos del ransomware sin describirlo como tal. Es como una impresora 3D que no 'imprime una pistola', pero que imprime el ca?¨®n, el cargador, la empu?adura y el gatillo si se lo pides", explica. Adem¨¢s, Ozarslan sigui¨® indicando que "Le dije a la IA que quer¨ªa escribir un programa en Swift, que quer¨ªa que encontrara todos los archivos de Microsoft Office de mi MacBook y los enviara a trav¨¦s de HTTPS a mi servidor web. Tambi¨¦n quer¨ªa que cifrara todos los archivos de Microsoft Office de mi MacBook y me enviara la clave privada para descifrarlos. Me envi¨® el c¨®digo de muestra, y esta vez no hab¨ªa ning¨²n mensaje de advertencia, a pesar de ser potencialmente m¨¢s peligroso que el correo electr¨®nico de phishing". ?El resultado final? ChatGPT fue capaz de crear un c¨®digo totalmente v¨¢lido para que pueda ayudar a los hackers a evadir las herramientas de detecci¨®n y respuesta, as¨ª como una regla de detecci¨®n SIGMA. "No tengo dudas de que ChatGPT y otras herramientas como esta democratizar¨¢n la ciberdelincuencia.Para OpenAI, hay una clara necesidad de reconsiderar c¨®mo se puede abusar de estas herramientas. Las advertencias no son suficientes. OpenAI debe mejorar en la detecci¨®n y prevenci¨®n de avisos que generan malware y campa?as de phishing." Concluy¨® el experto en seguridad. Y no es el ¨²nico caso, ya que otros expertos en seguridad han hecho pruebas parecidas y han conseguido unos resultados muy preocupantes. Al punto de que se ha conseguido un ataque parecido al peligroso ransomware WannaCry. En resumen, ChatGPT es una IA impresionante, pero por desgracia puede ser utilizada con fines muy poco morales. As¨ª que, estemos atentos, porque mucho nos tememos que en los pr¨®ximos meses vamos a ver un claro aumento de los ataques inform¨¢ticos.