Advertencia del fil¨®sofo Zizek sobre el riesgo entre la Inteligencia Artificial y las personas
¡°Las nuevas IAs se basan en la apropiaci¨®n indiscriminada de la cultura existente, y el creer que son realmente expertas o significativas es algo activamente peligroso¡±, exhibe este experto en Clar¨ªn.
La Inteligencia Artificial (IA) es la combinaci¨®n de algoritmos planteados con el objetivo de confeccionar m¨¢quinas que presenten las mismas capacidades que el ser humano. Una tecnolog¨ªa que todav¨ªa nos resulta desconocida y misteriosa, pero que desde hace unos a?os est¨¢ presente en nuestro d¨ªa a d¨ªa a todas horas.
Sobre esta tecnolog¨ªa que imita la inteligencia humana, el profesor de Filosof¨ªa de la European Graduate School, Slavoj ?i?ek, ha realizado recientemente una dura cr¨ªtica en Clar¨ªn. ¡°Las nuevas IAs se basan en la apropiaci¨®n indiscriminada de la cultura existente, y el creer que son realmente expertas o significativas es algo activamente peligroso¡±, exhibe este experto.
Cautela con los nuevos generadores de im¨¢genes de IA
Es por ello que debemos ser muy cautelosos con los nuevos generadores de im¨¢genes de IA, los cuales emplean un sistema capaz de crear im¨¢genes desde cero utilizando algoritmos de aprendizaje autom¨¢tico. Es decir, a partir de la entrada de texto en un lenguaje natural, estos programas pueden crear im¨¢genes originales y realistas.
Cabe destacar que estas bases de datos de im¨¢genes con las que estos modelos se han entrenado est¨¢n llenos de fotos recopiladas de la red sin permiso, lo que puede suponer una vulneraci¨®n de derechos de autor. De hecho, algunos propietarios de estas extensas colecciones de im¨¢genes han reconocido que incluso en su listado puede haber pornograf¨ªa infantil e incluso propaganda de grupos terroristas.
El verdadero peligro
Por todo ello, existe una tendencia generalizada en la sociedad actual que advierte de multitud de riesgos que est¨¢n pasando desapercibidos. En este contexto, tambi¨¦n aparece chatbot, un software que simula una conversaci¨®n real con una persona, gracias a una interfaz que se construye con palabras clave y se basa en interacciones que se repiten entre usuarios y marcas en sitios web.
¡°El problema no es los chatbots sean est¨²pidos; es que no son lo suficientemente ¡®est¨²pidos¡¯. No es que sean ingenuos; es que no son los suficientemente ¡®ingenuos¡¯. El verdadero peligro, entonces, no es que la gente tome a un chatbot por una persona real, es que comunicarse con los chatbots haga que las personas hablen como chatbots, pasando por alto todos los matices y las iron¨ªas, diciendo obsesivamente y con precisi¨®n lo que creen que quieren decir¡±, puntualiza ?i?ek.
Arma de doble filo
Por todo ello, la IA, en su conjunto, est¨¢ demostrando ser un arma de doble filo. Aunque esta genera beneficios para el consumidor y un gran valor comercial, tambi¨¦n est¨¢ dando lugar a una serie de consecuencias no deseadas y, en ocasiones, graves.
Las m¨¢s visibles, que incluyen violaciones de la privacidad, discriminaci¨®n, accidentes y manipulaci¨®n de los sistemas pol¨ªticos, son m¨¢s que suficientes para incitar a la cautela. M¨¢s preocupantes a¨²n son las consecuencias que todav¨ªa no son conocidas o est¨¢n experimentadas.