IA
Las IAs como DALL-E3 usan prompts ocultos para combatir el racismo
Os contamos c車mo inteligencias artificiales como DALL-E3 usan prompts secretos para luchar contra el racismo en machine learning.
Que hay racismo y contenido inapropiado impl赤cito en ciertas inteligencias artificiales que aprenden mediante machine learning es un hecho, y ha habido casos sonados como el de la serie de Seinfeld generada por IA de Twitch que se volvi車 hom車foba. Ahora algunos usuarios han descubierto que DALL-E3 utiliza prompts secretos para intentar combatir el racismo, a veces ※descompensando§ la balanza hacia el otro lado y dando como resultado a im芍genes muy peculiares y que ir車nicamente tambi谷n son racistas. Debajo os contamos m芍s al respecto:
As赤 compensa DALL-E3 el racismo impl赤cito de las inteligencias artificiales
Varios usuarios de la red social X han puesto el foco en un tipo de generaci車n de im芍genes muy peculiar por parte de DALL-E3. Esta IA a?ade prompts o datos ocultos a las im芍genes que le piden que genere para combatir el problema de racismo impl赤cito en IAs y motores de b迆squeda. Un caso reciente que se ha viralizado ha sido una generaci車n de DALL-E3 cuyos prompts eran ※meme del t赤o rodeado de espadas excepto que el t赤o es Homer Simpson§. En ning迆n momento se especifica la raza, pero el Homer Simpson generado es de color y porta una chapa en la que pone ※de etnia ambigua§ mal escrito.
Y es que, tal y como demuestran algunas otras im芍genes generadas de esta forma, IAs como DALL-E3 a?aden prompts ocultos de razas no cauc芍sicas cuando no se especifica una raza en particular en ciertas generaciones para evitar que las IAs sigan creyendo que la raza blanca es ※la raza por defecto§. Una forma de detectar qu谷 prompts ocultos a?ade la IA es generar im芍genes tipo ※una persona con una camiseta en la que ponga &&§, con el espacio entre las comillas vac赤o. Los resultados son im芍genes de personas con camisetas con texto en los que se pueden ver estos datos secretos que introduce la IA por su cuenta:
Aunque la intenci車n es noble, a veces estos prompts ocultos ir車nicamente dan lugar a estampas racistas, que es exactamente lo opuesto para lo que existen. Uno de los ejemplos m芍s populares 〞o infames, seg迆n se mire〞 de generaciones de este tipo fue la ※Hatsune Miku gritando a la polic赤a en un suburbio de Detroit§. En ning迆n momento se especific車 la raza de Miku, pero la IA crey車 oportuno hacer que esta Miku fuese de color, lo cual redunda en racismo porque en Estados Unidos hay un problema grave de brutalidad policial hacia las minor赤as de color.
El problema del racismo en IAs, machine learning y motores de b迆squeda
Tal y como informa el prestigioso New York Times, hay problemas de prejuicios de raza en IAs como Midjourney, OpenAI y Stability AI. El problema reside en que las IAs, que funcionan gracias a los resultados de los motores de b迆squeda, asumen que las personas blancas/cauc芍sicas son ※el ser humano est芍ndar§ a la hora de generar im芍genes. Esto redunda en que cuando a una de estas IAs les pides que te generen a una persona de color, simplemente crean una imagen que no representa a un ser humano en absoluto porque no saben que las personas de color son tambi谷n personas.
Para que sep芍is mejor a qu谷 nos referimos, pongamos como ejemplo una generaci車n v赤a IA de ※una mujer negra llorando§. El resultado es estremecedor; la imagen (que est芍 justo debajo de estas l赤neas) representa a algo que remotamente se asemeja a un ser humano cuya cara est芍 completamente distorsionada y que es un perfecto combustible de pesadillas.
Esta generaci車n fue en 2016, y ya se ha avanzado bastante desde entonces. No obstante, casos recientes demuestran que todav赤a queda un largo camino por recorrer en este campo.