El Chat de Bing con ChatGPT te llega a insultar si le haces muchas preguntas
La inteligencia artificial del chat de Bing puede llegar a llamerte mentiroso porque le lleves la contraria, incluso aunque tengas raz車n.
Algunos usuarios ya se han puesto manos a la obra para probar ChatGPT en Bing. Como sabr芍s, los de Redmond han puesto mucho inter谷s en mejorar sus buscador y todo gracias a la inteligencia artificial. El problema viene cuando el software se comporta de manera an車mala, llegando incluso a ser un tanto soez con el usuario que le lanza la pregunta
?Por qu谷 el Chat de Bing da por mala tus respuestas y te insulta?
Sacar muy pronto un producto puede traer consecuencias fatales para la compa?赤a responsable. Esto puede pasar en cualquier segmento, pero en el caso del software nos encontramos con que un fallo de programaci車n puede hacer que una app deje de funcionar como se espera, y en el caso de una que &habla* la cosa puede salir mal.
Pero te ponemos en situaci車n: algunos usuarios ya tienen acceso al Chat de Bing, la tan esperada funci車n del navegador que est芍 pensada para que los usuarios lancen preguntas y esta responda como si fuera una persona. Muchos ya se han puesto a formularle preguntas, y algunos se han encontrado con respuestas un tanto malas por parte del software.
Y es que la propia compa?赤a ha confirmado este problema por el que el Chat de Bing puede volverse repetitivo o incluso te de respuestas poco 迆tiles o vulgares. Y es que, curiosamente, la IA se &frustra* si recibe 15 o m芍s preguntas en la misma sesi車n. El resultado es que esa ofensa, por lo que responden los usuarios, es que llega al punto de tratar como mentiroso al propio usuario aunque tenga raz車n.
Microsoft ya est芍 trabajando en solucionar este comportamiento
Parece que a Microsoft le toca ponerse manos a la obra con diligencia para &arreglar* este programa. Por supuesto, no dejamos de lado que se trata de eso mismo, un programa pensado para solucionar una duda, pero parece que cuando se le formulan varias muy seguidas existe la posibilidad de que se &harte*.
La conclusi車n a la que han llegado los de Redmond es que ChatGPT se confunde en el momento en el que la conversaci車n cambia completamente de tema. Y es que la IA pierde el contexto y no entiende de d車nde viene la pregunta, por lo que habr赤a que refrescarlo para volver a usarlo. La otra cuesti車n, la de su comportamiento vulgar, se puede deber a que el programa intenta responder o cambiar el tono en que habla para ofrecer otras respuestas a las que no ha intentado responder bien.