Microsoft retira chatbot luego de tuits ofensivos

Microsoft retira chatbot luego de tuits ofensivos

tayandyou

 

Microsoft informó el jueves que retiró de internet un software de inteligencia artificial diseñado para tuitear como si se tratara de una chica adolescente después de que comenzó a publicar comentarios ofensivos.





La empresa dijo que está realizando ajustes al chatbot después de que algunos usuarios descubrieron una forma de manipularlo para que tuiteara textos racistas o sexistas y a hacer referencias a Hitler.

El chatbot debutó el miércoles y está diseñado para aprender a comunicarse a través de conversaciones con seres humanos reales. Está dirigido a los jóvenes estadounidenses, de entre 18 y 24 años de edad. Los usuarios interactúan con él utilizando la cuenta de Twitter @tayandyou.

En un comunicado, Microsoft dijo que dentro de 24 horas, “nos dimos cuenta de un intento coordinado por parte de algunos usuarios para abusar de las capacidades de comentarios de Tay, para hacer que Tay respondiera de manera inapropiada”.

La mayoría de los mensajes fueron eliminados.

AP