Microsoft se disculpó por su robot con inteligencia artificial que se volvió nazi

Reuters/Archivo
Reuters/Archivo

Microsoft ha expresado sus profundas disculpas por los mensajes de Twitter racistas y sexistas generados por un robot que lanzó esta semana, según escribió el viernes un trabajador de la compañía, después de que el programa de inteligencia emocional se vieran envuelto en un desafortunado incidente, publica el diario La Vanguardia

El ‘chatbot’, conocido como Tay, fue diseñado para ser más “inteligente” a medida que más usuarios interactuasen con él. Sin embargo, rápidamente aprendió a repetir una serie de comentarios antisemitas y otras ideas que incitan al odio que los usuarios de Twitter comenzaron a proporcionar al programa, forzando el jueves a Microsoft a desactivar su uso.

Tras el contratiempo, Microsoft dijo en una publicación en un blog que sólo volvería a activar Tay cuando sus ingenieros encontrasen una manera de evitar que los usuarios influyan en el robot mediante mensajes que socaven los principios y valores de la empresa.

Lea la nota completa en La Vanguardia