Google admite que los errores de diversidad sesgada que mostró su IA son “inaceptables”

Google admite que los errores de diversidad sesgada que mostró su IA son “inaceptables”

 REUTERS/Dado Ruvic/Illustration/File Photo.

 

El director ejecutivo de Google, Sundar Pichai, considera “completamente inaceptables” las respuestas inexactas y sesgadas de su chatbot con inteligencia artificial (IA), Gemini, que desde su lanzamiento este mes ha generado respuestas históricamente inexactas por no mostrar a gente blanca, según un documento interno filtrado por los medios especializados este miércoles.

“Quiero abordar los problemas recientes con respuestas problemáticas de texto e imágenes en la aplicación Gemini (anteriormente llamada Bard). Sé que algunas de sus respuestas han ofendido a nuestros usuarios y han mostrado parcialidad; para ser claros, eso es completamente inaceptable y nos equivocamos”, señaló Pichai a su equipo en un correo electrónico.





La semana pasada, Google se disculpó por los errores de su IA y capó la capacidad de Gemini para generar imágenes después de que se viralizaron en las redes algunas de sus respuestas.

Gemini generó imágenes de una mujer asiática o un hombre negro tras ser preguntado por ilustrar un “soldado alemán de 1943”, momento en el que el nazismo estaba en auge en el país y la presencia de un soldado negro era prácticamente imposible.

Otro ejemplo erróneo lo dio tras ser preguntado por generar imágenes de senadores estadounidenses de 1800 -cuando todos eran hombres blancos- respondió con una mujer negra vestida de época, un hombre asiático también vestido de época, una mujer latina rodeada de hombres blancos y una mujer nativa americana vestida con un traje típico y una diadema de plumas.

En la nota interna, Pichai señala que Google ha estado trabajando “24 horas del día para abordar estos problemas”.

“Ningún IA es perfecta, especialmente en esta etapa emergente del desarrollo de la industria, pero sabemos que el listón es alto para nosotros y lo mantendremos así durante el tiempo que sea necesario”, anota en su mensaje a los trabajadores Pichai.

Durante más de dos décadas, Google ha trabajado para que su buscador sea la llave a encontrar la respuesta correcta, por lo que si las respuestas de su IA no son históricamente correctas, podría perjudicar a la fama de la empresa.

Después de la popularidad del chatbot ChatGPT de OpenAI Google optó por lanzar su propio chatbot -en el que llevaba años trabajando, pero por cautela no había lanzado- para convertirse en un referente de la IA, carrera en la que también se incorporó Microsoft, que se alió con los creadores de ChatGPT.

Durante las semanas que Gemini podía generar imágenes, se esparcieron como la pólvora las respuestas erróneas de la máquina en las redes sociales.

Uno de los mayores críticos fue Elon Musk, dueño de la red social X y que tiene su propia compañía de IA, quien es un adepto de la teoría “gran reemplazo”, que argumenta que los estadounidenses blancos (en este caso, aunque también hay seguidores de este movimiento en otras partes del mundo) corren el peligro de ser sustituidos por personas de otras razas.

“¿Cuál es la diferencia entre una conspiración y la verdad? Aproximadamente 6 meses”, publicó en su red social Musk, junto con una viñeta en el que un monigote señalaba el “gran reemplazo” se trataba de una teoría de la conspiración y que nadie quería deshacerse de las personas blancas; a lo que otro monigote contesta: “Ok, entonces muéstrame una imagen de los padres fundadores de Estados Unidos”.

En la parte de abajo de la foto que subió Musk, se veía una la respuesta generada por Gemini: una imagen de hombres y mujeres no blancos vestidos con trajes de época.

EFE