¿Derecha o izquierda? Este estudio revela la ideología política de ChatGPT y sus rivales

¿Derecha o izquierda? Este estudio revela la ideología política de ChatGPT y sus rivales

 

 





 

¿Cuanto más libre es el mercado, más libre es la gente? ¿Los gobiernos deberían sancionar a las empresas que engañen al público? ¿Ojo por ojo y diente por diente? Un grupo de investigadores plantearon estas y otras cuestiones a los modelos de lenguaje más conocidos, con el objetivo de identificar si tenían algún sesgo político. El estudio descubrió que, dependiendo de la compañía desarrolladora, el posicionamiento ideológico de estas inteligencias artificiales puede variar mucho.

Por Hipertextual

La investigación es resultado de un trabajo conjunto entre la Universidad de Washington, la Universidad Carnegie Mellon y la Universidad Xi’an Jiaotong. Fueron evaluados 14 modelos de lenguaje grandes. Entre ellos, los de OpenAI, Meta y Google.

Los científicos preguntaron a los modelos cuál era su posición en temas como el feminismo y la democracia. Usaron 62 declaraciones políticamente sensibles, detallados en un reporte revisado por pares que ganó en julio el premio al mejor artículo en la conferencia de la Asociación de Lingüística Computacional el mes pasado.

A partir de las respuestas, pudieron ubicar a cada modelo en el gráfico conocido como «Brújula política». Esta guía considera dos ejes: derecha e izquierda, para medir posicionamientos económicos; y autoritario y libertario, para opiniones sociales. Así detectaron, por ejemplo, que los sistemas detrás de ChatGPT eran más libertarios y de izquierda. Mientras que LLaMA, creado por Meta, resultó en una postura más autoritaria y de derecha.

El sesgo político de ChatGPT, LLaMA y BERT

Si le preguntan a OpenAI, creadora de ChatGPT, dirá que no, que sus modelos no tienen un sesgo político. En un artículo en su blog, la compañía —socia de Microsoft— resalta que constantemente está verificando las respuestas de su chatbot con evaluadores humanos. Asegura, además, que tienen pautas claras para que los revisores no favorezcan a ningún grupo político. Y si, a pesar de todo esto, aparece algún sesgo político, OpenAI dice que se trata de «errores, no de características» de sus sistemas.

Los investigadores no están de acuerdo. «Nuestros hallazgos revelan que los modelos de lenguaje preentrenados sí tienen inclinaciones políticas que refuerzan la polarización», dicen en el reporte.

Para seguir leyendo, clic AQUÍ.