Del mito a la realidad: Hasta dónde puede llegar la manipulación electoral de los votantes

Del mito a la realidad: Hasta dónde puede llegar la manipulación electoral de los votantes

Ciudadano vota en la segunda vuelta de las elecciones presidenciales de Costa Rica, 6 de abril de 2014. Juan Carlos Ulate / Reuters
Ciudadano vota en la segunda vuelta de las elecciones presidenciales de Costa Rica, 6 de abril de 2014.
Juan Carlos Ulate / Reuters

 

“Los acusados y sus conspiradores, a través del fraude y la mentira, crearon cientos de cuentas en las redes sociales, y las usaron para convertir a personajes ficticios en líderes de opinión pública en Estados Unidos”.

Por: Darío Mizrahi

La inquietante sentencia es una de las conclusiones a las que arribó el fiscal especial Robert Mueller, que investiga desde hace ocho meses la interferencia del Kremlin en las elecciones presidenciales de 2016. Por el escándalo imputó a 13 ciudadanos y a tres organizaciones de origen ruso.





El ex director del FBI encontró evidencias de que Yevgeniy Viktorovich Prigozhin, un magnate conocido como “el chef de Vladimir Putin” por ser contratista del Estado ruso en el rubro gastronómico, financió la creación de la Agencia de Investigaciones de Internet (AII). Esta organización contó con un presupuesto millonario y una planta de al menos 80 agentes abocados a tiempo completo a una sola misión: manipular a la opinión pública estadounidense para afectar el resultado de las elecciones y crear un ambiente de inestabilidad política.

 

El fiscal Robert Mueller
El fiscal Robert Mueller

 

La AII administró miles de cuentas falsas en las redes sociales, que se hacían pasar por ciudadanos estadounidenses políticamente comprometidos con diferentes causas, para crear y difundir mensajes e incluso convocar a manifestaciones. El principal objetivo fue deslegitimar la candidatura de Hillary Clinton, difundiendo noticias inventadas que la presentaban como una corrupta. Entre otras cosas, crearon grupos que se hacían pasar por representantes de los afroamericanos y de los musulmanes —minorías que históricamente acompañan al Partido Demócrata—y los incentivaron a no votar.

La otra pata de la estrategia fue promover las campañas de Bernie Sanders, que enfrentó a Clinton en la interna demócrata, y de Donald Trump, quien terminaría imponiéndose en los comicios del 8 de noviembre de 2016. “Donald quiere derrotar al terrorismo, Hillary quiere alentarlo”, fue una de las tantas consignas promocionadas por la AII. Su actividad fue especialmente intensa en los “estados oscilantes”, en los que había mucha paridad en la previa y que a último momento se inclinaron por el candidato republicano.

El caso de la injerencia rusa en los comicios de Estados Unidos muestra hasta qué punto internet se convirtió en un medio idóneo para lanzar campañas de manipulación que pueden pasar desapercibidas. Hay indicios de que grupos similares actuaron en el referéndum del Brexit en Reino Unido y en las presidenciales francesas del año pasado, y que pretenden interferir en las elecciones del próximo 4 de marzo en Italia.

El impacto de la fábrica rusa de trolls es muy debatible. Pero eso no significa que la opinión pública no sea manipulable
El gran interrogante es si tienen éxito. Los amantes de las teorías conspirativas están convencidos de que es posible lavarle el cerebro a las personas —menos a ellos mismos—, pero no hay evidencia de que eso sea posible, sobre todo a escala masiva. Al mismo tiempo, está probado que la posibilidad de los canales de comunicación tradicionales de influir en las opiniones es cada vez menor.

“El impacto de la fábrica rusa de trolls es muy debatible. Quizás sea relativamente mínimo. Pero eso no significa que la opinión pública no sea manipulable. Desde que fue descubierta a principios de los años 20 por el escritor estadounidense Walter Lippmann, hubo cuantiosas inversiones de todo tipo de profesionales para medir, predecir y manipular a la opinión pública. Algunas han sido más exitosas que otras”, sostuvo Mitchell Dean, profesor de sociología y gobierno en la Escuela de negocios de Copenhague, consultado por Infobae.

Lo distintivo de este tiempo histórico es que ya no hay un puñado de instituciones reconocidas que bajan mensajes desde una posición de autoridad. Son miles de personajes virtuales —reales o ficticios—, que se presentan como personas comunes dando sus puntos de vista. ¿Quién no se deja influir por el pensamiento de los pares, de aquellos a quienes ve como iguales?

 

Yevgeniy Viktorovich Prigozhin, “el chef de Vladimir Putin” (REUTERS/Misha Japaridze/Pool/File Photo)
Yevgeniy Viktorovich Prigozhin, “el chef de Vladimir Putin” (REUTERS/Misha Japaridze/Pool/File Photo)

 

Posibilidades y limitaciones de la manipulación

“De acuerdo a nuestras investigaciones, la mayor parte de la gente sólo lee el encabezado y el primer párrafo de los artículos que ve en Facebook o en Twitter. Un título o un tuit sensacionalista pueden ser suficientes para influenciar a algunas personas, incluso para cambiar su pensamiento. Esas historias imprecisas, engañosas o falsas se replican de usuario en usuario, propagando los mitos e influyendo en las opiniones de otros. En Facebook son nuestros ‘amigos’ los que comparten esas cosas, un círculo de confianza que nos da aún más razones para creer”, explicó a Infobae Neill Fitzpatrick, profesor de comunicación en la Universidad MacEwan, en Edmonton, Canadá.

La repercusión de las fake news sería mínima si todos los lectores pudieran contrastar distintas fuentes antes de dar por cierta una noticia. Pero, lógicamente, sólo una minoría tiene el tiempo y el interés para hacer ese trabajo. Si a este problema se suma el efecto de los algoritmos que definen las publicaciones a las que acceden los usuarios en ciertas redes sociales a partir de sus gustos, se termina configurando una burbuja informativa.

Este fenómeno favorece la consolidación de posturas sesgadas y radicalizadas, ya que las personas están cada vez más sobreexpuestas a las opiniones de su tribu, y cada vez menos a miradas diferentes. No obstante, hay grupos sociales que tienen mucha más predisposición que otros a cerrarse y fanatizarse.

 

El presidente Donald Trump (AP)
El presidente Donald Trump (AP)

 

“Por lo que hemos observado, el principal objetivo de la interferencia rusa era esparcir información engañosa o falsa, para crear una disrupción en grupos de votantes que ya estaban polarizados, no necesariamente en todo el electorado. Se trata de una porción concentrada de la opinión pública. Por ejemplo, encontramos que las noticias basura eran desproporcionadamente compartidas por redes de Twitter de extrema derecha. No diría que la opinión pública en general es vulnerable a este tipo de manipulación, pero hay grupos que parecen más inclinados”, dijo a Infobae el politólogo Samuel Maynard, doctorando en la Universidad de Oxford.

Hacer que alguien cambie radicalmente de opinión es muy difícil, por eso cualquier esfuerzo de manipulación está destinado al fracaso si se propone esa meta. Pero sí se puede reforzar ciertas ideas preconcebidas, y atenuar otras. Las consecuencias políticas de estos movimientos pueden no ser depreciables.

Por caso, es posible que un individuo que dudaba entre ir o no a votar termine optando por abstenerse. De la misma manera, es poco probable que un simpatizante demócrata se pase al Partido Republicano, pero no es tan descabellado que un republicano moderado se incline por un precandidato más extremo de su mismo partido.

No diría que la opinión pública en general es vulnerable a este tipo de manipulación, pero hay grupos que parecen más inclinados
Adam Badawy, investigador del Instituto de Ciencias de la Información de la Universidad del Sur de California, sostuvo que para analizar una campaña de manipulación como la que ensayaron los rusos es necesario considerar tres niveles de lectura: el alcance del proyecto, a cuánta gente llegó; su capacidad para reforzar ciertas creencias y legitimarlas; y su impacto en el comportamiento de los votantes.

“Hay evidencias fuertes de la magnitud de la campaña de desinformación, pero todavía no tenemos respuestas para los otros dos puntos”, dijo Badawy a Infobae. “Es plausible que haya consolidado opiniones preexistentes, particularmente entre los conservadores. Pero no hay pruebas de que la interferencia rusa volcó el voto hacia Trump o convenció a los ciudadanos de ir a votar. Al contrario, muchos estudios previos han demostrado que las ideas políticas son difíciles de cambiar, y cuando cambian, lo hacen lentamente”.

Entonces, ¿se puede o no manipular a la opinión pública para que vote de determinada manera? “Creo que la respuesta general es que no”, afirmó Dean. “Sin embargo —aclaró—, la posibilidad de focalizar en ciertos grupos se ha incrementado, y es posible hacerlo en lugares en los que podría afectar una elección, como los estados oscilantes. Las estrategias más sofisticadas identifican racimos de individuos persuadibles en esas áreas, y prueban qué tipo de información los interpela. Pueden no buscar cambiar enteramente su visión, pero sí potenciar el enojo, el miedo o incluso la apatía que ya sentían”.

 

Hillary Clinton (Getty Images)
Hillary Clinton (Getty Images)


Cómo combatir la desinformación

Las repercusiones de lo ocurrido en las elecciones estadounidenses encendieron las alarmas en todo el mundo. En Italia, por ejemplo, distintas organizaciones civiles alertaron sobre los riesgos de que haya una interferencia externa para favorecer al Movimiento 5 Estrellas, una fuerza populista y antisistema. Su triunfo podría desestabilizar a la ya debilitada Unión Europea.

“Tenemos que empezar a educar a los jóvenes en la escuela, para que aprendan a identificar qué es preciso y qué no entre la información que reciben —dijo Fitzpatrick—. Tienen que saber cómo chequear distintas fuentes o, al menos, encontrar versiones alternativas de una misma historia. Así como les enseñamos los peligros de los depredadores en internet, tenemos que enseñarles sobre los riesgos del engaño y la manipulación online”.

Esto es precisamente lo que está haciendo Italia. A fines del año pasado, lanzó un proyecto que busca explicarles a estudiantes de 8.000 escuelas cómo distinguir noticias falsas de verdaderas. Probablemente, el impacto será limitado en un primero momento, pero es un comienzo.

 

El primer ministro italiano Paolo Gentiloni (Reuters)
El primer ministro italiano Paolo Gentiloni (Reuters)

 

Otra parte del trabajo la tienen que hacer las propias redes sociales. “Tienen que suprimir a los usuarios maliciosos que esparcen las fake news. Segundo, hay que aumentar la exposición a noticias producidas por los principales medios periodísticos, que no deberían ser penalizados por ser pagos, como ocurre ahora. Tercero, mostrar un puntaje de autenticidad al lado del artículo podría ser una buena idea”, dijo Badawy.

No obstante, sería ingenuo creer que se puede eliminar todo el contenido basura que hay en la web. Por otro lado, si bastara con una simple denuncia para censurar un contenido empezaría a estar amenazada la libertad de expresión.

“Los peligros de la propaganda y de la manipulación de las masas están allí desde hace 100 años. Lo mejor que podemos hacer es tomar conciencia de lo que está pasando y educarnos a nosotros mismos y a los jóvenes al respecto. De lo contrario, la alternativa es regular internet y volvernos indistinguibles de China”, concluyó Dean.

Información de Infobae