Facebook centra sus esfuerzos en el War Room para combatir las noticias falsas

Facebook centra sus esfuerzos en el War Room para combatir las noticias falsas

Imagen ilustrativa de unas personas utiliando teléfonos móviles frente al logo de Facebook, mar 28, 2018. REUTERS/Dado Ruvic/Illustration/File Photo

 

Cuando falta menos de un mes para que se celebren comicios legislativos en EE.UU., Facebook ha activado una unidad especial que centraliza todos sus esfuerzos para evitar la propagación de noticias falsas, como ocurrió en las presidenciales de 2016.

EFE





La “war room” o “cuarto de guerra”, como ha sido bautizada por la propia compañía, es una pequeña habitación en su sede de Menlo Park (California, EE.UU.) en la que trabajan a diario entre 20 y 30 personas responsables de coordinar a 20.000 empleados en todo el mundo.

“Durante los tres días previos a las elecciones legislativas, en esta sala se trabajará 24 horas seguidas”, explicó un portavoz de la compañía durante una visita organizada para un grupo de medios, entre ellos Efe.

Los responsables de velar para que no se propaguen noticias falsas en la red social desde la “war room” trabajan literalmente codo con codo dadas las reducidas dimensiones de la cámara, algo que según Facebook ha sido diseñado adrede para fomentar la comunicación continua e inmediata.

Frente a ellos, numerosas pantallas en las paredes y monitores de ordenador muestran en tiempo real gráficos de tendencias sobre lo que se dice y se hace en la red social en todo el mundo, así como contenidos que han sido identificados como susceptibles de estar manipulados o incitar al odio.

“Tener a todas estas personas juntas en una habitación nos ayuda a responder rápidamente a nuevas amenazas”, aseguró la directora de la empresa para Política Global y Diálogo con los Gobiernos, Katie Harbath, quien explicó que desde allí también se analizan contenidos de WhatsApp e Instagram, ambas propiedad de Facebook.

La identificación de informaciones falsas o que inciten al odio se lleva a cabo de forma automatizada mediante inteligencia artificial para manipulaciones simples (spam, contenidos virales, etc.) o humana cuando son más sofisticadas.

Cada uno de los trabajadores en la sala de control representa a un equipo distinto de la compañía y entre todos ellos son responsables de coordinar a miles de empleados que se dedican a cuestiones relacionadas con la seguridad para la empresa en todo el planeta.

“Hace un año, teníamos a 10.000 personas que trabajaban en temas de seguridad. Ahora tenemos a 20.000”, apuntó el responsable de Compromiso Cívico de la firma, Samidh Chakrabarti.

Por el momento, el “cuarto de guerra” de la red social, que está operativo desde septiembre, ya ha detectado un incremento de intentos de influir de forma ilegítima en las elecciones de EEUU tanto internos como foráneos, mayoritariamente provenientes de Irán y Rusia, aunque es algo que entraba “dentro de lo esperado”.

“De momento no hemos detectado nada anómalo”, destacó el jefe de Ciberseguridad, Nathaniel Gleicher, quien aseguró que un repunte como ese a menos de un mes de los comicios era previsible.

Desde el centro de control se llevan a cabo varias funciones, siendo la más visible de ellas la eliminación de cuentas falsas, es decir, de personas que se hacen pasar por quien no son para influir en otros.

Según Facebook, estas cuentas son en muchos casos el origen de informaciones manipuladas con el objetivo de influir en los electores que se vuelven virales y llegan a infinidad de usuarios.

La semana pasada, por ejemplo, la red social retiró 559 páginas y 251 cuentas que trataban de influir en los comicios legislativos de noviembre en EE.UU.

La segunda misión es identificar y reducir la distribución de noticias falsas en la red, algo que se hace mediante la colaboración con entidades independientes responsables de determinar la veracidad de los contenidos.

Si un usuario trata de compartir una información que ha sido clasificada como potencialmente falsa, la red social avisará de ello al internauta.

Finalmente, desde el centro de control se identifica y suspende a aquellos usuarios considerados “actores malignos”, que contribuyen a manipular el debate y confundir a los usuarios sobre, por ejemplo, los requisitos para poder votar.

Con esta unidad, Facebook tiene la esperanza de poder evitar algo como lo sucedido en 2016 -año en que Donald Trump ganó la Presidencia de EEUU-, cuando la eclosión de noticias falsas en la plataforma la situó en el centro de las críticas.