Ahora, también “Falsificaciones Profundas”

Ahora, también “Falsificaciones Profundas”

 

Un estudio de producción utiliza Aprendizaje de Máquina para producir un réplica generada-por-computadora de la persona que se conoce como “profundamente falsa”. Hay situaciones en las cuales se ha utilizado, incluso réplicas de una baja calidad, y los creadores se han sorprendido por el efecto que estas tienen sobre el público aun no siendo auténticas.





Por Laszlo Beke

El mercado ya sufre de una descomposición de la verdad, cuando nuestro ambiente de información en red interactúa en formas tóxicas con nuestros prejuicios cognitivos. Las falsedades profundas pueden exacerbar este problema en una forma significativa. Esto tiene posibilidades explosivas, como ejemplo Baltimore en 2.015 era un polvorín después de la muerte de un joven afro-americano estando bajo la custodia de la policía. Imaginemos lo que hubiera podida ocurrir si en una “falsedad profunda” hubiera aparecido el jefe de policía en un video diciendo algo racista. La ciudad seguramente hubiera explotado. Una de las nuevas técnicas aplicadas para lograr esto es la “red generativa contradictoria” (GAN), la cual está disponible en una plataforma de uso público.

Experticia

Todavía no han aparecido públicamente ejemplos de incidentes verdaderamente corrosivos provocados por falsificaciones profundas. Este se debe primordialmente a que el uso de Aprendizaje de Máquina para generar videos falsos sigue requieriendo un cierto grado de experticia y mucha data. Los propagandistas desean expandir sus productos en la forma más amplia posible con el menor esfuerzo. En la medida que las falsificaciones profundas se hacen más realistas y más fáciles de producir ello podría traer una época de falsificaciones cualitativamente muy superiores a las que se ha vivido hasta el presente.

Red Generativa Contradictoria (GAN)

Una de las técnicas de aprendizaje de máquina utilizada para generar fotos que se denomina “red generativa adversarial” (GAN- Generative Adversarial Network), es una forma de generar algorítmicamente nueva data partiendo de conjuntos de data existentes. El uso de esta técnica estuvo limitada a la comunidad de investigación de Inteligencia Artificial (IA) hasta finales del año 2.017, cuando un usuario comenzó a postear videos pornográficos alterados. Utilizando Tensor Flow, software libre para aprendizaje de máquina ofrecido por Google, súper-impuso rostros de celebridades sobre cuerpos de mujeres en películas pornográficas. Además publicó FakeApp una plataforma fácil-de-usar para producir media falsificada. Esto democratizó el poder de GAN y cualquiera poder acceder al uso de esta técnica. Era crear un arma que puede debilitar la fibra misma de la sociedad democrática.

Ventriloquía Facial

Aprendizaje de Máquina no solo permitirá automatizar el proceso, sino también la creación de mejores falsificaciones. Existe la técnica denominada “retratos de video profundos”, una especie de ventriloquía facial, donde partiendo de un video una persona puede tomar control de la cara de otra persona y hacerla decir o hacer cosas. Estos “retratos de video profundos” se utilizan en una forma muy efectiva en el doblaje de películas, en técnicas avanzadas de edición en la post-producción de películas y para efectos especiales. El enfoque es capaz de sintetizar caras para hacerlas “prácticamente indistinguibles de la verdad” y pueden producir una diferencia real mayor en la industria de la diversión visual:

· Avances recientes se han focalizado en cambios do color sutiles que ocurren en la cara cuando la sangre es bombeada de entrada y salida.

· A medida que las falsifica iones profundas avanzan, también lo hacen los esfuerzos para detectarlos. Anteriormente este trabajo podía tomar dos años, hoy en día se ha acortado a dos o tres meses.

Apatía frente a la Realidad

El problema no solo es que la tecnología de falsificaciones mejora, sino también que los procesos sociales a través de los cuales llegamos a conocer cosas y aceptarlas como verdaderas o falsas están bajo amenaza. Las Falsificaciones Profundas no solo deben ser difíciles de detectar o convincentes para producir daño. Es factible que el peligro mayor de las Falsificaciones Profundas no sea el contenido en sí, sino la mera posibilidad de su existencia. Este fenómeno se denomina “Apatía frente a la Realidad”, donde el contacto permanente con la información falsa hace que se deje de confiar en lo que se ve y oye. La proliferación de falsificaciones profundas puede exacerbar este fenómeno. También puede verse como el dividendo del mentiroso: cuando nada es verdad, entonces el deshonesto prospera al decir que la verdad es falsa.

Se hace referencia a “You thought fake news was bad? Deep fakes are where truth goes to die” https://bit.ly/2DApKzk. También aparece en mi blog http://bit.ly/2rikNTD.