Deepfakes and the New Disinformation War. The Coming Age of Post-Truth Geopolitics

Chesney, Robert & Danielle Citron. 2018. “Deepfakes and the New Disinformation War. The Coming Age of Post-Truth Geopolitics”. Foreign Affairs. Disponible en: https://fam.ag/2R1nure

*Esta es una síntesis anotada realizada por CIPMEX sobre el texto arriba referido*

El artículo explica los problemas relacionados con una nueva tendencia tecnológica llamada deepfakes, que permite replicar audio y videos de personas reales (incluso ficticias) a través de deeplearning e inteligencia artificial (IA).

Los deepfakes son producidos con un tipo de IA llamado deeplearning, en el que algoritmos llamados “redes neuronales” (simulando el funcionamiento y arquitectura de redes neuronales humanas) aprenden a replicar patrones encontrados en la información que se alimenta a su sistema. Los deepfakes resultan muy convincentes porque en deeplearning todo el proceso de aprendizaje (“machine learning”) se lleva a cabo entre dos sets de algoritmos: uno aprende y crea contenido y otro el discrimina eliminando el contenido que parezca artificial. De esta manera, ambos algoritmos aprenden gradual y automáticamente hasta concluir con productos de audio y video difíciles de descartar como falsos (2018, Chesney & Citron, 148).

Para los autores existen diversas posibilidades que deben preocuparnos respecto a esta tecnología. Primero, el acceso a programas para producir deepfakes se está ampliando y facilitando, por lo que cualquiera con acceso a una computadora podría producir este tipo de contenido (2018, Chesney & Citron, 148). Tenemos una annotation que describe al ciberterrorismo como la nueva frontera de combate en seguridad y una de las alarmas es el fácil acceso a herramientas digitales para planear y perpetrar ataques terroristas[1]. Segundo, los deepfakes pueden utilizarse para chantajear, intimidar y sabotear creando videos que establezcan una narrativa fabricada (2018, Chesney & Citron, 149). También tenemos una annotation que explica las guerras narrativas que utilizan diversos actores para desinformar o moldear opiniones[2]. Los autores dan ejemplos de cómo podría ser utilizada esta tecnología para crear problemas en el escenario internacional. Por ejemplo, se podría crear un video de Netanyahu discutiendo una invasión a Irán, de algún soldado estadounidense quemando un Corán, Donald Trump declarando la guerra a Corea del Norte, etc; se puede crear cualquier tipo de video si hay suficiente información mediática de la persona a la que se quiere representar (2018, Chesney & Citron, 149-152). Estos ejemplos demuestran el poder disruptivo de una tecnología fácilmente accesible. Además, es otro campo en el que la IA está siendo un riesgo para la seguridad internacional, como lo tenemos ejemplificado en otra annotation sobre Inteligencia Artificial, ciberataques y armas nucleares[3].

También hay preocupación en procesos electorales de países que son vulnerables a desinformación. Por ejemplo, en Francia se intentó desacreditar la imagen de Macron unas horas antes de las elecciones por medio de documentos falsos que “mostraban” esquemas y actos de corrupción del candidato; los autores argumentan que esos intentos fallaron porque en el país existe una veda mediática que prohíbe la cobertura de elecciones 44 horas antes del proceso, pero que un video deepfake de Macron aceptando las acusaciones de corrupción, subido a redes sociales en ese momento, pudo haber sido devastador para el proceso electoral. Este ejemplo es importante, ya que muestra que pueden elaborarse ciertos mecanismos para resistir este tipo de desinformación. Pero, como dicen los autores en este artículo, no será fácil detenerlos, aunque se pueden formar sociedades resilientes a estas campañas (2018, Chesney & Citron, 152). Tenemos annotations de artículos que hablan sobre las vulnerabilidades que existen en procesos electorales frente a ciberataques[4]. Adicionalmente, el tema de resiliencia social, no explicado a profundidad en este artículo, también lo hemos revisado[5] en annotations sobre el modelo P/CVE. Podemos explorar el tema de resiliencia como factor de defensa ante campañas de desinformación que podrían aumentar en gravedad con los deepfakes.

Los autores enumeran tres aproximaciones digitales para combatir los deepfakes: 1) tecnología forense para determinar si un contenido es falso por medio del análisis de patrones no naturales, pero el proceso puede tardar y con deeplearning esos errores serán corregidos, dificultando más su detección; 2) autenticar todo contenido (digital provenance) que se suba a redes por medio de watermarks y tecnología blockchain, pero se necesitaría que todas las empresas de redes sociales y las que producen dispositivos acepten implementar estas medidas y sólo acepten contenido autenticado y; 3) servicios privados para grabar todas nuestras actividades diarias (lifelogging, que sería como tener una cámara con nosotros en todo momento), pero sería demasiado invasivo. Todas estas medidas refieren a regulaciones o sacrificios a la privacidad, lo cual también puede ser aprovechado por gobiernos que ya utilizan información personal para controlar a la población, como lo notamos en una annotation sobre autoritarismo digital[6]. Habrán países donde será más difícil implementar estas medidas, porque la población de países más democráticos valoran mucho su libertad y privacidad. De nuevo, como hemos notado en diversas annotations, la falta de un marco normativo en ciberseguridad y mundo digital dificultan las relaciones entre empresas y gobiernos[7], entre países y en cooperación contra ciberataques[8]

En general, todas las medidas tecnológicas y legales (2018, Chesney & Citron, 154) que los autores presentan implican grandes reducciones a la libertad de expresión e invasión de privacidad alarmante. Serán necesarias soluciones más creativas y que las actuales tecnologías de verificación se vuelvan más eficientes.

[1] Stroobants, Serge. 2018. “Cyberterrorism is the New Frontier”. Global Terrorism Index 2018, p.p. 76-78. Disponible en: https://bit.ly/2E2QXtG

[2] Kreider, Tim. 2019. “America’s War of Stories.” New York Times. febrero 9. Consultado febrero 20, 2019. https://nyti.ms/2XuFIEB

[3] Sharikov, Pavel. 2019. "Artificial Intelligence, Cyber Attacks and Nuclear Weapons: A Dangerous Combination." EastWest Institute. 9 de mayo. Último acceso: 10 de junio de 2019. https://bit.ly/2XI0Jc0.

[4] Siman-Tov, David; Siboni, Gabi; Arelle, Gabrielle (2017) “Cyber Threats to Democratic Processes” The Institute for National Security Studies. https://bit.ly/2VJlTWb

[5] Rosand, Eric. 2018. “Multi-Disciplinary & Multi-Agency Approaches to Preventing & Countering Violent Extremism: An Emerging P/CVE Success Story?”. Global Terrorism Index 2018, p.p. 72-75. Disponible en: https://bit.ly/2U0CpUW

[6] Shahbaz, Adrian. 2018. Freedom on the Net 2018. The Rise of Digital Authoritarism. Freedom House. Disponible en: https://bit.ly/2SFi6rR

[7] Bey, Matthew. (2019). “The Age of Splinternet: The Inevitable Fracturing of the Internet”. Stratfor Worldview. Disponible en: https://bit.ly/2J4Y5sj

[8] Sanger, David y Steven Lee Myers. 2018. “After a Hiatus, China Accelerates Cyberspying Efforts to Obtain U.S. Technology”. The New York Time. Disponible en: https://nyti.ms/2RfSioO

 

Comentarios