Videos ‘deepfake’ una nueva amenaza en la información

Bernardo Flores Heymann
Bernardo Flores Heymann 28 enero, 2019
Updated 2019/01/28 at 1:26 PM
Crédito: Howstuffworks

Imágenes de un político diciendo lo que nunca diría o un video porno de una estrella de Hollywood. Lo que podría parecer una falla en el televisor no es otra cosa que el futuro de las «fake news».

Los videos «deepfake», que manipulan la realidad, se están volviendo cada vez más sofisticados gracias a los avances de la inteligencia artificial, incrementando así su potencial para generar un nuevo tipo de desinformación, con consecuencias devastadoras.

«Aún no llegamos a la etapa en la que vemos cómo se usan los ‘deepfakes’ como armas, pero ese momento está cerca», dice a AFP Robert Chesney, un profesor de derecho en la Universidad de Texas que investigó el tema.

Chesney considera que los «deepfakes» podrían sumar confusión a la ola actual de desinformación y operaciones dirigidas.

«Un ‘deepfake’ oportuno con un guión intencionado o una serie de estos videos podrían dar vuelta una elección, encender la violencia en una ciudad preparada para la agitación social, impulsar discursos sobre supuestas atrocidades de un enemigo o exacerbar las divisiones políticas en una sociedad», señalaron Chesney y Danielle Citron, profesora de la Universidad de Maryland, en una publicación de blog para el Consejo de Relaciones Exteriores.

Paul Scharre, miembro del Center for a New American Security, un think tank especializado en inteligencia artificial y temas de seguridad, dice que es casi inevitable que los «deepfakes» puedan ser utilizados en próximas elecciones.

Un video falso podría ser usado para desprestigiar a un candidato, advierte Scharre, o para que la gente pueda negar hechos expuestos en videos auténticos. Aquí un ejemplo:

Si circulan videos falsos creíbles, la «gente puede elegir creer la versión o discurso que quieran, y esa es la verdadera preocupación», añade.

– ¿El regreso de Chaplin? –

La manipulación de videos existe desde hace décadas y puede ser inocua o incluso entretenida, como la aparición de Peter Cushing en «Rogue One: A Star Wars Story» gracias a la tecnología, 22 años después de su muerte.

Investigadores de la Universidad Carenegie Mellon revelaron el año pasado técnicas que simplifican la producción de «deepfakes» a través del aprendizaje automático para deducir la información faltante.

En la industria del cine «la esperanza es que podamos hacer regresar a antiguas estrellas como Charlie Chaplin», dice Aayush Bansal.

La difusión de aplicaciones que hacen videos falsos de manera realista amenaza con socavar la noción de verdad en los medios, los juicios y otras áreas, apuntan los investigadores.

«Si podemos poner cualquier palabra en la boca de cualquiera, da bastante miedo», apunta Siwei Lyu, profesor de computación en la Universidad Estatal de Nueva York en Albany, que está investigando la detección de «deepfakes».

«Se desdibuja la línea entre lo que es verdad y lo que es falso. Si no podemos confiar realmente en que la información sea auténtica, es mejor no tener información».

– Separar lo falso de lo real –

Los investigadores trabajan desde hace un tiempo en mejores métodos de detección, con el apoyo de compañías privadas como Google y de instituciones gubernamentales como la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA) del Pentágono, que comenzó una iniciativa de análisis de los medios en 2015.

Aunque los «deepfakes» se han estado desarrollando durante varios años, el tema volvió a quedar en el centro de atención en abril después de que apareciera un video en el que se mostraba al expresidente Barack Obama utilizando una mala palabra para describir a su sucesor Donald Trump, que finalmente fue un artificio del cineasta Jordan Peele coordinado con BuzzFeed.

En 2018, la proliferación de videos porno en los que las caras de los protagonistas eran cambiadas por imágenes de Emma Watson, Scarlett Johansson y otras celebridades llevó a que los «deepfakes» fueran prohibidos por Reddit, Twitter y Pornhub. Sin embargo, no quedó claro cómo podrían cumplir esa norma. 

Scharre considera una forma importante de combatir a los «deepfakes» es aumentar la concientización pública, haciendo que la gente sea más escéptica ante lo que solía considerarse como prueba indiscutible.

«Una vez que un video se hace viral podría ser demasiado tarde para el daño social que provocó», asegura.

Share this Article