‘FAKE NEWS’

Videos ‘deepfake’ son la nueva amenaza de la desinformación

Videos ‘deepfake’ son la nueva amenaza de la desinformación
Videos ‘deepfake’ son la nueva amenaza de la desinformación

Imágenes de un político diciendo lo que nunca diría o un video porno de una estrella de Hollywood. Lo que podría parecer una falla en el televisor no es otra cosa que el futuro de las fake news.

Los videos deepfake, que manipulan la realidad, se están volviendo cada vez más sofisticados gracias a los avances de la inteligencia artificial, incrementando así su potencial para generar un nuevo tipo de desinformación, con consecuencias devastadoras.

“Aún no llegamos a la etapa en la que vemos cómo se usan los deepfakes como armas, pero ese momento está cerca”, dice Robert Chesney, un profesor de derecho en la Universidad de Texas que investigó el tema.

Chesney considera que los deepfakes podrían sumar confusión a la ola actual de desinformación y operaciones dirigidas.

“Un deepfake oportuno con un guion intencionado o una serie de estos videos podrían dar vuelta una elección, encender la violencia en una ciudad preparada para la agitación social, impulsar discursos sobre supuestas atrocidades de un enemigo o exacerbar las divisiones políticas en una sociedad”, señalaron Chesney y Danielle Citron, profesora de la Universidad de Maryland, en una publicación de blog para el Consejo de Relaciones Exteriores.

Paul Scharre, miembro del Center for a New American Security, un think tank especializado en inteligencia artificial y temas de seguridad, dice que es casi inevitable que los deepfakes puedan ser utilizados en próximas elecciones.

Un video falso podría ser usado para desprestigiar a un candidato, advierte Scharre, o para que la gente pueda negar hechos expuestos en videos auténticos.

Si circulan videos falsos creíbles, la “gente puede elegir creer la versión o discurso que quiera, y esa es la verdadera preocupación”, añade.

La manipulación de videos existe desde hace décadas y puede ser inocua o incluso entretenida, como la aparición de Peter Cushing en Rogue One: A Star Wars Story gracias a la tecnología, 22 años después de su muerte.

Investigadores de la Universidad Carnegie Mellon revelaron el año pasado técnicas que simplifican la producción de deepfakes a través del aprendizaje automático para deducir la información faltante.

En la industria del cine “la esperanza es que podamos hacer regresar a antiguas estrellas como Charlie Chaplin”, dice Aayush Bansal.

La difusión de aplicaciones que hacen videos falsos de manera realista amenaza con socavar la noción de verdad en los medios, los juicios y otras áreas, apuntan los investigadores.

“Si podemos poner cualquier palabra en la boca de cualquiera, da bastante miedo”, apunta Siwei Lyu, profesor de computación en la Universidad Estatal de Nueva York en Albany, que está investigando la detección de deepfakes.

“Se desdibuja la línea entre lo que es verdad y lo que es falso. Si no podemos confiar realmente en que la información sea auténtica, es mejor no tener información”.

Por su parte, Scharre considera que una forma importante de combatir a los deepfakes es aumentar la concienciación pública, haciendo que la gente sea más escéptica ante lo que solía considerarse como prueba indiscutible.

Edición Impresa