Los 'deep fake' y la desinformación del futuro

Los 'deep fake' y la desinformación del futuro

Los avances en el reconocimiento facial y la inteligencia artificial permiten trucar videos de manera sencilla

I. ASENJO

MADRID. La mentira tiene las patas muy cortas y gracias a la irrupción de la tecnología se ha convertido en un elemento barato para manipular y hacer creer lo que en realidad no es. Imagine ver unas imágenes en televisión del presidente del Gobierno en el que gesticula de forma habitual y habla con convicción.

No es apreciable pero no es su voz. Lo que oye es falso. Jamás ha dicho lo que acaba de oír. Es lo que se conoce como 'deep fake', una noticia falsa en formato audiovisual creada gracias a los algoritmos de la inteligencia artificial. Y no se trata de una mentira piadosa sino una de las gordas por la envergadura del personaje. Esto nunca ha ocurrido en España, pero sí en EE UU.

«El presidente Trump es un completo imbécil», dice tranquilamente Barack Obama en un vídeo que circuló en las redes sociales. Pero ese Obama no era el político sino el actor Jordan Peele, que intentó concienciar con esta farsa publicada en la web Buzzfeed en abril de los peligros de los videomontajes hiperrealistas y de la desinformación como amenaza global.

Algo que no es nuevo pero sí barato y eficaz para engañar en los tiempos actuales, donde las 'fake news' se extienden más rápido que la verdad y contribuyen de buena manera a la 'intoxicación' de los usuarios. Con la inteligencia artificial (IA) no solo se pueden crear vídeos realistas de personas que hacen y dicen cosas que nunca dirían o harían, sino que también se logra generar caras de gente que nunca ha existido. Un tétrico uso del 'machine learning' al alcance de todos, igual que 'resucitar' a Dalí, Marilyn Monroe o Einstein.

Ahora una nueva tecnología de Samsung es capaz de engañarnos a partir de una sola imagen. El resultado es asombroso y pueden verse expresiones y movimientos de los protagonistas como si hubieran sido grabados en vídeo, en lugar de ser retratados.