La campaña presidencial en Estados Unidos del año 2016 puso de relieve en todo el mundo una práctica con ya varios años en desarrollo, pero que muchos minimizaban: la propagación de noticias falsas por la red, el fenómeno conocido como las fake news.
Algunos expertos consideran que, previo a la elección americana, la divulgación de estas fake news pudo ser también la clave en los inesperados resultados del referendo británico de separación de la Unión Europea (Brexit) y del plebiscito sobre los acuerdos de paz de Colombia, lo que nos habla del tamaño del problema.
Por fortuna, ahora buena parte de la sociedad ha tomado conciencia de la situación y muchos medios cuentan con protocolos para comprobar la veracidad de las noticias, como esta iniciativa creada para la elección presidencial mexicana, pero queda claro que aún falta mucho para erradicar la propagación de estos contenidos.
Para complicar el panorama, una tecnología entró recientemente en escena planteando una nueva serie de dilemas, al contar con la capacidad de engañar a las audiencias ya no con palabras, sino con imágenes creadas prácticamente de la nada y de una calidad que logran engañar a más de uno: el deepfake.
Se trata de una técnica de edición de video creada con inteligencia artificial que permite sobreponer imágenes con resultados verdaderamente asombrosos y que podría utilizarse para, por ejemplo, mostrar a un candidato recibiendo dinero ilegal o en situaciones aún más comprometedoras.
Pero vayamos por partes. El término deepfake, como se explica en la página de 1and1, proviene de la unión de la palabra fake (falso en inglés) y el concepto del deep learning o aprendizaje profundo, parte importante en el desarrollo de la inteligencia artificial y que básicamente consiste en una serie de algoritmos que permiten a las computadoras generar nuevos comportamientos a partir información suministrada.
Para que se entienda mejor, se debe explicar cómo funciona este deepfake. El programador debe alimentar a un programa con varias imágenes del personaje, preferentemente desde varios ángulos; así, llegará un momento en que el software logrará “intuir” las partes del rostro que no se muestran en las fotografías suministradas, e incluso sus gestos, y podrá sustituir en el video el rostro original por el deseado.
Esta tecnología, deshonrosamente, tomó relevancia debido a que varios programadores crearon videos pornográficos con rostros de actrices y celebridades, lo que obligó a plataformas como Reddit, Twitter e incluso Pornhub a prohibir este tipo de materiales.
Uno de los ejemplos más famosos de deepfake es uno publicado en un portal estadounidense donde se ve a un falso Barack Obama advirtiendo precisamente sobre esta tecnología y diciendo: “alguien podría hacerme decir cosas como que el presidente Trump es un completo idiota”.
Si bien los resultados todavía no logran engañar a todo el mundo, la calidad mejora día con día y pone de manifiesto que los medios de comunicación deben poner más atención y confirmar sus fuentes antes de dar por buena cualquier noticia.
También las redes sociales están tomando cartas en el asunto, ya que son el principal foco de difusión de estas fake news en una época en la que cualquier usuario de redes puede convertirse en un fenómeno viral en cuestión de minutos, y en un mundo donde el poder de la imagen muchas veces supera a la razón y el argumento.