Hace algunos meses apareció una página web que imitaba la voz del psicólogo clínico Jordan Peterson a la perfección. En dicha página cualquier usuario podía escribir cualquier cosa para que «Jordan Peterson lo dijera». La emulación era tan increíble que cualquier persona podía llegar a pensar que realmente él lo había dicho. Evidentemente Peterson buscó con éxito bajar la página de la red ya que era bien fácil hacer creer a la gente que el psicólogo había dicho algo que realmente no había dicho.
A este nueva técnica se le llama deepfake, la cual, por medio de inteligencia artificial (algoritmos y deep learning ‘de ahí, el deep‘), permite crear audios y videos falsos de personas que aparentemente son reales. Esta técnica no solo emula en sí la voz y la imagen de aquella persona a quien quiere imitar, sino que «aprende a ser ella» al alimentar al programa con los suficientes contenidos relativos a la persona en cuestión. Llegará un punto donde no solo el tono de voz sea igual, sino que las expresiones y las muletillas serán exactamente las mismas. La tecnología está justo rebasando sea frontera en la cual la gente ya no es capaz de darse cuenta de que un contenido multimedia es falso, y esto puede representar un grave problema con implicaciones políticas y sociales.
Un conocido antecedente de esta tecnología fue la recreación de la cara de la actriz Carrie Fisher (quien interpreta a la Princesa Leia) que vimos en la película Star Wars Rogue One:
Pero cuando vimos esa escena que tantos recuerdos nos trajo, casi nadie se preguntó qué implicaciones podía tener la capacidad de emular la imagen y la voz de una persona con tal fidelidad que la gente no se vaya a dar cuenta de que lo que está viendo no es real. La animación y la inteligencia artificial al parecer ya han avanzado lo suficiente como para que no podamos distinguir qué es real y qué no lo es, y eso nos obliga a reflexionar sobre los externalidades que dicha tecnología pueda tener.
En la actualidad, estas técnicas se desarrollan dentro de estudios muy sofisticados, pero como ocurre con cualquier tecnología, será cuestión de tiempo para que más personas y organizaciones puedan utilizarla a un costo cada vez menor. Pero si con Internet hemos aprendido que nos cuesta trabajo distinguir las noticias reales de las fake news cuando ciertamente hay forma de sortear ese dilema si investigamos bien la fuente, ¿qué va a pasar cuando frente a nuestra pantalla tengamos, por ejemplo, declaraciones de políticos que en realidad nunca existieron y que han sido creados para manipular a la opinión pública?
Imagina que frente a la pantalla, el día de la elección presidencial, estás viendo un video donde a tu candidato favorito lo «agarraron con las manos en la masa» pactando con uno de los principales líderes del narco. Seguramente, al ser esta técnica ya conocida, mucha gente va a comenzar a sospechar y a preguntarse si lo que vio es verdad, pero bastará con que algunos duden para que dicho video tenga un impacto en las votaciones e influya sobre el resultado.
Pero el problema también puede darse a la inversa, que los usuarios sospechen de cualquier contenido de tal forma que cuando un mandatario se vea en la necesidad de dar una declaración polémica y que salga de lo habitual pero que es necesaria, mucha gente comenzará a creer que es falso y posiblemente lo ignore.
O ahora imaginemos que una pandilla delincuencial afirma haber sacrificado a un ser querido tuyo y te envía un video donde dicha persona se encuentra atada a una silla diciendo que si no le pagan tanta cantidad de dinero a los capos lo van a matar y que tiene tantos minutos para hacer la transferencia. ¿Cómo saber si lo que estás viendo es verdad?
Esto puede tener serias implicaciones porque hasta ahora hemos dado por sentado que lo que estamos viendo frente a nuestra pantalla es real. Hasta ahora podíamos tener algunas imitaciones que eran asombrosamente parecidas pero que sabíamos que eran falsas. Ellas dependían de la caracterización y del maquillaje con lo cual era particularmente complicado engañar al público. El actor habría tenido que practicar por años a su personaje (cosa que la inteligencia artificial puede hacer de forma mucho más rápida) además de tener un aspecto físico lo suficientemente parecido como para que su caracterización fuera casi fiel: era un trabajo casi imposible. Dichas imitaciones por lo tanto tenían más bien propósitos humorísticos.
Pero con la inteligencia artificial esos obstáculos propios de la condición humana han sido prácticamente sorteados. En no mucho tiempo podremos emular una mañanera de López Obrador sin problema alguno, o bien podremos crear un acuerdo ficticio entre Donald Trump y Vladimir Putin.
Si ya de por sí el Internet ya ha modificado los canales de comunicación con la suficiente fuerza como para afectar la forma en que hacemos política, el caos podría adquirir nuevas tonalidades con esta tecnología que, si bien por un lado podría traer muchos beneficios, también podría generar muchísimos problemas si es utilizada con intenciones perversas u oscuras.