Categorías
In the eye of the marketer

Entendiendo la tecnología del Deepfake

¿Recuerdan la época en la que creíamos que las videollamadas eran imposibles? O los hologramas, los relojes inteligentes o los asistentes de voz. Esos tiempos ya quedaron atrás y ahora todo es posible, el problema es, ¿estamos avanzando en la tecnología para ayudar a la humanidad o perjudicarla? Tal vez creamos nuevas tecnologías con un objetivo positivo y termina usándose para cosas no tan positivas. Este puede ser el caso de la tecnología Deepfake.

¿Qué es eso?

Si iniciamos por la parte técnica, podemos decir que el Deepfake es una mezcla de “deeplearning” y “falso”, un subconjunto de inteligencia artificial (IA) referido a algoritmos que pueden aprender y tomar decisiones inteligentes por sí mismos.

Esta tecnología fue desarrollada por académicos, aficionados y la industria. El desarrollo inicial se produjo a finales de la década de 1990, y los avances importantes se realizaron a finales del 2010.

Ahora abordemos en lo que se ha usado esta tecnología. Deepfake generalmente se refiere a videos en los que la cara y/o la voz de una persona, generalmente una figura pública, ha sido manipulada, utilizando este software de inteligencia artificial, logrando que el video se vea real.

Se basa en algoritmos sofisticados, en los que una IA genera imágenes de personas y una segunda IA adivina si las imágenes son reales o falsas. Es por esto, que los expertos explican que las IA mejoran cada vez más en lo que están haciendo.

Algunos de los nombres técnicos de estos algoritmos son: codificadores automáticos y las redes generativas antagónicas (GAN).

Los primeros ejemplos de deepfakes, mostrados en los medios, fueron en el 2016 y su protagonista fue Barack Obama. En ese momento, el objetivo del video, que se hizo viral, era un experimento académico de la Universidad de Washington llamado Synthesizing Obama.

Este resultado despertó el interés de un usuario de Reddit (es un sitio web de marcadores sociales y agregador de noticias donde los usuarios pueden añadir textos, imágenes, videos o enlaces) que decidió usar esta tecnología para la industria de la pornografía.

Y no paró ahí. También han creado deepfakes con el CEO de Facebook, Mark Zuckerberg y la presidenta de la Cámara de Representantes de Estados Unidos, Nancy Pelosi. Lo que nos lleva a la primera gran preocupación, los deepfakes se empiezan a volver fuente de mentiras, noticias falsas y, en general, fuente de problemas.

Un estudio publicado en octubre del año pasado en Telematics and Informatics, reveló que en internet existen casi 50 mil videos Deepfake, y solo un 60% de los encuestados fueron capaces de descubrirlos, mientras que un 39% admitió haber compartido contenidos falsos creados con esta tecnología.

Hay dos tipos de deepfakes. Los deepfaces y los deepvoices.

Los deepfaces consisten en crear fotos convincentes, pero completamente ficticias desde cero. El objetivo es crear videos falsificados.

Deepvoice es una suplantación de la voz de una persona en un audio, haciendo que parezca real.

Pasemos a una parte más técnica.

¿Cómo se elabora un Deepfake?

Hacer un video de este tipo es bastante sencillo, de hecho, ya existen deepfakes programs, al alcance de cualquiera que quiera usarlos, para el objetivo que desee.

Lo primero que hace este programa es que ejecuta miles de tomas faciales de las dos personas a través de un algoritmo de IA llamado codificador. El codificador encuentra y aprende similitudes entre las dos caras y las reduce a sus características comunes compartidas,

Luego, pasa a un segundo algoritmo, llamado decodificador para recuperar las caras de las imágenes comprimidas en el primer paso. Debido a que las caras son diferentes, entrena un decodificador para recuperar la cara de la segunda persona.

Para realizar el intercambio de caras, simplemente introduce imágenes codificadas en el decodificador “incorrecto”. Por ejemplo:

Una imagen comprimida de la cara del sujeto A se alimenta al decodificador capacitado en la persona B. El decodificador luego reconstruye la cara de la persona B con las expresiones y la orientación de la cara de la persona A para crear un video convincente.

La segunda forma de hacer deepfakes es con la tecnología GAN, las redes generativas antagónicas. Ésta enfrenta dos algoritmos de AI uno contra el otro. El primer algoritmo, conocido como generador, recibe ruido aleatorio y lo convierte en una imagen.

Esta imagen sintética se agrega a una secuencia de imágenes reales, como celebridades o políticos, que se introducen en el segundo algoritmo, conocido como discriminador. ¿El resultado? Un video falso, con acciones y declaraciones falsas.

Antes, crear este tipo de videos requería cientos de horas de edición, con equipos y profesionales expertos trabajando en ello, pero ahora con un software al alcance de todos, en pocas horas cualquiera puede crear un video falso muy creíble.

Pero, así como evoluciona el algoritmo y los programas para hacer deepfakes, las grandes empresas de tecnología están uniendo fuerzas para contrarrestar los males que puede causar.

Un gran ejemplo de esto es Microsoft que presentó un software que puede ayudar a detectar fotos o videos Deepfake. El software se llama “Video Authenticator”, el cual analiza una imagen o cada fotograma de un video, buscando evidencia de manipulación que podría ser invisible a simple vista.

Adicionalmente, Microsoft incorporó este sistema a su plataforma de computación en la nube Azure, permitiendo que los creadores de fotos o videos agreguen datos en segundo plano que se pueden usar para verificar si las imágenes resultaron alteradas.

Después de entender bien cómo funciona, qué hay detrás y qué han creado para combatir el mal uso de esta tecnología, pasemos al tema de la publicidad, más concretamente a la publicidad digital.

¿Cómo puede hacer parte del ecosistema digital de la publicidad de forma positiva?

En lo que se ha expuesto hasta el momento, la industria del entretenimiento le ve un gran beneficio a esta tecnología, si se usa en las películas. ¿Cómo?

Maikel León Espinosa, profesor del departamento de negocios de la Universidad de Miami, en conversación con CNN, nos invita a imaginarnos que vamos a ver nuestra película favorita, pero podemos elegir qué actor o actriz queremos que sea el protagonista. Más o menos como cuando salieron las series o películas interactivas, donde el espectador podía decidir entre dos caminos y la historia iba cambiando según las decisiones de cada persona.

Por otro lado, se puede llegar a implementar en la creación de sistemas cognitivos en 3D que permitan que los asistentes de voz como Alexa o Siri tengan cuerpo humano. Así ya no solo hará parte de nuestro ecosistema digital un asistente de voz redondo que reproduce los anuncios o información de una marca, sino que podrá tener apariencia humana y la interacción será cada vez mayor, por lo que los anuncios podrán ser menos invasivos y fastidiosos para los receptores y podrán ser insertados como parte de una conversación que las personas empiecen a tener con sus asistentes de voz.

Pongamos una situación hipotética. Una persona, Daniel por ponerle nombre, que ya ha convivido varios años con el asistente de voz Alexa en su casa decide que va a probar esta nueva tecnología y le pone un cuerpo humano, a su gusto, para que parezca ser un integrante más de la familia, de la casa.

A medida que avanzan los días y mantienen conversaciones como antes, cada vez que Daniel le hace una consulta a Alexa, es le dará los primeros resultados de esa búsqueda, podría priorizar los anuncios correspondientes a esa intención de búsqueda, reproducirle el primer video que encuentre (que será el mejor posicionado o el que está pagando anuncio), le muestra los mejores precios para el producto que necesita comprar (nuevamente el mejor posicionado o el que más puja tiene), pero Daniel no lo percibirá como un anuncio que lo interrumpe y no le gusta, lo aceptará como la respuesta de su asistente Alexa, será orgánico y natural, como parte de una conversación.

Por último, pero no menos importante, puede ser usado para crear anuncios y campañas hiperpersonalizadas en cualquier canal dentro del ecosistema digital. Con infinitas posibilidades, como, por ejemplo, que el usuario que estará expuesto a los anuncios pueda decidir quién le dé el mensaje de marca, o lo invite a participar en un evento o a comprar algún producto recién salido del horno.

Como influenciadores, pero hiperpersonalizados. Claro está, que, si se llegara a implementar esta tecnología en las campañas que estoy exponiendo, el escenario ideal es que las celebridades que estén en el pool de opciones que tendrá el usuario, estén enteradas que se usará su identidad, su cara y su voz e igual se le pagará.

Aquí les dejo un ejemplo de una implementación muy creativa de la tecnología de Deepfake.

¿Conocen otras?

¿Y de forma negativa?

Bueno, pues es básicamente lo que se ha visto hasta el momento, que las marcas podrán empezar a engañar a los usuarios, haciendo creer que alguna celebridad cree en su marca, la consume, etc, y con esto dirigir la compra masiva.

Pueden dejar de avisar que es un contenido falso y empezar a movilizar a las masas de manera negativa, a través de los canales digitales, hacer publicidad engañosa. Si ya vimos qué puede hacer una campaña engañosa digital presidencial (fakenews), ¿qué podría llegar a pasar con una campaña basada en Deepfake salida de las manos equivocadas?

Y para finalizar, un escenario un poco más escalofriante. Este tipo de falsificaciones pueden imitar datos biométricos y potencialmente pueden engañar a los sistemas que dependen del reconocimiento de rostros, voz o venas. Es decir, el potencial que hay aquí de estafas es gigante.

En conclusión, es una tecnología impresionante, que puede traer muchos beneficios a muchos sectores, pero siempre buscando el lado positivo y usándolo para beneficiar a las personas, no para perjudicarlas y llevar a confusión colectiva.


¿Te gustó el contenido?

Suscríbete para recibir más