Formulario de búsqueda

El deepfake se consolida como recurso creativo en la publicidad y el marketing

  • En los últimos festivales se han premiado trabajos que utilizan esta tecnología, como "Con mucho Acento" de Ogilvy
  • Algunas empresas la utilizan para presentarse a los clientes, pero las autoridades quieren regular su uso pernicioso

En 2006 BMW lanzaba la campaña “Be water my friend”, ideada por la agencia SCPF, y que se convirtió en un fenómeno social, tanto por su ejecución como mensajes. Aquel anuncio fue concebido para presentar y construir el territorio del nuevo BMW X3, uno de los primeros representantes del segmento de los todocaminos que hoy domina el mercado automovilístico. El mensaje que querían trasladar los creativos era que este vehículo podía atravesar cualquier senda y tenía una capacidad de adaptación como pocos. El personaje que mejor encarnaba estos valores era Bruce Lee, el rey de las artes marciales que este trabajo de BMW consiguió recuperar mediante la técnica del deepfake.

Steve McQueen, Audrey Hepburn o Martin Luther King han sido objeto de deepfake

Hay otros ejemplos semejantes como las “resurrecciones” de Steve McQueen con Ford, de Martin Luther King para la Super Bowl o de Audrey Hepburn en las campañas de Dove que utilizaron tecnologías similares. Hoy el deepfake ha evolucionado hasta el punto de devolvernos un reflejo del pasado sobre el que los creativos construyen guión para dotar a los personajes de una nueva vida, con la misma esencia del pasado, pero adaptada al contexto actual. El mejor ejemplo es la extraordinaria campaña “Con mucho acento”, creada por Ogilvy para Cruzcampo y que consiguió devolver a la vida a Lola Flores para alcanzar uno de los reposicionamientos de marca más importantes de los últimos tiempos.

Realmente, el término deepfake tiene un matiz negativo que hace referencia solo a los usos perniciosos de esta tecnología, como son la suplantación de identidades o el lanzamiento de fake news. Pero el término correcto para referirse a la técnica de creación es “red generativa antagónica” (GAN), bajo la que se agrupan tanto los videos falsos como los desarrollos útiles, en los que la Inteligencia Artificial muestra toda su utilidad. Así, por ejemplo, en Airbus utilizan estos sistemas para diseñar nuevas estructuras aerodinámicas que son realmente figuraciones que están por encima de la realidad, pero que ayudan a entender mejor los funcionamientos de las aeronaves.

En un sentido similar se emplean estas redes generativas antagónicas en la NASA, donde consiguen imaginar procesos más allá de lo conocido para afrontar retos que vendrán. Fuera de usos de alto nivel científico, las GAN se emplean en el diseño de prótesis dentales, en la generación de escenarios para videojuegos o en la composición musical, puesto que una de las principales virtudes de estas redes es su capacidad para el aprendizaje automático. Todo comienza con la introducción de loa datos, bien imágenes o bien vídeo, que sienta las bases de la creación futura. A partir de ahí, una primera red crea y su antagonista, que actúa como red discriminadora, analiza el boceto para discernir si la información que recibe son reales o artificiales.

“En términos de machine learning, lo que hace este sistema es una especie de juego entre policía y ladrón, maximizando una variable y minimizando otra al mismo tiempo. De este modo, el discriminador va aprendiendo y mejorando su habilidad para descubrir datos artificiales y el generador se reentrena para aprender a engañar cada vez mejor a ese discriminador”, describía Antonio Rodríguez, Arquitecto de Soluciones de Amazon Web Services en un seminario celebrado recientemente.

Y la aplicación del deepfaking no tiene por qué acarrear un proceso complejo, puesto que una vez diseñado el itinerario, si las peticiones que se hacen son regulares, la respuesta es casi inmediata. Es lo que sucedía con la aplicación Face App que se hizo viral en 2019 y que utilizaba una serie de algoritmos de redes neuronales especializadas en imagen para envejecer, rejuvenecer o hasta cambiar el género en rostros reales. Más recientemente se puso de moda la aplicación Deep Nostalgia, de MyHeritage, una herramienta basada en la Inteligencia Artificial donde el usuario, con apenas un par de pasos puede animar cualquier foto, pero también es capaz de darle mayor nitidez y otros matices de edición.

Una regulación contra los malos usos del deepfake

Esto en cuanto a usos lúdicos, pero como indicamos anteriormente el deepfake es una técnica que puede emplearse con fines maliciosos como evidenció la extorsión que sufrió en 2019 Scarlett Johanson, cuando un grupo de cibercriminales hicieron un vídeo pornográfico falso de la actriz para extorsionarla. Pero también pueden ser una herramienta para difundir noticias falsas, tal y como demostró el caso del vídeo de Barack Obama publicado en 2018 en el que afirmaba que Donald Trump era “un completo idiota”, una acción publicada por BuzzFeed que puso en evidencia la capacidad que puede tener esta tecnología para generar bulos.

Lógicamente, en la detección precoz de estos bulos tendrá valor la educación visual del consumidor de la información, aunque las técnicas de las redes generativas están cada vez más perfeccionadas y en el caso de los bustos parlantes, la plasmación es más sencillo que si se trata de reconstruir otras escenas más complejas. También fue objeto de una acción controvertida similar Mark Zuckerberg, CEO de Facebook, en el que supuestamente juraba lealtad a una organización terrorista ficticia. “Imagínense a un hombre que controla los datos robados de miles de millones de personas, que controla sus secretos, sus vidas y su futuro. Todo eso se lo debo a Spectre, que me ha mostrado cómo controlar el futuro”, confesaba el fake Zuckerberg en aquel comprometido vídeo.

El auge de estas manifestaciones negativas de la Inteligencia Artificial ha llevado a las instituciones de todo el planeta a concebir o plantear reglas para el uso de la tecnología. Así, por ejemplo, el think tank del Parlamento Europeo acaba de publicar un documento titulado “Abordar los deepfakes en la política europea”, donde se concluye que estos métodos pueden tener riesgos asociados “de naturaleza psicológica, financiera y social, con impactos que pueden variar desde lo personal a lo colectivo” y señala, además de los documentos audiovisuales, los proyectos sonoros que igualmente pueden ser utilizados para suplantar la identidad.

“Hay un inherente aspecto subjetivo de la aparente autenticidad de los deepfakes, puesto que un vídeo que puede parecer convincente para una audiencia, puede no serlo para otra persona, debido a que las personas a menudo usan información contextual o antecedentes para emitir un juicio. De modo similar, puede ser prácticamente imposible anticipar o evaluar si una tecnología en particular puede o no ser utilizada para crear deepfakes”, reflexionan en sus conclusiones el grupo de expertos del Parlamento Europeo que ha acometido el primer tratamiento comunitario sobre la utilización de esta tecnología.

"El uso cada vez más extendido de esta tecnología implica también el aumento de riesgos como la suplantación de identidad y estafas, difusión de datos falsos o noticias manipuladas, así como daños a la reputación corporativa y a la imagen de marca, lo que podría resultar en una pérdida de confianza por parte del público", explica a Reason.Why Enrique Domínguez, Director de Estrategia en Entelgy Innotec Security.

Campañas exitosas: de "Con mucho acento" a "Seguimos hablando"

Pero como suelde suceder con este tipo de avances, los usos van siempre por delante de la ley, que acota cuando la expansión ya es un hecho. Uno de los sectores en los la utilización de las redes generativas está siendo más profuso es el de la publicidad. Solo hace falta comprobar el palmarés de algunos de los festivales más recientes para ver que las propuestas de deepfake han sido ganadoras. El ejemplo más certero está cerca y es el de la campaña “Con mucho acento”, ideada por Ogilvy para Cruzcampo, donde se consiguió con éxito la resurrección de un mito como Lola Flores, altavoz del reposicionamiento de marca conseguido con este trabajo creativo merecedor del Gran Premio Nacional de Creatividad 2021, entre otros galardones.

Para la consecución de este trabajo se necesitaron más de 5.000 imágenes, principalmente grabadas en los años 80 y 90, además de un complejo proceso de composición y postproducción en el que las hijas de Lola Flores, Lolita y Rosario contribuyeron para lograr el resultado hiperrealista, que lleva la firma del estudio Metropolitana. Como curiosidad y valor de su trabajo, este nombre aparecía en mayúsculas en los créditos de la campaña, algo que pocas veces sucede cuando se trata de una empresa dedicada a la posproducción.

Pero no ha sido este el único trabajo reconocido por la industria creativa en el que se ha empleado el deepfake, tal y como ocurrió con el Grand Prix en Good que recibió la campaña “Seguimos hablando”, creada por Publicis México para Reporteros sin Fronteras y Propuesta Cívica, con la que se denuncia la persecución a la que son sometidos los periodistas en países como México, donde han sido asesinados más de 130 en la última década, siendo por tanto uno de los territorios donde más peligroso es ejercer esta profesión.

Precisamente, el protagonista de “Seguimos hablando” es Javier Valdez, periodista al que mataron en 2017 y cuya reproducción digital emite un mensaje para apelar a la conciencia y pedir el fin de la violencia. “Señor Presidente Andrés Manuel López Obrador, soy Javier Valdez, periodista y escritor. El 15 de mayo de 2017 fui asesinado por órdenes de alguien a quien no le gustó lo que publiqué, pero aquí estoy, como me ve, hablándole”, se inicia el vídeo difundido para denunciar la muerte de un reportero experto en narcotráfico que recibió varios tiros cerca de su semanario, Río Doce, en el estado de Sinaloa. “Aún después de asesinados o desaparecidos, seguirán hablando, han podido con su cuerpo, pero no con su voz. No lograrán silenciarlos”, señala la campaña.

Con un propósito similar se construyó la campaña “Unifinished Votes” ("Votos inacabados"), ideada por McCann Health y Change the Ref, la ONG fundada por los padres de Joaquin Oliver, un joven de 17 años que fue asesinado el 14 de febrero de 2018 en un tiroteo acaecido en la escuela de secundaria Marjory Stoneman Douglas de Parkland (Florida), un trabajo que tiene como objetivo buscar el cambio en la actual legislación de armas.

A través de la tecnología deepfake, los creativos consiguen "revivir" a Oliver, que lanza un mensaje implorando al voto por aquellos que apuestan por medidas restrictivas en el uso de pistolas. La campaña fue lanzada en la previa a las Elecciones Presidenciales celebradas en Estados Unidos durante 2020, los primeros comicios en los que podría haber votado el protagonista de este anuncio.

“Esa fue la circunstancia que nos movió. Todos aquellos jóvenes habían perdido la oportunidad de votar en sus primeras elecciones. Entonces pensamos, ¿cómo podemos hacer que sus voces se escuchen nuevamente?, ¿cómo podemos reemplazar esos votos perdidos? Entonces los padres de Joaquín nos mostraron el camino: ¡Háganlo! Joaquín no se ha ido del todo, porque su poder sigue vivo. Y eso es lo que realmente queríamos conseguir”, señalaba Tim Jones, Director Creativo Ejecutivo de McCann Health, a respecto de la idea original de la campaña.

Más allá de este trabajo creativo, el apartado digital ha sido clave para contar y reivindicar el ejemplo de Oliver, cuya imagen fue utilizada en otra campaña de Change the Ref, ideada por Alma, donde se transformó la figura del joven en un cartel portátil en 3D que se apareció en protestas de todo el país.

Redes neuronales, un recurso creativo durante la pandemia

Pero el deepfake también ha sido un recurso útil durante la pandemia, en la que las filmaciones presenciales se han reducido a su mínima expresión. Sucedió con uno de los anuncios de la plataforma de streaming Hulu, concebido en plena pandemia. Los protagonistas del mismo iban a ser deportistas como Damian Lillard, pero el baloncestista se encontraba en la burbuja de la NBA en Orlando. Para resolver esta limitación, Hulu rodó el spot con dobles corporales en un set de Los Ángeles y después usó algoritmos deepfake para superponer las caras del deportista.

Es más, las imágenes que se utilizaron de Lillard se grabaron de videollamdas con Zoom, según explicaba Ryan Crosby, Vicepresidente de Marketing de Hulu, sobre aquella campaña. A los protagonistas del spot se les pidió ponerse desde varios ángulos para captar su cara con diferentes expresiones pronunciando las vocales junto a la frase “Hulu has live sports again” (“Hulu tiene deportes en directo otra vez”). “También grabamos varias expresiones faciales diferentes que pertenecen a sus movimientos específicos y características del habla”, indicaba el responsable de Hulu, que trabajó con el estudio Tribbo, que también utilizó algunas fotografías de los atletas para reforzar los datos de ensayos de los algoritmos de IA. Todo este proceso de producción llevó seis semanas de ejecución.

Con un carácter lúdico, la aseguradora State Farm ideó una campaña para anunciar el estreno del documental "The Last Dance", sobre los Chicago Bulls de Michael Jordan y compañía, en la que utilizó algoritmos de redes neuronales. Para ello utilizó imágenes de archivo de Kenny Mayne, presentador de ESPN -de la que es sponsor State Farm-, donde gracias a la alteración digital informaba ya en los 90 del estreno de este film en la cadena norteamericana.

Pero el interés por este tipo de tecnologías no proviene solo de las grandes compañías, puesto que las start-ups que ofrecen soluciones más generales de la misma han experimentado un notable crecimiento en los últimos meses. Es el caso de Synthesia, que simplemente toma un texto o voz y manipula los movimientos de la boca de imágenes de archivos, pero cuyo negocio se ha multiplicado por 10. Esto plantea un nuevo modelo de producción, donde la presencia física no es imprescindible y el acceso a protagonistas puede volverse más asequible. Precisamente, según el fundador de Synthesia, Steffen Tjerrild, ahora es posible “crear vídeos con una centésima parte del coste, pero muchísimo más rápidos. Este es un modelo que ha llegado para quedarse, porque la calidad, la autenticidad y los costes irán normalizándose a medida que avance la implantación de esta tecnología”. Y pone como ejemplo algunos filtros de aplicaciones populares como Instagram, TikTok o Snapchat.

Todos estos ejemplos evidencian que el deepfake es una tecnología en la que cada vez más industrias están interesadas, pero algunas llevan trabajando con ella desde hace tiempo. Hablamos del sector textil, donde la recreación de modelos con estas técnicas se ha mostrado como una solución eficaz. En 2018, Zalando recurrió a este método para producir una campaña global protagonizada por Cara Delevingne, de la que se tomaron cientos de tomas para después construir casi 300.000 anuncios localizados para 12 países, acción con la que se lograron 180 millones de impresiones en redes sociales.

Así, la moda está utilizando los deepfakes para llegar a clientes con mensajes personalizados y altamente dirigidas, algo de lo que también se ven beneficiados los influencers o prescriptores de marca, que pueden protagonizar estas campañas sin necesidad de presentarse en las sesiones de fotos.

Pero esta tecnología también tiene usos en el entorno empresarial y algunas compañías como EY (antigua Ernst & Young), consultora global dedicada a la contabilidad, están haciendo presentaciones a los clientes o introduciendo en correos electrónicos pequeños clips creados con cabezas parlantes que son dobles virtuales de algunos de sus portavoces o trabajadores. Esta herramienta, creada por la citada Synthesia, tiene un importante valor añadido porque lleva incorporadas otras funciones como la traducción automática, lo que permite hacer interesantes cartas de presentación. “En vez de enviar un correo electrónico diciendo “Hola, ya falta menos para el viernes”; el interlocutor puede ver y escuchar nuestra voz. Es como si tuviéramos un cachorrito, que a todos les encanta”, indican desde la compañía.

El proceso de creación de los avatares no tarda más de 40 minutos, el tiempo que necesita el empleado para leer un guion a cámara con determinadas frases. Las imágenes y el audio proporcionan a los algoritmos de Synthesia ejemplos suficientes para aprender sobre cómo una persona habla y pronuncia.

 

"A través del deepfake se pueden conseguir campañas publicitarias mucho más personalizadas y adaptadas al público, evitando limitaciones como el idioma o diferencias culturales, llegando a un público mucho más amplio, ya que se puede crear sobre la misma base el protagonista deseado. Un ejemplo de ello es la campaña protagonizada por David Beckham para concienciar sobre la malaria, un vídeo en el que por medio de técnicas digitales el futbolista envejecía y que, gracias al deepfake, era capaz de hablar hasta 9 idiomas", añade Enrique Domínguez, Director de Estrategia en Entelgy Innotec Security.

Por tanto, los algortimos de redes neuronales pueden ser una herramienta útil tanto en el entorno corporativo como comunicativo, generando una interacción personal que reemplaza o incluso mejora en un primer instante a las situaciones reales. Todo, desde la perspectiva de un uso razonable, comercial o positivo de esta tecnología, que tiene en su cara B la suplantación de identidad o estafas, la incapacidad de algún sistema de ciberseguridad para hacerle frente o la falta de regulación; rémoras que no impedirán su avance cada vez más depurado y profesional en todo tipo de ámbitos.