Los 'deepfake' evolucionan e incluyen hasta videos falsos de ministros de Ecuador
Uno de los 'usos' de la inteligencia artificial es replicar voces y personas sin su consentimiento, para crear videos conocidos como 'deepfake'. Conozca cómo puede reconocerlos para no caer en estafas.
Fotografía referencial de un hombre detrás de la pantalla de una computadora.
Dominio Público
Autor:
Actualizada:
Compartir:
De las entrañas de la inteligencia artificial nace una técnica que puede engañar a más de un usuario. Imagine, por ejemplo, que está en su casa y hace 'scroll' sobre videos cuando, de repente, sale un presentador de noticias o el ministro de Finanzas de Ecuador, Juan Carlos Vega, promocionando un negocio imperdible. Cuidado, no crea en ellos, porque lo más probable es que sea un deepfake.
¿Qué es un deepfake? A grandes rasgos, un 'deepfake' es un video con imágenes y voces manipulados, en el que se usa las "bondades" de la inteligencia artificial (IA), pero no para un bien mayor sino para aprovecharse o estafar a otras personas.
En esencia, el deepfake utiliza el 'aprendizaje automático de la IA, llamado en inglés 'deep learning', y que a través de dos tipos de algoritmos crea imágenes y voces falsas, pero que parecen reales.
Es decir, es un video en el que alguien con las habilidades correctas, puede tomar el rostro de una persona (sin su consentimiento) para 'poner palabras en su boca'.
Los ejemplos 'famosos' de deepfake se cuentan por decenas, desde el expresidente de Estados Unidos, Barack Obama, pasando por el papa Francisco y recientemente dos ministros de Ecuador, Juan Carlos Vega y Roberto Luque.
Un Obama 'falso'
La tecnología no es nueva, está el icónico caso de investigadores de la Universidad de Washington que lograron crear un 'deepfake' del entonces presidente de Estados Unidos, Barack Obama, con movimientos de cara y gesticulaciones que eran lo suficientemente realistas.
En este ejemplo de 2017, los académicos hicieron que el Obama 'falso' diga cosas que el Obama 'real' sí dijo, aunque en un contexto diferente.
Un año después, en 2018, el medio digital estadounidense, BuzzFeed, realizó un video junto al actor Jordan Peele para mostrar lo fácil que sería engañar a un ciudadano y hacerle creer que el político demócrata se refería al entonces presidente, Donald Trump, como un "completo imbécil".
De manera irónica, el video comenzaba con un Obama 'falso' diciendo "estamos entrando en una era en la que nuestros enemigos puede hacer que cualquiera diga lo que sea en cualquier momento", para después hacer notar que en realidad era Peele quien decía todas estas palabras.
Deepfake entre nosotros, para reír y temer
Sin irse a países o fechas lejanas, en América Latina y en Ecuador ya tenemos casos de videos manipulados.
En Argentina hay cuentas en YouTube, TikTok e Instagram de un usuario con el nombre de DeepFakesAR, en el que se suben videos con fines humorísticos, que crean versiones alternas de clips famosos en la cultura popular, pero con rostros de celebridades argentinas.
¿Y si Guillermo Francella hubiera tomado el papel de Rambo en vez de Silvester Stallone?¿O si es que quien inmortalizó la característica frase "MIAMIII" no habría sido Ricardo Fort sino Lionel Messi?.
Precisamente todas estas ocurrencias las hacen realidad en esa cuenta. Pero, nuevamente, el fin de estos videos es humorístico y en todo momento dejan claro que se tratan de 'deepfakes'.
Hay casos en los que la intención de estos videos no es ni educativa ni humorística.
Semanas atrás, cuando Bukele ratificó su cargo como presidente en El Salvador, en TikTok empezó a circular un video en el que se lo veía con el rostro bastante tenso, pero con la voz y timbre natural. En el clip, supuestamente criticaba al presidente de Ecuador, Daniel Noboa. Esto nunca sucedió.
Por las mismas fechas, otro video publicado en YouTube con el nombre de "El camino hacia un futuro innovador" (ya eliminado) pretendía mostrar tanto al presidente Daniel Noboa como al ministro encargado de Energía de entonces, Roberto Luque, promocionar un negocio de dudosa estructura. Esto tampoco era cierto.
Otro caso más reciente fue un video en redes sociales en los que supuestamente se veía a presentadores del noticiero de Ecuavisa promocionar "proyectos de inversión". El propio canal realizó un reportaje dejando en claro que era totalmente falso.
¿Cómo identificarlos?
A medida que avanza la tecnología se puede hacer más difícil distinguir estos contenidos manipulados. Y a la par crecen las herramientas, algunas gratuitas, que permiten a cualquier usuario promedio hacer un deepfake.
Pero, hay algunos parámetros que puede tomar en cuenta si es que en algún momento se topa con un video que levanta sospechas:
- El rostro apenas se mueve o lo hace de una manera extraña.
- Los labios no siempre se mueven acorde a las palabras que se escucha o se mueven cuando hay algún ruido.
- La voz tiene pocas o ninguna variación en su entonación.
- En el contorno del rostro hay diferencias en el color de la piel.
- El video tiene pocas visualizaciones y no está publicado en un medio serio o cuenta conocida, y mucho menos ha sido divulgado por el protagonista del clip, ya sea un actor, celebridad, periodista o ministro de Estado.
Si todavía mantiene sospechas, haga un breve ejercicio de verificación por su cuenta y busque en Google las palabras clave del video.
En caso de que no aparezca ninguna noticia al respecto, o los resultados que encuentra no son de medios o instituciones reconocidos, entonces se ha topado con un 'deepfake'.
También puede recurrir a las agencias de noticias que verifican datos y suelen desmentir videos falsos.
Por último, si busca un recurso más tecnológico, hay plataformas como deepware que permiten identificar si un video es 'deepfake'. Aunque el portal solo sirve si el video está publicado en plataformas como YouTube, Facebook o X (antes Twitter).
Compartir: