Noticias| Ciberdelito | Vectores de ataque
Esta noticia ha causado revuelo. El alcalde de Kiev, Vitali Klitschko, llama a la alcaldesa de Berlín Franziska Giffey. Así parecía a simple vista. Sin embargo, en realidad la videollamada era falsa. Al principio, no estaba del todo claro si se trataba de un llamado deep fake o de un montaje muy profesional de diferentes grabaciones. Mientras tanto, sin embargo, se sabe que un dúo de cómicos rusos es responsable del incidente.
Aunque este incidente probablemente no sea un deep fake, esta tecnología conlleva cierto riesgo. En el siguiente artículo, explicamos qué son realmente los deep fakes, cómo ocurren, cuándo se vuelven peligrosos y cómo reconocerlos. Disfruta leyendo.
A finales de junio, el alcalde de Berlín recibió una videollamada del alcalde de Kiev, Vitali Klitschko. No era evidente a primera vista que la llamada fuera falsa. Según Franziska Giffey, las expresiones faciales y los gestos coincidían. Los movimientos de la boca también fueron correctos. Solo tenía dudas por el desarrollo de la conversación. Cuando salió el tema de celebrar el Día de la Calle Christopher en Kiev, Franziska Giffey sospechó que algo no iba bien y rompió la conversación. El mismo partido se repitió en Budapest, Madrid, Viena y quizás en otras ciudades europeas.
Ahora se sabe que un dúo de cómicos rusos es responsable de las videollamadas falsas. Utilizaron métodos de ingeniería social para acceder al ayuntamiento y poder hacer la videollamada. La ingeniería social consiste en recopilar información sobre las personas y, en última instancia, usarla de forma tan inteligente que se crea una relación de confianza y se transmite información sensible. Según los dos agresores, este procedimiento es «muy sencillo» y «funciona siempre».
No proporcionan ninguna información sobre cómo se hizo realmente el vídeo. La única información que compartieron sobre su ataque es que no es un deep fake.
El término «deep fake» proviene del inglés y está formado por las palabras deep learning y fake. Son falsificaciones creadas con la ayuda de inteligencia artificial a partir de imágenes, audio y grabaciones de película. Existen varias formas de deep fakes, algunas de las cuales pueden ocurrir en tiempo real:
Nunca ha sido tan fácil crear deepfakes como lo es hoy: innumerables aplicaciones y programas como Reface o DeepFaceLab hacen posible crear deepfakes en solo unos pocos pasos. FakeApp incluso está disponible para sus usuarios de forma gratuita, y el programa Avatarify permite a sus usuarios transformarse en una persona completamente diferente (avatar) y así aparecer en tiempo real en videollamadas con Skype, Zoom y Teams.
Como se mencionó antes, la inteligencia artificial se utiliza para crear deep fakes. Las redes neuronales y los algoritmos analizan material de audio, imagen y vídeo existente de la persona a imitar y crean nuevo contenido. Cuanto más material original hay, más realista parece el resultado. Si las aplicaciones impulsadas por IA disponen de material de una persona de diferentes situaciones, perspectivas y formatos de medios, aprenden rápidamente las propiedades esenciales. La IA puede transferir estas propiedades a otros materiales sin cambiar el entorno.

El ejemplo de llamadas falsas de alcalde presentado ilustra muy bien posibles áreas de aplicación. Aunque no sea un deep fake —según los perpetradores— la motivación es claramente visible. Los cómicos lo llaman «entretenimiento» y «entretenimiento». Las víctimas, en cambio, hablan de «guerra moderna«. Eso describe muy bien la situación. Los deep fakes se usan a menudo con fines de entretenimiento, ya que puede ser divertido poner a personalidades conocidas en situaciones oscuras y embarazosas.
Sin embargo, esta técnica también puede convertirse rápidamente en lo contrario y llevar a que la gente sea desacreditada o a la difusión de desinformación y propaganda.
El gobierno alemán también advierte que los deep fakes pueden suponer un gran peligro para la sociedad y la política. Especialmente cuando se utiliza para influir en procesos políticos y en la opinión pública.
Debido a los avances técnicos, es posible que ya no sea un reto crear deepfakes, ni siquiera para aficionados y principiantes. Además, la potencia de cálculo y el rendimiento de la inteligencia artificial están en constante aumento. Como resultado, la calidad de los deep fakes mejora rápidamente. Cada vez es más difícil distinguir la verdad de la manipulación.
Los deep fakes no te acompañarán en la vida cotidiana. El uso de deep fakes es, en efecto, muy específico y depende de la situación. Pero especialmente cuando se abordan aspectos políticos, sociocríticos o explosivos y se utiliza material en vídeo para el periodismo, puede ser útil examinar más de cerca. Como en muchos otros casos, primero deberías escuchar tu intuición. Si ves un vídeo de una persona o escuchas una grabación de audio y el comportamiento o lo que se dice te parece extraño o completamente contrario a la apariencia y comportamiento «normal» de la persona, puede ser manipulación.
Como se ha mencionado, puede ser bastante difícil detectar deepfakes o falsificaciones y manipulaciones en general debido al progreso técnico. Sin embargo, deben señalarse los siguientes aspectos:
Puedes leer más información sobre los deep fakes aquí:
¿Ya has tenido contacto con deep fakes y te gustaría compartir tus experiencias con nosotros? No dudes en ponerte en contacto con nosotros. Esperamos con ilusión el intercambio.