Actualizado el 27/11/2021

icon Facebook icon Twiiter icon RSS icon EMAIL
  1. Portada
  2. >
  3. Noticias
  4. >
  5. Los deep fakes ya han sido utilizados para robar

Los deep fakes ya han sido utilizados para robar

Escrito por Guillem Alsina el 12/11/2019 a las 15:40:42
901

¿Se acuerdan de los deep fakes? Sí, ésos vídeos (o audios, como en el caso que nos ocupa) hiperrealistas generados con la ayuda de inteligencias artificiales que nos pueden engañar, y que son considerados los sucesores de las fake news.


Se temía su uso para fines malévolos, algo que ya ha sucedido, concretamente en marzo de este mismo año. Les explico la escena.


Un alto directivo de la filial británica de una empresa germana del sector energético recibe una llamada de su jefe, el cual habla habitualmente con un marcado acento alemán. Todo parece correcto, pues lo reconoce y sigue sus instrucciones, que son la realización de una transferencia a una cuenta por valor de 220.000 €, con los detalles en un e-mail que le envía en el momento en el que hablan.


Sólo que quien aparentaba -por la voz- ser su jefe, en realidad era una voz digitalizada, guiada por otra persona que era la que iba dictando lo que, justo inmediatamente, la voz sintetizada repetía con la misma entonación, el ritmo y el acento que tiene el superior del directivo británico.


Una segunda llamada despertó las sospechas del directivo, pero más por la petición que le hacía su supuesto jefe, que por dudar de la identidad de quien llamaba, así como el hecho de que el número de teléfono de origen de la llamada correspondía a Austria, y no a Alemania.


Así que tras hacer unas comprobaciones, llamó por teléfono de vuelta a su jefe germano -esta vez al número habitual de Alemania- quien, obviamente, no sabía nada de las dos peticiones de transferencia, una realizada y la otra todavía no.


En un momento determinado, y según cita el Wall Street Journal, este directivo tenía en directo por una línea a su auténtico jefe y, por la otra, al falso. Una escena seguramente digna de un vodevil si no fuera porque ya se habían perdido los 220.000 € de la primera transferencia, que habían ido a una cuenta en Hungría y, tras pasar por varias otras cuentas bancarias de aquel país, habían ido a parar a México para acabar perdiéndose en un mar de transferencias. El proceso habitual para evadir el dinero.


La aseguradora, la compañía francesa Euler Hermes lo ha calificado como el primer robo en el cual se ha utilizado inteligencia artificial para realizar el engaño. ¿Cómo se sabe que no era una conversación grabada? Muy simple: la llamada fue interactiva, y en todo momento el interlocutor respondió coherentemente a las preguntas realizadas por la víctima de la estafa. No podía ser, de ninguna manera, una grabación.


Según apuntan en el Journal, las autoridades policiales advierten de que el uso de inteligencia artificial para cometer delitos será cada vez más habitual. Así que el consejo para el futuro es claro: no se fie de lo que vean y escuchen.


Puede que este no sea el primer ni el único ataque que se ha perpetrado utilizando medios de inteligencia artificial para impersonar a alguien y realizar la estafa, pero si ha habido otros, estos no han sido dados a conocer públicamente, a diferencia de este.