Aumento de los fraudes con deepfakes

El aumento de los fraudes con 'deepfakes' enciende todas las alarmas.

 

El impulso de la inteligencia artificial ha puesto a disposición de cualquier usuario métodos de creación de imágenes y audio falsas cada vez más realistas, que se pueden usar para estafar a los menos precavidos.


La popularización de la inteligencia artificial ha causado que cada vez sea más habitual encontrar videos o audios falsos generados con esta tecnología, que son casi imposibles de diferenciar de los reales. Se trata de 'deepfakes', una técnica que permite superponer el rostro o voz de una persona en un video o audio de otra.


Aunque esta tecnología se puede utilizar por motivos artísticos o simplemente para crear contenido humorístico, el uso fraudulento de material creado con inteligencia artificial se está convirtiendo rápidamente en una de las principales amenazas en el sector financiero. La digitalización de los procesos bancarios ha provocado que cada vez más transacciones se realicen por internet, y por lo tanto más clientes sean susceptibles a este tipo de engaños.


Al igual que la aparición de nuevas tecnologías puede provocar una renovación en algunas actividades económicas, la innovación tecnológica también supone un impulso para el cibercrimen. La accesibilidad al software relacionado con la inteligencia artificial, que se puede adquirir online a bajos precios o incluso de forma gratuita, ha creado mayores facilidades para individuos que busquen estafar por internet.


Nuevos métodos para estafar


La suplantación de identidad lleva años siendo uno de los principales medios para estafar online, pero los 'deepfakes' hacen aún más complicado diferenciar cuándo nos están engañando, y pone en una situación de vulnerabilidad hasta a los usuarios con mayores competencias digitales. Hoy en día, un estafador no solo puede mandar un email suplantando ser un familiar o amigo pidiendo dinero, sino que puede crear un video o pista de audio falso emulando a esa persona de forma realista. Solo algunas fotos o 30 segundos de audio bastan para crear 'deepfakes' imposibles de distinguir sin software específico para ello, y la proliferación de las redes sociales puede poner ese material a disposición del timador.

Estos contenidos modificados buscan extorsionar a las víctimas a cambio de dinero.

Hace unos meses el FBI ya denunció haber detectado un incremento de perfiles creados con ayuda de esta tecnología. Así se observa como en algunos casos se han manipulado imágenes y videos usando el rostro de la víctima para crear contenidos falsos, unos deepfakes que luego se llevan a redes sociales, foros diversos, e incluso pueden acabar en alguna web pornográfica.

El problema, recuerda Rubio, es que la persona afectada, cuya imagen se utiliza, la mayor parte de las veces desconoce lo que está ocurriendo y sólo se entera por el aviso de algún familiar o conocido que lo detecta. Otras veces, es el ciberdelincuente el que contacta con el afectado para pedirle dinero y así evitar que ese video o imagen manipulada y enmarcada en un contenido sexual, por ejemplo, pueda circular por la red. Por eso, se aconseja tener cuidado con las imágenes o videos de contenido personal que subimos a nuestras redes sociales, a las que es aconsejable aplicar la configuración de privacidad y, de vez en cuando, realizar búsquedas inversas de imágenes.


Además de las llamadas estafas de ingeniería social, la inteligencia artificial facilita también el fraude por phishing, que consiste en hacerse pasar por una empresa de confianza, como puede ser una entidad bancaria, para hacerse con información del usuario o lograr rédito económico. Otros usos fraudulentos de la inteligencia artificial incluye la utilización de 'deepfakes' para superar procesos de autentificación online.