Cada vez más a menudo, aparecen vídeos engañosamente reales en los que los famosos dicen o hacen cosas inesperadas : Barack Obama, por ejemplo, ataca a su sucesor, o Mark Zuckerberg confiesa que ha transmitido todos los datos de usuarios de Facebook. Pero ellos nunca hicieron eso. Estos son los llamados vídeos deepfake, que han sido hechos con ayuda de inteligencia artificial.

Aunque en la mayoría de los casos estos vídeos son reconocidos como falsos de manera relativamente rápida, esta tecnología está mejorando constantemente y representa un peligro potencial importante.
Cada vez es más difícil detectar si la información es falsa, además los ciberdelincuentes también están utilizando “deepfakes” para atacar a empresas con nuevas estafas: por ejemplo, The Wall Street Journal informó sobre una empresa británica no especificada que fue víctima de un ataque deepfake. En este caso, la voz del CEO de la empresa matriz alemana fue imitada como si fuera auténtica utilizando un software basado en Inteligencia Artificial (IA) y consiguieron que el jefe de la compañía británica transfiriera 243.000 dólares americanos a una cuenta bancaria extranjera.

Como consecuencia de estos desarrollos, Hornetsecurity quiere analizar en el siguiente artículo el tema de los “deepfakes”.

¿Qué es un deepfake?

Los “deepfakes” son archivos de vídeo y audio manipulados que imitan las características biométricas de las personas como: la apariencia, las expresiones faciales o la voz de una manera engañosamente real. El término se compone de Deep Learning, que describe una tecnología especial de IA, y Fake.

Para crear vídeos Deepfake, las redes neuronales artificiales, que tienen una cierta capacidad de aprendizaje, se alimentan con material de imagen o vídeo. Basado en el material de origen, el software de IA puede aprender a representar a la persona e incluso imitarla en un contexto diferente. La calidad del resultado depende, por un lado, de la extensión del material de origen y de cuántas capas ha utilizado la red neuronal, es decir, cuán «profunda» es. Para crear la imitación, dos algoritmos funcionan en la interacción: mientras que uno crea la falsificación, un segundo comprueba el resultado en busca de errores. La autenticidad de la falsificación aumenta con el número de repeticiones de este proceso de aprendizaje.
Pero no sólo los vídeos pueden ser falsificados con Inteligencia Artificial y Deep Learning, también se pueden crear falsificaciones de voces usando un método similar.

¿Por qué aumenta el número de Deepfakes?

No hace mucho tiempo que las caras en los vídeos sólo podían ser reemplazados por efectos CGI elaborados por expertos a altos costes. En la actualidad, esto también es posible para cualquier persona de TI gracias a un software de IA de libre acceso como DeepFaceLab. Incluso el uso de un hardware de alto coste ya no es necesario. Los usuarios que tienen una tarjeta gráfica demasiado débil pueden, por ejemplo, utilizar Colab de Google para tener hasta doce horas de formación de IA llevado a cabo en la nube. Una vez que el programa ha sido alimentado con material crea la manipulación automáticamente, en la medida de lo posible . Además, los mecanismos de aprendizaje profundo están en constante evolución y requieren cada vez menos grabaciones. Si bien varias horas de secuencias de vídeo serían necesarias, algunas IA solo necesitan unas pocas imágenes para intercambiar rostros.

El proceso de imitar una voz es similar: programas como Lyrebird necesitan sólo unos minutos de material de audio para generar imitaciones creíbles.

Mientras que los famosos han sido, hasta ahora, los principales objetivos: el caso descrito al principio muestra que los ciberdelincuentes también están utilizando la tecnología para atacar a las empresas.

¿Qué ataques deepfake pueden esperar las empresas?

Los expertos en ciberseguridad de Hornetsecurity ven un alto potencial de riesgo en dos áreas en particular: una estafa es el llamado fraude del CEO, en el que los ciberdelincuentes se hacen pasar por ejecutivos enviando correos electrónicos con una dirección personal y tratan de persuadir a los empleados a pagar grandes sumas de dinero. Con la tecnología “deepfake” ahora es posible aumentar drásticamente la credibilidad de esta estafa del fraude del CEO mediante archivos adjuntos de vídeo o audio falsos.

Debido al rápido desarrollo de la tecnología, también es concebible que los estafadores puedan incluso ponerse en contacto con los empleados directamente por teléfono o videollamada y hacerse pasar por el director general en tiempo real. El caso de la empresa británica mencionada al principio de este artículo, muestra que este procedimiento ya se ha aplicado con éxito en la práctica: un hacker se hizo pasar por el director general y llamó a su superior de la empresa matriz alemana y, según sus instrucciones, transfirió 243.000 dólares americanos a un supuesto proveedor.

Otra táctica que también podría convertirse en un problema: los ciberdelincuentes crean deepfakes en los que los ejecutivos hablan de su propia empresa y anuncian, por ejemplo, la insolvencia de la empresa. Amenazando con enviar el material a los medios de comunicación o publicarlo en las redes sociales.

¿Cómo se pueden detectar y prevenir los ciberataques deepfake?

En cuanto a los ciberataques deepfakes que ingresan a la empresa a través de correo electrónico, existe la posibilidad de que los filtros de spam y malware bloqueen el email y eviten que se abran los archivos de audio o vídeo adjuntos o vinculados. Sin embargo, los filtros no son capaces de reconocer deepfakes per se, pero pueden analizar los mensajes, por ejemplo, para determinar si el dominio, la dirección IP o el remitente está en la lista negra o si contienen vínculos o archivos adjuntos maliciosos.

Cuanto más concentrado e individual sea el atacante, mayor será la probabilidad de que el ataque alcance su objetivo. El ciberataque se vuelve particularmente peligroso si se lleva a cabo por teléfono o videollamada, ya que no existen mecanismos de seguridad que puedan intervenir en este caso.

Por lo tanto, los expertos en seguridad informática de Hornetsecurity hacen hincapié en que es crucial sensibilizar a los empleados y gerentes de las empresas sobre este nuevo escenario de ciberamenazas. Sólo teniendo un elevado nivel de conciencia, podremos proporcionar una protección efectiva para este tipo de ciberataques.