¿Qué son los deepfakes?
El término deepfake proviene de la mezcla de las palabras en inglés ‘deep learning’ (aprendizaje profundo) y ‘fake’ (falso).
Pero, ¿qué son exactamente los deepfakes? Son técnicas de edición o creación de vídeos aparentemente reales, pero que han sido modificados con Inteligencia Artificial para alterar las caras de los protagonistas, incluyendo a otras personas, o incluso ‘creando’ nuevas identidades.
Se les otorga este nombre debido a las técnicas de Inteligencia Artificial y Machine Learning utilizadas en el proceso.
Pero, ¿qué son exactamente los deepfakes? Se trata de videos o imágenes de personas reales, alteradas para reproducir otorga ese nombre a la edición o creación de imágenes o vídeos de personas falsos, es decir, que no han sucedido en la vida real.
¿Cómo funcionan los deepfakes?
Los deepfakes utilizan algoritmos de Inteligencia Artificial que aprenden a base de consumir imágenes determinadas y posteriormente son capaces de generar nuevas versiones de esas mismas imágenes.
Este método explica porque la mayoría de imágenes que existen relacionadas con los deepfakes se corresponden con gente famosa, debido a la gran cantidad de imágenes suyas que pueden ser encontradas en internet.
¿Son peligrosos los deepfakes?
Como la mayoría de avances tecnológicos, un uso irresponsable de estas tecnologías puede tener graves consecuencias. Los deepfakes pueden ser utilizados en el cine para recrear escenas de peligro con actores principales e incluso ‘rejuvencer’ o ‘revivir’ a ciertos actores como es el caso de Will Smith en la película Géminis donde aparece con sus 51 años y en una versión rejuvenecida de 23 años, ambas interpretadas por el actor pero alteradas con técnicas de deepfake.
Sin embargo, estas técnicas en sí mismas presentan una grave amenaza para la suplantación de identidad de cualquier persona.
¿Cómo detectar un deepfake?
Un reciente estudio publicado por Sophie Nightingale, del departamento de Psicología de la Universidad de Lancaster en el Reino Unido, y por su colega Hany Farid, del departamento de Ingeniería Eléctrica y Ciencias de la Computación de la Universidad de California, Berkeley, demostró que los seres humanos somos peores que el mismísimo azar a la hora de distinguir entre rostros humanos ficticios generados por programas de inteligencia artificial y fotografías de personas reales. Este estudio, del que se hizo eco el periódico La Vanguardia, entre otros, advierte a su vez del uso dañino de estas tecnologías, que “abren la puerta a futuras estafas y chantajes” como podría ser “la pornografía de venganza o fraude”.
En un momento en el que estamos viviendo un boom de métodos biométricos para la verificación de la identidad en remoto, ¿qué papel pueden jugar estas nuevas soluciones en la prevención del fraude por la vía del Deepfake? ¿Pueden ser tecnologías efectivas para combatir los Deepfakes? A continuación, te damos algunas claves importantes.
¿Cómo evitar los deepfake?
La clave está en distinguir entre capturar y analizar. Dentro de todo proceso de verificación digital de una identidad, existen dos etapas: la captura de las evidencias a analizar (un documento de identidad, un selfie, etc.) y el análisis de dichas evidencias para determinar su veracidad o para realizar una comparación entre ellas. Ambas etapas son de igual importancia, a pesar de que el foco de la noticia suele estar habitualmente en la segunda parte.
Una definición más exacta de dichas etapas sería la siguiente:
- Capturar: se entiende por capturar la acción de recoger una grabación de una realidad material, a través de la generación de una fotografía o vídeo. En definitiva, materializar mediante los sensores asociados a las cámaras lo que sucede en el mundo real e imprimirlo en una representación visual física o digital.
- Analizar: se entiende por analizar cualquier tipo de interpretación realizada por un humano o una máquina del contenido previamente capturado. Un análisis puede indicar si una fotografía o grabación es auténtica, si la imagen ha sido manipulada, si contiene unas determinadas características (¿hay una cara?, ¿hay un perro?), etc
En este sentido, el estudio de Nightingale y Farid hace referencia a cómo la creación de Deepfakes presenta situaciones en las que la capa de análisis mencionada anteriormente obtiene un resultado inapropiado: el análisis del humano interpreta algo como auténtico aunque sea falso. Pero también hemos conocido cómo en otras ocasiones no es el humano (el único) que es llevado a engaño, sino que los propios algoritmos de inteligencia artificial entrenados para distinguir caras genuinas de caras artificiales también son llevados a equivocación por otros algoritmos.
Estos últimos son conocidos como algoritmos provenientes de Redes Generativas Antagónicas, GAN en sus siglas en inglés (Generative Adversarial Networks), y están entrenados para competir en juego de suma cero contra los motores biométricos y así inutilizar su utilidad. Con todo ello, podemos deducir que la capa de análisis está comprometida ante estos nuevos tipos de ataques.
Por ello, resulta realmente clave tratar de entender el proceso como algo compuesto por dos etapas, capturar y analizar, y por tanto, es de vital importancia controlar y conocer el método de captura.
Consejos para distinguir un deepfake
Cuando vemos una foto de una persona y empezamos a analizar su veracidad, debemos hacernos unas preguntas antes: ¿Conozco la captura? ¿Conozco cuándo se capturó? ¿En qué condiciones? ¿Con qué dispositivo? ¿Quién la capturó? ¿Dónde se capturó?, etc.
Nada de esto es conocido cuando vemos y analizamos bases de datos de fotografías como las dispuestas en el estudio anterior. Al fin y al cabo, un Deepfake es una imagen artificial que fue generada (no capturada por una cámara) o que fue capturada por una cámara y posteriormente manipulada.
Por ello, pensemos ahora en un proceso de verificación digital de identidad como el de Veridas, ya sea para un onboarding de nuevos clientes o para una autenticación de un cliente existente. En ese caso, Veridas controla los dos ejes: la captura y el análisis. Los SDKs de captura son de Veridas y, por lo tanto, podemos saber si la foto se capturó con ellos, si ha sido alterada, cuándo se capturó, de qué manera, etc.
También controlamos la parte de análisis, los algoritmos son 100% propiedad de Veridas. Por tanto, estamos en una disposición mucho mejor para verificar si la información que llega es auténtica o no. Introducir un Deepfake o una alteración de este estilo en un proceso de Veridas es prácticamente imposible, porque requeriría un hacking muy avanzado tanto sobre el front (la captura) como sobre el back-end (los motores de biometría). De forma adicional, desde Veridas se está trabajando en algoritmos de detección específicos para Deepfakes.
En definitiva, es de vital importancia asumir la idea de que, si el proceso de captura y análisis no van de la mano, los ataques por Deepfakes son sencillos de provocar. Pero cuando existe control de ambos puntos, tal y como sucede en un proceso de onboarding o autenticación con Veridas, y además cuentan con tecnología 100% automatizada, que no depende de seres humanos (No human in the loop), esto no será posible.
Descubre en este podcast cómo combatir el uso de las deepfakes
“Las deepfakes son una amenaza real. Un ciberdelincuente puede usar esa imagen para crear, por ejemplo, una cuenta bancaria. En Veridas nos dedicamos a crear soluciones de identidad digital que impiden que este tipo de ataques tengan éxito. Cuando hablamos de ejecutar procesos, disponemos de una doble barrera. Por un lado, el usuario debe capturar una fotografía de su documento. De este modo, un ciberdelincuente no puede hacer uso de ese documento. La segunda barrera se basa en los algoritmos de inteligencia artificial para verificar que las imágenes son auténticas. Trabajamos desde hace años en este tipo de técnicas para evitar que estos delincuentes tengan éxito”
“Los tipos de intento de fraude son muy variados. Desde suplantación de identidad para apertura de cuentas hasta intentos más elaborados como avatares 3D o máscaras. En Veridas trabajamos continuamente para generar mayor confianza”