Quiénes somos Partners Cumplimiento Empleo Contacto
logo-veridas-white-1.png

Las 2 claves para combatir los Deepfakes con biometría

Índice de contenidos

Son cada vez más las noticias, artículos y estudios publicados acerca de la capacidad de los Deepfakes para conseguir engañarnos a la hora de distinguir entre una imagen de un ser humano real y uno que no lo es. Noticias, artículos y estudios que consiguen generar incertidumbre en la sociedad acerca de si los nuevos métodos de verificación digital de la identidad, especialmente los biométricos, serán capaces de detectar estos intentos de suplantación de identidad y, con ello, prevenir el fraude de manera efectiva.

Uno de los más recientes, un estudio publicado por Sophie Nightingale, del departamento de Psicología de la Universidad de Lancaster en el Reino Unido, y por su colega Hany Farid, del departamento de Ingeniería Eléctrica y Ciencias de la Computación de la Universidad de California, Berkeley, demostró que los seres humanos somos peores que el mismísimo azar a la hora de distinguir entre rostros humanos ficticios generados por programas de inteligencia artificial y fotografías de personas reales. Este estudio, del que se hizo eco el periódico La Vanguardia, entre otros, advierte a su vez del uso dañino de estas tecnologías, que “abren la puerta a futuras estafas y chantajes” como podría ser “la pornografía de venganza o fraude”.

Imágenes de las caras catalogadas por los participantes en el estudio de Nightingale y Farid como más y menos confiables junto con su puntuación en una escala de 1 (muy poco confiable) a 7 (muy confiable). Resulta interesante observar como las 4 caras catalogadas como confiables son todas de origen sintético (S) y las 4 caras menos confiables son todas reales (R), y entender los riesgos que esto conlleva.

En un momento en el que estamos viviendo un boom de métodos biométricos para la verificación de la identidad en remoto, ¿qué papel pueden jugar estas nuevas soluciones en la prevención del fraude por la vía del Deepfake? ¿Pueden ser tecnologías efectivas para combatir los Deepfakes? A continuación, te damos algunas claves importantes.

La clave está en distinguir entre capturar y analizar

Dentro de todo proceso de verificación digital de una identidad, existen dos etapas: la captura de las evidencias a analizar (un documento de identidad, un selfie, etc.) y el análisis de dichas evidencias para determinar su veracidad o para realizar una comparación entre ellas. Ambas etapas son de igual importancia, a pesar de que el foco de la noticia suele estar habitualmente en la segunda parte.

Una definición más exacta de dichas etapas sería la siguiente:

  1. Capturar: se entiende por capturar la acción de recoger una grabación de una realidad material, a través de la generación de una fotografía o vídeo. En definitiva, materializar mediante los sensores asociados a las cámaras lo que sucede en el mundo real e imprimirlo en una representación visual física o digital.
  2. Analizar: se entiende por analizar cualquier tipo de interpretación realizada por un humano o una máquina del contenido previamente capturado. Un análisis puede indicar si una fotografía o grabación es auténtica, si la imagen ha sido manipulada, si contiene unas determinadas características (¿hay una cara?, ¿hay un perro?), etc

En este sentido, el estudio de Nightingale y Farid hace referencia a cómo la creación de Deepfakes presenta situaciones en las que la capa de análisis mencionada anteriormente obtiene un resultado inapropiado: el análisis del humano interpreta algo como auténtico aunque sea falso. Pero también hemos conocido cómo en otras ocasiones no es el humano (el único) que es llevado a engaño, sino que los propios algoritmos de inteligencia artificial entrenados para distinguir caras genuinas de caras artificiales también son llevados a equivocación por otros algoritmos. 

Estos últimos son conocidos como algoritmos provenientes de Redes Generativas Antagónicas, GAN en sus siglas en inglés (Generative Adversarial Networks), y están entrenados para competir en juego de suma cero contra los motores biométricos y así inutilizar su utilidad. Con todo ello, podemos deducir que la capa de análisis está comprometida ante estos nuevos tipos de ataques. 

Por ello, resulta realmente clave tratar de entender el proceso como algo compuesto por dos etapas, capturar y analizar, y por tanto, es de vital importancia controlar y conocer el método de captura.

Solicitar Demo

No dejes la captura en manos de cualquiera

Cuando vemos una foto de una persona y empezamos a analizar su veracidad, debemos hacernos unas preguntas antes: ¿Conozco la captura? ¿Conozco cuándo se capturó? ¿En qué condiciones? ¿Con qué dispositivo? ¿Quién la capturó? ¿Dónde se capturó?, etc. 

Nada de esto es conocido cuando vemos y analizamos bases de datos de fotografías como las dispuestas en el estudio anterior. Al fin y al cabo, un Deepfake es una imagen artificial que fue generada (no capturada por una cámara) o que fue capturada por una cámara y posteriormente manipulada.

Por ello, pensemos ahora en un proceso de verificación digital de identidad como el de Veridas, ya sea para un onboarding de nuevos clientes o para una autenticación de un cliente existente. En ese caso, Veridas controla los dos ejes: la captura y el análisis. Los SDKs de captura son de Veridas y, por lo tanto, podemos saber si la foto se capturó con ellos, si ha sido alterada, cuándo se capturó, de qué manera, etc. 

También controlamos la parte de análisis, los algoritmos son 100% propiedad de Veridas. Por tanto, estamos en una disposición mucho mejor para verificar si la información que llega es auténtica o no. Introducir un Deepfake o una alteración de este estilo en un proceso de Veridas es prácticamente imposible, porque requeriría un hacking muy avanzado tanto sobre el front (la captura) como sobre el back-end (los motores de biometría). De forma adicional, desde Veridas se está trabajando en algoritmos de detección específicos para Deepfakes.

En definitiva, es de vital importancia asumir la idea de que, si el proceso de captura y análisis no van de la mano, los ataques por Deepfakes son sencillos de provocar. Pero cuando existe control de ambos puntos, tal y como sucede en un proceso de onboarding o autenticación con Veridas, y además cuentan con tecnología 100% automatizada, que no depende de seres humanos (No human in the loop), esto no será posible.

SIM SWAPPING
Compartir

Suscríbete a nuestra newsletter

Solicita tu demo