PRUÉBALO

Deepfakes al Alza: Cómo protegerte frente a ellos

Índice de contenidos

Hoy en día, los consumidores se mueven más rápido y con más habilidades que nunca. Con poco tiempo y paciencia, esperan que las marcas que eligen brinden experiencias fluidas, sin importar dónde se encuentren o el tipo de negocio con el que interactúen.

Los consumidores también son más conscientes de la seguridad digital y saben que un simple inicio de sesión con correo electrónico y contraseña ya no es suficiente para el caso de los servicios financieros.

Como resultado, los bancos y las cooperativas de crédito están adoptando la biometría como método de autenticación de la identidad para mantener medidas de seguridad críticas y brindar una mejor experiencia a sus clientes en movimiento. Esto en Veridas lo hemos presenciado de primera mano ya que tras analizar datos de producción reales en los últimos dos años, hemos visto un aumento del 325% en el uso de la biometría de voz por parte de los clientes.

Si bien la biometría es más fácil y segura que administrar contraseñas o pines, no es infalible. La realidad es que el cibercrimen no descansa y las amenazas de Deepfake se han convertido en un nuevo enemigo para las organizaciones que utilizan la biometría como parte de su estrategia de autenticación.

Para las instituciones financieras que ya confían en la biometría como parte de sus medidas de seguridad, o que están considerándola, es importante comprender las amenazas de Deepfake y qué se puede hacer para prepararse ante los riesgos que conllevan.

¿Qué es una amenaza de Deepfake?

El término “Deepfake” proviene de la tecnología de inteligencia artificial (IA) conocida como algoritmos de aprendizaje profundo que se enseñan a sí mismos para resolver problemas complejos cuando se les da acceso a grandes conjuntos de datos. En el caso de la banca, estos conjuntos de datos podrían incluir grabaciones de voz y vídeo de sus clientes.

Cuando una voz o rostro se utiliza para acceder a una cuenta o realizar una transacción, las organizaciones dependen de algoritmos sofisticados para evaluar la autenticidad y “vivacidad”. Desafortunadamente, la efectividad de esos algoritmos varía considerablemente.

Como resultado, hackers bien financiados aprovechan estas vulnerabilidades de los algoritmos utilizando tecnologías de IA y aprendizaje automático (ML) para crear Deepfakes de voz y rostros cada vez más sofisticados. Estos Deepfakes están engañando tanto a personas como a sistemas, eludiendo muchas medidas de autenticación modernas.

Entendiendo las amenazas para ti y para tus clientes

En el mundo financiero, las Deepfakes ya han facilitado estafas por una cantidad tan significativa como 35 millones de €. Están volviéndose cada vez más comunes y se utilizan para perpetrar una amplia gama de tipos de ataques, incluyendo:

Fraude en nuevas cuentas

Las Deepfakes crean identidades que se utilizan para abrir nuevas cuentas para acumular deudas, blanquear dinero y otros propósitos.

Identidades sintéticas

Credenciales robadas o falsas se utilizan para construir una identidad artificial que se usa para obtener préstamos y adquirir tarjetas de crédito o débito.

Fraudes de identidades fallecidas

 Identidades robadas de personas recientemente fallecidas se utilizan para acceder a sus cuentas y vaciar fondos, solicitar préstamos y otros fines fraudulentos.

Reclamos de personas fallecidas

Deepfakes de miembros de la familia convencen a las instituciones financieras de que una persona fallecida sigue viva para poder cobrar cualquier beneficio existente.

Equilibrando seguridad y experiencia del usuario

En la era de la gratificación instantánea, la conveniencia que ofrece el uso de la biometría como método de autenticación está resonando entre los consumidores. En comparación con otros métodos de autenticación tradicionales, la biometría facial y de voz no requiere contacto físico y es altamente precisa, lo que proporciona una forma más segura, confiable y conveniente de verificar identidades.

A medida que los consumidores adquieren cada vez más conexiones digitales casi a diario, ya están en proceso de alejarse de la carga de recordar o gestionar contraseñas, especialmente al cambiar entre múltiples dispositivos, aplicaciones y redes. Sin embargo, el impacto de una violación de seguridad es una realidad inminente tanto para los consumidores como para las instituciones financieras en las que confían. Encontrar el equilibrio adecuado requiere que los líderes de seguridad y experiencia del cliente en bancos y cooperativas de crédito trabajen juntos y tomen las decisiones estratégicas y tecnológicas adecuadas.

Buscando un algoritmo de primera clase

Algunas buenas noticias: menos del 1.5% de todos los ataques digitales exitosos en 2022 fueron el resultado de biometría comprometida. Para ayudar a resolver las discrepancias en la efectividad de los algoritmos biométricos, instituciones como el Instituto Nacional de Estándares y Tecnología (NIST) están llevando a cabo pruebas periódicas que involucran millones de intentos de ataques Deepfake en los mejores algoritmos del mundo. 

NIST es un punto de referencia que los líderes de seguridad de instituciones financieras pueden utilizar para identificar un algoritmo de primera clase y construir una infraestructura tecnológica moderna, confiable, segura y actualizada con las últimas medidas de prevención de fraudes.

Veridas se une a la élite mundial en este sector, ya que según NIST, nuestro algoritmo se posiciona en el segundo lugar entre los mejores motores de biometría facial de entre casi 150 algoritmos presentados.

Compartir
PRUÉBALO
Título del popup

Lorem fistrum por la gloria de mi madre esse jarl aliqua llevame al sircoo. De la pradera ullamco qué dise usteer está la cosa muy malar.