Carrera: tecnología biométrica frente a deepfake

A principios de 2022, China presentó un proyecto de ley para regular la distribución de grabaciones de vídeo o audio generadas mediante la suplantación de caras o de voz.
El documento fue redactado por la Administración del Ciberespacio de China. Los autores del proyecto de ley pretenden prohibir la publicación de diversas deepfake si infringen los derechos de las personas, perjudican el orden público o provocan la difusión de noticias falsas. Si la ley se aprueba, China se convertiría en el primer país del mundo en combatir por ley las deepfakes. Exploramos con el equipo de RecFaces cuál es el peligro de la tecnología deepfake y cómo la biometría moderna puede contrarrestarla.
Contenido
- Cómo se crean los deepfakes
- ¿Cuáles son los peligros de los deepfakes?
- Deepfake e identificación biométrica: una lucha entre el bueno y el malo
- Formas de protegerse
- Serie de algoritmos de verificación «Liveness»
- Autentificación multifactorial
- Uso de cámaras adicionales
- Protección de la base de datos de plantillas biométricas
- Utilización de algoritmos de reconocimiento de deepfakes en la investigación de incidentes
Cómo se crean los deepfakes
La tecnología de la síntesis de audio y vídeo comenzó a desarrollarse en los años 90. Sin embargo, la historia de los deepfakes en sentido moderno sólo comenzó en 2014, gracias al ingeniero Ian Goodfellow. Durante sus estudios en la Universidad de Stanford, exploró el uso de redes neuronales para crear vídeos artificiales con imágenes de personas reales. El método inventado por Goodfellow era conocido por un círculo relativamente pequeño de ingenieros y desarrolladores hasta cierto punto. El punto de giro se produjo en 2017, cuando un usuario llamado «deepfake» publicó en Reddit varios vídeos eróticos en los que se sustituían los rostros de las actrices por los de los famosos. La publicación tuvo un efecto bomba, y el nickname del autor dio nombre al nuevo fenómeno. A partir de ese momento, la tecnología comenzó a desarrollarse a pasos forzados. Pronto las empresas especializadas en soluciones listas para el desarrollo de deepfakes entraron en el mercado. Finalmente, la tecnología se simplificó hasta el punto de estar al servicio de todo el mundo. Todo lo que tienes que hacer es instalar una aplicación temática como FaceApp, Zao, Reface. Se pueden utilizar diferentes modelos de redes neuronales para crear deepfakes. Por ejemplo, el modelo generativo Variational Autoencoder (VAE) fue popular en principio. Permitió lograr una rápida transferencia de las expresiones faciales humanas a un modelo informático, pero el «falso» podía reconocerse con bastante rapidez. Por ello, la red generativa adversarial (GAN) fue la más popular. El principio de su funcionamiento se basa en la competencia continua entre dos redes neuronales interconectadas: un generador y un discriminador. El primero genera nuevas imágenes, el segundo intenta averiguar si la imagen que tiene enfrente es falsa o no. Lo más astuto es el generador, lo más preciso y realista es el deepfake que crea.
¿Cuáles son los peligros de los deepfakes?
A primera vista, los deepfakes pueden parecer un entretenimiento inofensivo. Hacer que Ilon Musk cante «Si te vas yo también me voy, si me das yo también te doy» (la canción «Duele el corazon» de Enrique Iglesias), hacer un vídeo publicitario con un Bruce Willis «falso», hacer finalmente que la cara de Michael Jackson se parezca a su abuela... todo parece divertido y curioso. Y sin duda no indica ningún peligro. De hecho, hoy en día, los deepfakes se utilizan activamente en la publicidad, la industria del entretenimiento, la moda y el cine. Las mayores empresas del mundo, como Amazon o Disney, están investigando el sector. Sin embargo, por supuesto, hay una contracara de esta moneda. Una parte importante de los deepfakes actuales no se crea con fines de entretenimiento. Difamación de celebridades, chantaje (incluyendo el uso de pornografía), noticias falsas, provocaciones políticas, estafas financieras: los estafadores tienen muchas oportunidades para el uso sin escrúpulos de los deepfakes. No sólo los famosos, sino también la gente habitual e incluso las grandes empresas están en peligro. Por ejemplo, el ataque de deepfake al jefe de una importante empresa energética de Estados Unidos fue ampliamente publicitado en 2019. Fue el primer precedente de alto nivel en el que se utilizó la tecnología de falsificación de voz. Sintetizando la voz del jefe, los estafadores llamaron al director general de la empresa y le exigieron una transferencia inmediata de 243 millones de dólares a una cuenta determinada. La grabación de audio estaba tan bien realizada que captaba hasta los más mínimos detalles del discurso de una persona. No había ninguna posibilidad de sospechar de un fraude. La víctima cumplió la orden sin siquiera pensarlo.
Deepfake e identificación biométrica: una lucha entre el bueno y el malo
El fraude de deepfake también puede implicar diferentes usos de la tecnología biométrica. En primer lugar, la biometría facial. Por ejemplo, en 2021 se descubrió en China una estafa de reconocimiento facial de alto nivel. En 2018, dos amigos compraron fotos de alta resolución en un mercado negro en línea y las «trajeron a la vida» usando aplicaciones de deepfake. A continuación, compraron varios teléfonos flasheados que les permitía utilizar el vídeo preparado en lugar de la imagen de la cámara frontal para la identificación. Con este esquema, los defraudadores lograron engañar al sistema de verificación de identidad del Servicio de Impuestos de China durante dos años y vender facturas fiscales falsas. Las pérdidas para el tesoro superaron los 76 millones de dólares.
«Los avances tecnológicos, la disponibilidad de algoritmos abiertos y bases de datos faciales para el entrenamiento de redes neuronales permiten utilizar los análisis biométricos de diversas maneras. Mientras algunos desarrolladores crean soluciones de aplicación para mejorar la seguridad en diversos ámbitos, otros buscan formas de defraudar las redes biométricas. Desde el punto de vista biométrico, la principal amenaza de los deepfakes consiste en suplantar a una persona por otra. La suplantación de caras puede realizarse tanto con métodos sencillos (fotos impresas de buena calidad, vídeo en el teléfono) como con esquemas más sofisticados», afirma el director técnico de RecFaces.
La principal dificultad está en el continuo desarrollo de la tecnología del deepfake. Las primeras falsificaciones eran bastante torpes y fácilmente identificables. Las deepfakes se identificaron por una forma poco natural de parpadear, una sincronización insuficiente de los movimientos de los labios con el discurso y una entonación robótica. Pero en cuanto la tecnología encuentra otra falla, los atacantes tratan de eliminarla inmediatamente. Como resultado, hoy en día es casi imposible reconocer un deepfake a «simple vista». Sin embargo, esta tecnología sigue teniendo limitaciones que sólo pueden eliminarse mediante un meticuloso tratamiento manual. También es importante entender que todos los algoritmos de síntesis de caras falsas se basan en la transformación de imágenes de forma bidimensional. Cuando se forma una nueva imagen, los puntos antropométricos principales se desplazan, su ubicación en relación con los demás se altera, y la «imagen» final ya no se corresponde con el patrón biométrico de la persona real. Además, se pueden utilizar métodos de control adicionales para reconocer los deepfakes, identificando los llamados artefactos digitales inevitables. Por ejemplo, una cara falsa suele tiene diferentes tonos de color de ojos o la distancia del centro de la pupila al borde del iris.
Formas de protegerse
Los productos biométricos modernos ofrecen varias soluciones para protegerse de posibles fraudes con el uso de deepfake. Veamos las principales:
Serie de algoritmos de verificación «Liveness»
Los algoritmos de «Liveness» verifican que una persona viva está delante de la cámara en el momento de la identificación biométrica, en lugar de una foto o un vídeo de la pantalla del smartphone. En la tecnología se pueden aplicar dos tipos de verificación: pasiva y activa. Con la verificación pasiva, el software controla adicionalmente los parpadeos, los movimientos de los ojos o de los labios. La persona no tiene que hacer nada. Sin embargo, durante la fase de prueba activa, el sistema funciona a base de preguntas y respuestas. Por ejemplo, puede pedir al usuario que haga algo: que sonría, que mueva su mano o que gire la cabeza. Los algoritmos de «Liveness» están incluidos en todos los productos de software biométrico de RecFaces.
Autentificación multifactorial
En la actualidad, la autenticación de dos o más pasos sigue siendo el principal método para contrarrestar la falsificación de imágenes. El uso de datos biométricos junto con contraseñas y códigos permite verificar que el acceso lo solicita el usuario «real». Esto es especialmente importante en las zonas que requieren una protección especial. Por ejemplo, en el caso de las transacciones bancarias.
Uso de cámaras adicionales
Otra forma para combatir la falsificación facial es utilizar varias cámaras, una de las cuales tiene la función de ver en el espectro infrarrojo. No es tan fácil falsificar una imagen infrarroja como una imagen normal. En la práctica moderna, la mayoría de los cajeros automáticos y los terminales de pago están equipados con estos módulos, en los que el compromiso de la identidad es una amenaza importante.
Protección de la base de datos de plantillas biométricas
Las plantillas biométricas son la parte más sensible de cualquier sistema biométrico. No son interesantes para los defraudadores por sí mismos: es imposible recuperar una foto de ellos. Sin embargo, la plantilla biométrica de un intruso podría añadirse a la base de datos y utilizarse después con fines fraudulentos. Este escenario es poco probable y, sin embargo, nunca es mala idea asegurar una base de datos de plantillas biométricas. En los productos biométricos de RecFaces, por ejemplo, los datos del usuario y las plantillas biométricas se almacenan en depósitos separados, cifrados e independientes.
Utilización de algoritmos de reconocimiento de deepfakes en la investigación de incidentes
Las soluciones biométricas modernas no sólo pueden analizar los flujos de vídeo de las cámaras en tiempo real, sino también los archivos de vídeo. También pueden detectar posibles deepfakes. Por ejemplo, esta función está disponible en la solución de videovigilancia biométrica Id-Guard de RecFaces. Esta función es útil cuando se investigan incidentes graves. Hoy, el desarrollo y la mejora de la tecnología contra el fraude es una de las prioridades mundiales en materia de ciberseguridad. Por ejemplo, DARPA, la Oficina de Proyectos de Investigación Avanzada del Departamento de Defensa de Estados Unidos, lleva varios años desarrollando programas informáticos para detectar imágenes falsas en fotos y vídeos. Facebook y Microsoft celebran anualmente el Deepfake Detection Challenge, en el que miles de desarrolladores ponen a prueba sus métodos de detección de deepfakes. Los expertos estiman que en 2024 el mercado mundial de las tecnologías de reconocimiento de falsificaciones aumentará de 8,7 a 90 millones de dólares. Para la biometría, la lucha contra las falsificaciones es un reto importante, al que responderá un desarrollo aún más dinámico de la industria. Por el momento, la oposición entre la biometría y las tecnologías de contenidos generados se parece a una carrera. Mientras más sensibles y sofisticados se vuelven los algoritmos de reconocimiento facial, más sofisticados se vuelven los intentos de los atacantes por burlarlos. Sin embargo, a los creadores de deepfakes les resulta cada vez más difícil encontrar «agujeros» en los algoritmos biométricos. Según las previsiones, en 2024 la precisión de la detección de falsificaciones por parte de los productos nacionales de reconocimiento de contenidos alcanzará el 70%, y en 2030 el 90%. En un futuro próximo, la viabilidad de crear falsificaciones para engañar a los algoritmos biométricos será una gran cuestión. El proceso será muy largo y complejo.