Программный продукт биометрической идентификации по изображению лица в видеопотоке для повышения уровня безопасности на объекте
Программный продукт для обогащения биометрическими возможностями систем контроля доступа
Программный продукт для вывода персонализированного медиаконтента
Биометрический программный продукт для достоверной проверки личности по лицу
Программный продукт биометрической идентификации по изображению лица в видеопотоке для повышения уровня безопасности на объекте
Программный продукт, расширяющий возможности терминала электронной очереди посредством биометрической идентификации
Программный продукт, обеспечивающий достоверный контроль рабочего времени сотрудников, посредством биометрической идентификации
Программный продукт, обеспечивающий биометрический контроль доступа в операционную или информационные системы
Программный продукт обеспечивающий новый уровень таргетированного взаимодействия с клиентом посредством биометрической идентификации
Программный продукт, обеспечивающий надёжную и быструю проверку прав доступа клиентов в фитнес-клуб без необходимости привлечения персонала
Новый уровень работы с посетителями и сотрудниками БЦ, на базе современных биометрических продуктов
Биометрия для удобного обслуживания граждан в том числе дистанционно, контроль качества работы персонала
Биометрический контроль рабочего времени и другие инструменты безопасности промышленных объектов
Современные методы биометрической аналитики для безопасной работы спортивных объектов
Удобные и безопасные решения для транспорта на базе цифровой идентичности пассажиров
Биометрические решения для обеспечения нового уровня безопасности и взаимодействия с посетителями
Биометрическая видеоаналитика для таргетированного маркетинга и контроль персонала в распределенных сетях
Биометрические продукты для систем прокторинга и видеонаблюдения в образовательных учреждениях
Бесключевой доступ в номера, адресный подход к клиентам, информация о времени работы сотрудников
Необходимые инструменты безопасности и конкурентоспособности современного банка
Повышение уровня безопасности, скорости расследований и своевременное предупреждение противоправных актов в городском общественном пространстве
Клиентоориентированные решения, ускорение процесса работы зоны регистратуры, контроль персонала
Лицевая биометрия становится простой и применимой вместе с RecFaces. Предоставляем бизнесу спектр готовых биометрических решений для повышения уровня его безопасности и технологичности
Мы готовы к сотрудничеству и продажам через партнёрскую сеть. Для получения консультации по вашему проекту напишите нам на почту sales@recfaces.ru
Это наш главный и бесценный ресурс. Практики в лицевой биометрии и просто хорошие люди
Мы всегда рады ответить на все возникшие вопросы. Свяжитесь с нами любым удобным для вас способом.

Бег наперегонки: биометрические технологии vs deepfake

Бег наперегонки: биометрические технологии vs deepfake

В начале 2022 года в Китае представили законопроект, регулирующий распространение видео или аудио записей, сгенерированных с использованием подмены лица или голоса человека.

Документ был разработан Администрацией киберпространства КНР. Авторы законопроекта намерены запретить публикацию различных deepfake, если они ущемляют права людей, вредят общественному порядку или провоцируют распространение фейковых новостей. Если закон одобрят, Китай станет первой в мире страной, где борьба с дипфейками ведется на законодательном уровне. Чем опасна технология deepfake и как ей противостоит современная биометрия – разбираемся с командой RecFaces.

Содержание

Как создаются дипфейки
Чем опасны дипфейки?
Дипфейки и биометрическая идентификация: борьба добра со злом
Способы защиты
Серия алгоритмов проверки Liveness
Многофакторная авторизация
Использование дополнительных камер
Защита базы биометрических шаблонов
Использование алгоритмов распознавания дипфейков при расследовании инцидентов

Как создаются дипфейки

Технологии синтеза аудио и видеоконтента начали развиваться еще в 1990-х годах. Однако история дипфейков в современном понимании началась только в 2014 году, благодаря инженеру Яну Гудфеллоу. Во время учебы в Стэнфордском университете он изучал возможности использования нейросетей для создания искусственных видео с изображениями реальных людей. До какого-то момента изобретенный Гудфеллоу метод был известен сравнительно небольшому кругу инженеров и разработчиков. Поворотным стал 2017 год, когда пользователь с ником “deepfake” выложил на Reddit несколько эротических роликов, где лица актрис были заменены лицами знаменитостей. Публикация произвела эффект разорвавшейся бомбы, а никнейм автора дал название новому явлению. С этого момента технология начала развиваться семимильными шагами. Вскоре на рынок вышли компании, специализирующиеся на готовых решениях для разработки deepfake. И в конечном счете технологию удалось настолько упростить, что ее применение стало доступно абсолютно всем желающим. Достаточно установить тематическое приложение вроде FaceApp, Zao, Reface.

Для создания дипфейков можно использовать разные модели нейросетей. Например, изначально популярностью пользовалась генеративная модель Variational Autoencoder (VAE). Она позволяла добиться быстрого переноса мимики человека на компьютерную модель, но при этом «подделку» можно было довольно быстро распознать. Поэтому наибольшее распространение получила генеративная состязательная сеть (GAN). Принцип ее работы основан на непрерывном соревновании между двумя взаимосвязанными нейросетями: генератором и дискриминатором. Первый создает новые картинки, второй пытается разгадать – фейковое перед ним изображение или нет. Чем хитрее становится генератор, тем точнее и реалистичнее оказывается созданный им дипфейк.

Чем опасны дипфейки?

На первый взгляд дипфейки могут показаться вполне безобидным развлечением. Заставить Илона Маска петь «И снится нам не рокот космодрома», снять рекламу с «ненастоящим» Брюсом Уиллисом, в конце концов приделать Майклу Джексону лицо своей бабушки – все это выглядит забавно и любопытно. И уж точно не навевает мысли о какой-либо опасности. Действительно, сегодня дипфейки активно используются в рекламе, индустрии развлечений, моде, кинематографе. Исследованиям отрасли занимаются крупнейшие мировые компании, такие, как Amazon или Disney.

Однако у этой медали, разумеется, есть и обратная сторона. Значительная часть дипфейков сегодня создается далеко не с развлекательными целями. Дискредитация известных людей, шантаж (в том числе, с использованием порнографии), фейковые новости, политические провокации, финансовые аферы – у мошенников есть масса возможностей для недобросовестного использования дипфейков. При этом в зоне риска оказываются не только селебрити, но и обычные люди, и даже крупный бизнес. Так, в 2019 году широкую огласку получила дипфейк-атака на главу крупной американской энергетической компании. Она стала первым громким прецедентом с использованием технологии подделки речи. Синтезировав голос босса, аферисты позвонили генеральному директору компании и потребовали немедленно перевести на некий счет 243 млн долларов. Аудиозапись была настолько хорошо сделана, что передавала даже мельчайшие нюансы речи человека. Шансов заподозрить обман просто не было. Просьбу жертва выполнила, даже не задумываясь.

Дипфейки и биометрическая идентификация: борьба добра со злом

Мошенничества с применением дипфейков могут затрагивать и разные сферы использования биометрических технологий. Прежде всего, основанных на лицевой биометрии. Так, громкую аферу с системой распознавания лиц в 2021 году раскрыли в Китае. В 2018 году двое приятелей приобрели на «черном» онлайн-рынке фотографии высокого разрешения и «оживили» их с помощью дипфейк-приложений. Затем они купили несколько смартфонов с перепрошивкой, позволяющей использовать при идентификации подготовленное видео, а не изображение с фронтальной камеры. С помощью такой схемы мошенникам в течение двух лет удавалось обманывать систему проверки личности налоговой службы Китая и торговать поддельными налоговыми накладными. Ущерб казне превысил 76 млн долларов.

«Развитие технологий, доступность открытых алгоритмов и баз лиц для обучения нейросетей позволяет использовать биометрическую аналитику в разных направлениях. Пока одни разработчики создают прикладные решения для повышения безопасности в различных сферах, другие ищут пути обмана биометрических сетей. С точки зрения биометрии основная угроза дипфейков связана с выдачей одного человека за другого. Подмена лица может осуществляться как с помощью простых методов (распечатанных фото хорошего качества, видео на телефоне), так и с помощью более сложных схем», — рассказывает Сергей Новиков, технический директор RecFaces.

Главная сложность кроется в непрерывном развитии технологии дипфейков. Первые подделки были сделаны довольно топорно и легко поддавались определению. Дипфейки выдавала неестественная манера моргания, недостаточная синхронизация движения губ с речью, роботизированные интонации. Но как только в технологии обнаруживался очередной пробел, злоумышленники сразу же бросали все силы на его ликвидацию. В результате сегодня распознать дипфейк «невооруженным глазом» часто бывает практически невозможно.

И тем не менее, у этой технологии по-прежнему остаются ограничения, снять которые можно только с помощью кропотливой ручной обработки. Также важно понимать, все алгоритмы синтеза поддельных лиц основываются на преобразовании двухмерных изображений. При формировании нового изображения ключевые антропометрические точки сдвигаются, их расположение относительно друг друга нарушается, а финальная «картинка» перестает соответствовать биометрическому шаблону реального человека. Кроме того, для распознавания дипфейков можно использовать дополнительные методы контроля, выявляющие так называемые неизбежные цифровые артефакты. Например, у фейкового лица нередко отличаются оттенки цвета глаз или расстояние от центра зрачка до края радужной оболочки.

Способы защиты

Современные биометрические продукты предлагают несколько решений для защиты от возможных мошенничеств с использованием дипфейка. Рассмотрим основные:

Серия алгоритмов проверки Liveness

Алгоритмы Liveness позволяют удостовериться, что перед камерой в момент биометрической идентификации находится живой человек, а не фотография или видео с экрана смартфона. В технологии могут быть реализованы два типа проверки: пассивный и активный. При пассивном программа дополнительно отслеживает моргание, движения глаз или губ. От самого человека при этом делать ничего не требуется. А вот во время активной проверки система работает по принципу «вопрос – ответ». Например, может попросить пользователя сделать какое-либо действие: улыбнуться, махнуть рукой, повернуть голову. Алгоритмы Liveness предусмотрены во всех программных биометрических продуктах RecFaces.

Многофакторная авторизация

Сегодня двух- и более ступенчатая авторизация остается главным методом противодействия подмене изображений. Использование биометрических данных в связке с паролями и кодами позволяет удостовериться, что доступ запрашивает «настоящий» пользователь. Это особенно важно в сферах, требующих особой защиты. Например, при проведении банковских операций.

Использование дополнительных камер

Еще одним способом борьбы с подделкой лиц является использование нескольких камер, одна из которых имеет функцию видения в инфракрасном спектре. Подделать инфракрасную картинку намного сложнее, чем обычную. В современной практике такими модулями оснащают большинство банкоматов и терминалов оплаты, где компрометация личности несет основную угрозу.

Защита базы биометрических шаблонов

Биометрические шаблоны – это наиболее чувствительная часть любой системы биометрии. Сами по себе для мошенников интереса они не представляют: восстановить фото на их основе невозможно. Однако в базу можно добавить биометрический шаблон злоумышленника, и затем использовать его в недобросовестных целях. Такой сценарий маловероятен, и все же позаботиться о безопасности базы биометрических шаблонов никогда не будет лишним. Например, в биометрических продуктах RecFaces пользовательские данные и биометрические шаблоны хранятся в отдельных независимых хранилищах в зашифрованном виде.

Использование алгоритмов распознавания дипфейков при расследовании инцидентов

Современные биометрические решения могут не только анализировать видеопотоки с камер в режиме реального времени, но и видеофайлы из архивов. В том числе, и выявлять на записях потенциальные дипфейки. Например, такая функция предусмотрена в биометрическом решении для систем видеонаблюдения Id-Guard от RecFaces. Эту возможность удобно задействовать при расследовании серьезных инцидентов.

Сегодня разработка и совершенствование технологий защиты от дипфейков является одним из приоритетных направлений глобальной кибербезопасности. Так, созданием программного обеспечения для выявления поддельных изображений на фото и видео уже несколько лет занимается DARPA – Управление перспективных исследовательских проектов Минобороны США. А Facebook и Microsoft ежегодно проводят Deepfake Detection Challenge, в ходе которого тысячи разработчиков тестируют свои методы обнаружения дипфейков.

В России это направление в конце 2021 года включили в дорожную карту «Новые коммуникационные интернет-технологии». Этот документ был разработан «Ростелекомом» и утвержден Правительственной комиссией по цифровому развитию. По оценке экспертов, к 2024 году объем мирового рынка технологий распознавания дипфейков увеличится с 8,7 млн долларов до 90 млн долларов, а российского рынка – с 10,9 млн рублей до 119 млн рублей.

Для биометрии борьба с дипфейками является серьезным вызовом, ответом на который станет еще более динамичное развитие отрасли. Пока противодействие биометрии и технологий сгенерированного контента напоминает бег наперегонки. Чем более чувствительными и глубокими становятся алгоритмы распознавания лиц, тем более изощренными оказываются попытки злоумышленников обойти их. Однако с каждым разом искать «бреши» в биометрических алгоритмах создателям дипфейков становится все сложнее. По прогнозу к 2024 году точность выявления дипфейков отечественными продуктами по распознаванию контента достигнет 70%, а к 2030 году – 90%. То есть уже в недалеком будущем целесообразность создания дипфейков для обмана биометрических алгоритмов окажется под большим вопросом. Настолько трудоемким и сложным станет этот процесс.

Подписывайтесь на наши новости