Мы в соцсетях:

Новое поколение
  • Введите больше 3 букв для начала поиска.
Все статьи
Как распознать фальшивое лицо
ИсследованияТехнология

Как распознать фальшивое лицо

Фото из открытых источников

Современное виртуальное пространство кишит подделками, созданными с помощью моделей имитации интеллекта (ИИ). В том числе лицами и голосами широко известных и не очень людей. Как распознавать эти фальшивки, показывает исследование ученых из университетов Лидса, Рединга, Гринвича и Линкольна, опубликованное британским журналом Royal Society Open Science («Открытая наука Королевского общества»).

Споры о том, возможно ли отличить нейросетевую генерацию, в том числе дипфейки, от настоящих фотографий и видео, ведутся уже давно. Чем совершеннее ИИ-модели, тем упорнее становятся подобные споры. Если раньше искусственное изображение можно было распознать хотя бы по неестественному количеству пальцев на руках, то теперь подобные ошибки в продукции нейросетей почти не встречаются. Один из горячих вопросов дискуссий — возможно ли научиться распознавать подделки неспециалисту без технических средств аутентификации, то есть массовому пользователю цифровых технологий.

Авторы нового масштабного эксперимента проверили возможности 664 участников отличать человеческие лица от физиономий, созданных программным обеспечением Style GAN3. Оно считалось самой продвинутой системой генерации изображений на момент проведения исследования (ноябрь-декабрь 2025 года). Распознавание лиц, созданных Style GAN3 на основе ИИ, представляет значительную сложность по сравнению с более ранними исследованиями как возможностей моделей ИИ к обману, так и людей раскрывать этот обман.

Результаты оказались одновременно тревожными и вселяющими оптимизм. Участники эксперимента с обычными навыками без какой-либо предварительной подготовки угадывали фальшивые лица лишь в 31 проценте случаев. Всего на 10 процентов лучше был результат у так называемых способных распознавателей (тоже без обучения) — людей, набиравших значительно больше средних баллов в соответствующих тестах.

Картина существенно изменилась после краткого обучения. Обе категории испытуемых перед началом повторной проверки проходили буквально пятиминутный инструктаж о том, по каким признакам можно понять, настоящее или поддельное лицо перед ними. Что же выдает изготовленную ИИ подделку?

Авторы исследования рассказывают, что первым делом необходимо обращать внимание на мелкие детали. Участникам демонстрировали типичные ошибки, которые допускает ИИ при создании лиц. Например, зубы, которые на улыбающемся лице фальшивого изображения могут быть слишком разного размера и неестественно смещенными или, наоборот, идеально ровными и одинаковыми. Это волосы, линия которых у корней бывает противоестественной. Это уши, мочки которых не совпадают с серьгами.

Во время обучения участникам показывали как настоящие, так и сгенерированные ИИ изображения, сравнение мелких деталей которых наглядно показывает расхождения с реалиями. В результате после тренажа типичные участники улучшили свой средний результат до 51 процента, а способные к распознаванию люди — до 64 процентов показанных фальшивок. Получается, что несложная тренировка ощутимо помогла обеим группам испытуемых.

Кроме того, авторы исследования рекомендуют обращать повышенное внимание на звуковой ряд видео и артикуляцию изображаемых лиц. Если, например, известный актер или спортсмен вроде бы своим голосом рассуждает о доходности акций на фондовом рынке — это само по себе уже должно настораживать и заставлять усомниться в реальности подобного видео. И один из распространенных звуковых грехов, по которым несложно распознать ИИ, — даже в простых словах неправильное ударение.

«ИИ-изображения становятся все проще в создании, но их все труднее обнаружить, — объясняет доктор Эйлид Нойес из Школы психологии Университета Лидса. — Они могут использоваться в злонамеренных целях, поэтому с точки зрения безопасности крайне важно тестировать методы обнаружения искусственных изображений. Наше исследование показывает, что использование суперраспознавателей — людей с высокой способностью распознавания лиц — в сочетании с обучением может помочь в обнаружении лиц, созданных ИИ».

«Компьютерные лица представляют реальные угрозы безопасности, — утверждает ведущий исследователь Университета Рединга доктор Кэти Грей. — Они используются для создания фейковых профилей в социальных сетях, обхода систем проверки личности и создания поддельных документов. Лица, создаваемые новейшим поколением программного обеспечения ИИ, чрезвычайно реалистичны. Люди часто оценивают лица, сгенерированные ИИ, как более реалистичные, чем настоящие человеческие лица. Наша процедура обучения краткая и простая в реализации. Результаты свидетельствуют о том, что сочетание этого обучения с природными способностями суперраспознавателей может помочь решать реальные проблемы, такие как проверка личности онлайн».

По словам авторов исследования, предложенную ими процедуру обучения легко внедрить на практике. В дальнейшем они собираются изучить, как долго сохраняется эффект тренировки для распознавания подделок.

Читайте в свежем номере: