Современные разработки стали ещё больше похожими на технологическую сказку. Одна из самых перспективных – системы искусственного интеллекта, построенные на основе нейросетей. С их помощью вычисления удалось перевести на совершенно новый уровень, решая сложнейшие задачи за минимальное время. Вместе с тем, эта технология имеет и обратную сторону, в чём смогли убедиться люди, ставшие мишенью для сервисов дипфейк. По данным последних исследований, ни одна система распознавания видео-подделок не сможет их защитить.
Благими намерениями
Сама идея нейросетей родилась из необходимости сделать вычислительные системы более производительными. В качестве основы для них был взят мозг человека, вернее, принцип его построения. Мозг человека – идеальный пример цифровой машины, способной производить сложнейшие вычисления. Природа позаботилась о том, чтобы приспособить его к сложнейшим условиям и снабдить лучшими алгоритмами работы. Поэтому разработчики решили «подсмотреть» за природой и некоторые её достижения взяли на заметку. Нейросети оказались способны на многое, в том числе и на ювелирную обработку фото и видео. Так появился дипфейк, «подстановка» лица другого человека.
Система ИИ смогла проанализировать видеозапись, смоделировать из двухмерной фотографии трёхмерное изображение и буквально вклеить новое лицо в каждый кадр. Поначалу это было отличным развлечением, а теперь стало проблемой, с которой ведут борьбу ведущие специалисты.
Непобедимый дипфейк
Как оказалось, вреда от затянувшейся шутки чрезвычайно много. Подделка, созданная нейросетями, оказалась настолько удачной, что её вполне можно «скормить» медиа-ресурсам в качестве, к примеру, новости. Масштаб последствий в некоторых случаях вообразить сложно. Проблема усугубилась с началом глобального внедрения сервиса идентификации FaceID, риск мошенничества сильно возрос.
Эта грустная и страшная история из мира IT получила не менее печальное продолжение. Группа разработчиков в области компьютерной инженерии провела собственные исследования. Специалисты смогли подтвердить, что любые существующие системы распознавания дипфейков легко обходятся при использовании простых алгоритмов. Достигается это встраиванием некоторых данных в каждый кадр видеозаписи. Искусственный интеллект, анализирующий видео, из-за этих данных начинает делать ошибки и считает запись подлинной. При этом совершено не имеет значения, насколько хорошо и качественно сделан дипфейк. Даже при плохом качестве и явно видимых грехах видео будет пропущено фильтром.
По признанию специалистов, появление дипфейков, которые почти невозможно обнаружить, должно было произойти рано или поздно. Теперь значительно усилится опасность манипуляции общественным мнением и воздействия на процесс принятия критичных решений. На государственном уровне, конечно же, пытаются найти выход из сложившейся ситуации, в России в том числе. Даже объявили тендер на разработку метода определения «поддельного» видео, но, по признанию специалистов, это вряд ли решит ситуацию. Скорее всего, потребуется разработка совершено новых методов для обнаружения дипфейков.
