Новости

RSS-трансляция Читать в FaceBook Читать в Twitter Читать в ВКонтакте Читать в Google+ Читать в LiveJournal




12.02.2021 18:29
864
Исследователи подтвердили: детекторы дипфейк-видео больше не будут работать

Современные разработки стали ещё больше похожими на технологическую сказку. Одна из самых перспективных – системы искусственного интеллекта, построенные на основе нейросетей. С их помощью вычисления удалось перевести на совершенно новый уровень, решая сложнейшие задачи за минимальное время. Вместе с тем, эта технология имеет и обратную сторону, в чём смогли убедиться люди, ставшие мишенью для сервисов дипфейк. По данным последних исследований, ни одна система распознавания видео-подделок не сможет их защитить.

Благими намерениями

Сама идея нейросетей родилась из необходимости сделать вычислительные системы более производительными. В качестве основы для них был взят мозг человека, вернее, принцип его построения. Мозг человека – идеальный пример цифровой машины, способной производить сложнейшие вычисления. Природа позаботилась о том, чтобы приспособить его к сложнейшим условиям и снабдить лучшими алгоритмами работы. Поэтому разработчики решили «подсмотреть» за природой и некоторые её достижения взяли на заметку. Нейросети оказались способны на многое, в том числе и на ювелирную обработку фото и видео. Так появился дипфейк, «подстановка» лица другого человека.

Система ИИ смогла проанализировать видеозапись, смоделировать из двухмерной фотографии трёхмерное изображение и буквально вклеить новое лицо в каждый кадр. Поначалу это было отличным развлечением, а теперь стало проблемой, с которой ведут борьбу ведущие специалисты.

Непобедимый дипфейк

Как оказалось, вреда от затянувшейся шутки чрезвычайно много. Подделка, созданная нейросетями, оказалась настолько удачной, что её вполне можно «скормить» медиа-ресурсам в качестве, к примеру, новости. Масштаб последствий в некоторых случаях вообразить сложно. Проблема усугубилась с началом глобального внедрения сервиса идентификации FaceID, риск мошенничества сильно возрос.

Эта грустная и страшная история из мира IT получила не менее печальное продолжение. Группа разработчиков в области компьютерной инженерии провела собственные исследования. Специалисты смогли подтвердить, что любые существующие системы распознавания дипфейков легко обходятся при использовании простых алгоритмов. Достигается это встраиванием некоторых данных в каждый кадр видеозаписи. Искусственный интеллект, анализирующий видео, из-за этих данных начинает делать ошибки и считает запись подлинной. При этом совершено не имеет значения, насколько хорошо и качественно сделан дипфейк. Даже при плохом качестве и явно видимых грехах видео будет пропущено фильтром.

По признанию специалистов, появление дипфейков, которые почти невозможно обнаружить, должно было произойти рано или поздно. Теперь значительно усилится опасность манипуляции общественным мнением и воздействия на процесс принятия критичных решений. На государственном уровне, конечно же, пытаются найти выход из сложившейся ситуации, в России в том числе. Даже объявили тендер на разработку метода определения «поддельного» видео, но, по признанию специалистов, это вряд ли решит ситуацию. Скорее всего, потребуется разработка совершено новых методов для обнаружения дипфейков.



Понравилась эта новость? Тогда жми:


Присоединяйтесь на Facebook, чтобы видеть материалы, которых нет на сайте:




Оставить комментарий