Экстремистские группировки используют ИИ для создания фейкового контента и вербовки новых членов

Экстремистские группировки используют ИИ для создания фейкового контента и вербовки новых членов

Террористические и экстремистские группировки, включая запрещённой в России и многих других странах ИГИЛ, активно осваивают передовые технологии искусственного интеллекта (ИИ) для создания высококачественного дезинформационного контента, вербовки новых членов и радикализации аудитории. Об этом сообщается в новом докладе, представленном Европейским союзом.

Использование ИИ радикалами представляет собой новую и тревожную фазу в глобальной борьбе с терроризмом, поскольку оно позволяет экстремистам создавать «фейки нового поколения» (deepfakes), которые практически неотличимы от подлинных материалов.

Согласно отчету, ИГИЛ и другие подобные организации перешли от примитивных методов онлайн-пропаганды к сложным цифровым стратегиям. Экстремисты используют генеративные модели ИИ для создания правдоподобных видео- и аудиозаписей, в которых известные личности или лидеры говорят вещи, которые они никогда не произносили. Это позволяет им быстро распространять ложные нарративы, дискредитировать оппонентов и создавать фальшивые заявления о победах или новых планах.

ИИ используется для генерирования реалистичных аватаров, которые выступают в качестве виртуальных проповедников или «цифровых мучеников». Такие персонажи могут вести многочасовые трансляции, читать проповеди и призывать к насилию, обходя при этом необходимость привлечения реальных, легко идентифицируемых ораторов. Это делает обнаружение и блокировку контента значительно сложнее.

С помощью ИИ-инструментов пропагандистские материалы быстро и качественно переводятся на десятки языков, обеспечивая глобальный охват и таргетированное воздействие на различные этнические и языковые группы. Самой опасной сферой применения ИИ является вербовка. Террористы используют возможности ИИ для персонализации и эмоционального «захвата» потенциальных новобранцев.

Экстремистские группировки разрабатывают продвинутые чат-боты, способные вести сложные, эмоционально окрашенные беседы с потенциальными новобранцами. Эти боты могут имитировать сочувствие, распознавать личные слабости пользователя и предлагать радикальные ответы на их жизненные проблемы, постепенно подводя к идеологии экстремизма.

ИИ анализирует пользовательские данные в социальных сетях, выявляя людей, находящихся в состоянии кризиса, депрессии или отчуждения, и отправляет им персонализированный контент, который максимально соответствует их психологическому профилю и потребностям.

Европейский союз и международные спецслужбы бьют тревогу. Директор Европола заявил, что способность радикальных групп использовать ИИ «меняет правила игры», ставя перед правоохранительными органами беспрецедентные вызовы.

Противодействие этой угрозе требует не только технического совершенствования, но и международного сотрудничества. Необходимо разработать более совершенные инструменты для обнаружения deepfakes и контента, сгенерированного ИИ, до того, как он станет вирусным. Требуется ужесточение законодательства в отношении крупных технологических компаний, чтобы обязать их более активно блокировать и удалять экстремистский контент, созданный с помощью ИИ. А важнейшая роль отводится медиаграмотности.

Общество должно быть осведомлено о существовании и методах распространения deepfakes, чтобы не стать жертвой цифровых манипуляций. Эксперты сходятся во мнении: началась «гонка вооружений» в цифровой сфере. Пока технологические гиганты создают новые генеративные модели, экстремисты не отстают, используя эти же инструменты для сеяния хаоса и расширения своих рядов. Борьба за достоверность информации в интернете становится одним из ключевых фронтов в войне с террором.