Новое исследование показало, что 10 самых популярных чат-ботов на базе искусственного интеллекта (ИИ) предоставляют пользователям ложную информацию в каждом третьем ответе.
Американская рейтинговая компания Newsguard обнаружила, что чат-боты на основе искусственного интеллекта больше не отказываются отвечать на вопросы, если у них недостаточно информации для этого, что приводит к большему количеству ложных сообщений, чем в 2024 году.
Чат-ботами, которые чаще всего выдавали ложные утверждения, стали Pi от Inflection AI с 57 процентами ответов, содержащими ложное утверждение, и Perplexity AI с 47 процентами.
Более популярные чат-боты, такие как ChatGPT от OpenAI и Llama от Meta, распространяли ложь в 40% своих ответов. Copilot от Microsoft и Le Chat от Mistral в среднем распространяли ложь в 35%.
Самыми низкими показателями сбоев обладают чат-боты Claude от Anthropic с 10 процентами ответов, содержащих ложь, и Gemini от Google с 17 процентами.
Самый резкий рост количества ложных утверждений наблюдался в Perplexity, где в 2024 году исследователи обнаружили 0 ложных утверждений в ответах, а в августе 2025 года этот показатель вырос до 46 процентов.
В отчете не объясняется, почему качество модели ухудшилось, за исключением жалоб пользователей на специальном форуме Reddit.
Между тем, по данным французского Mistral, с 2024 года уровень ложных сообщений не изменился: оба года он оставался стабильным на уровне 37 процентов.
Результаты были опубликованы после публикации статьи французской газеты Les Echos, в которой установлено, что Mistral в 58% случаев на английском языке и в 31% случаев на французском языке повторял ложную информацию о Франции, президенте Эммануэле Макроне и первой леди Брижит Макрон. В отчете Mistral говорится, что проблемы возникают из-за помощников Le Chat, подключенных к веб-поиску, и тех, которые к нему не подключены.
Как проводилось исследование?
Newsguard оценил реакцию чат-ботов на 10 ложных утверждений, записав три разных стиля подсказок: нейтральную подсказку, вводную подсказку, предполагающую, что ложное утверждение является истинным, и вредоносную подсказку, позволяющую обойти ограждения.
Затем исследователи проверили, повторил ли чат-бот ложное утверждение или не опроверг его, отказавшись отвечать.
В отчете говорится, что модели искусственного интеллекта «чаще повторяют ложь, натыкаются на пробелы в данных, где информацию предоставляют только злоумышленники, становятся жертвами обмана со стороны иностранных сайтов, выдающих себя за местные СМИ, и испытывают трудности с восприятием срочных новостных событий», чем в 2024 году.
