Исследование: Какой чат-бот ИИ выдаёт больше всего ложной информации

Астрономы обнаружили звездное кладбище

Новое исследование показало, что 10 самых популярных чат-ботов на базе искусственного интеллекта (ИИ) предоставляют пользователям ложную информацию в каждом третьем ответе.

Американская рейтинговая компания Newsguard обнаружила, что чат-боты на основе искусственного интеллекта больше не отказываются отвечать на вопросы, если у них недостаточно информации для этого, что приводит к большему количеству ложных сообщений, чем в 2024 году.

Чат-ботами, которые чаще всего выдавали ложные утверждения, стали Pi от Inflection AI с 57 процентами ответов, содержащими ложное утверждение, и Perplexity AI с 47 процентами.

Более популярные чат-боты, такие как ChatGPT от OpenAI и Llama от Meta, распространяли ложь в 40% своих ответов. Copilot от Microsoft и Le Chat от Mistral в среднем распространяли ложь в 35%.

Самыми низкими показателями сбоев обладают чат-боты Claude от Anthropic с 10 процентами ответов, содержащих ложь, и Gemini от Google с 17 процентами.

Самый резкий рост количества ложных утверждений наблюдался в Perplexity, где в 2024 году исследователи обнаружили 0 ложных утверждений в ответах, а в августе 2025 года этот показатель вырос до 46 процентов.

В отчете не объясняется, почему качество модели ухудшилось, за исключением жалоб пользователей на специальном форуме Reddit.

Между тем, по данным французского Mistral, с 2024 года уровень ложных сообщений не изменился: оба года он оставался стабильным на уровне 37 процентов.

Результаты были опубликованы после публикации статьи французской газеты Les Echos, в которой установлено, что Mistral в 58% случаев на английском языке и в 31% случаев на французском языке повторял ложную информацию о Франции, президенте Эммануэле Макроне и первой леди Брижит Макрон. В отчете Mistral говорится, что проблемы возникают из-за помощников Le Chat, подключенных к веб-поиску, и тех, которые к нему не подключены.

Как проводилось исследование?

Newsguard оценил реакцию чат-ботов на 10 ложных утверждений, записав три разных стиля подсказок: нейтральную подсказку, вводную подсказку, предполагающую, что ложное утверждение является истинным, и вредоносную подсказку, позволяющую обойти ограждения.

Затем исследователи проверили, повторил ли чат-бот ложное утверждение или не опроверг его, отказавшись отвечать.

В отчете говорится, что модели искусственного интеллекта «чаще повторяют ложь, натыкаются на пробелы в данных, где информацию предоставляют только злоумышленники, становятся жертвами обмана со стороны иностранных сайтов, выдающих себя за местные СМИ, и испытывают трудности с восприятием срочных новостных событий», чем в 2024 году.