Новости

RSS-трансляция Читать в ВКонтакте Читать в Одноклассниках Наш канал в Яндекс Дзен




19.05.2024 22:51
5399
ИИ замечен в записании научных статей: Исследователи бьют тревогу

Эксперты предупреждают, что «отпечатки пальцев» генеративного искусственного интеллекта (GenAI) уже сегодня можно найти в научных работах, в том числе рецензируемых.

Не используют ли некоторые исследователи слишком много искусственного интеллекта (ИИ) в своих научных работах? Эксперты говорят, что «отпечатки пальцев» генеративного ИИ (GenAI) можно найти во все большем количестве исследований. В недавнем препринте, который еще не прошел рецензирование, подсчитано, что по меньшей мере 60 000 статей, вероятно, были каким-то образом «отшлифованы» с использованием ИИ путем анализа стиля письма.

«Нельзя сказать, что мы знали, сколько работы по LLM [большой языковой модели] было задействовано в них, но, конечно, это очень большие смены в одночасье», - сказал Эндрю Грей, сотрудник Университетского колледжа Лондона, добавив, что эти можно ожидать появления типов «следов», даже если инструменты использовались для простого редактирования. Хотя определенные сдвиги могут быть связаны с изменениями в том, как люди пишут, эволюция «ошеломляет» . «Судя по тому, что мы видим, эти цифры, похоже, неуклонно растут», — сказал Грей.

Это заявление уже подняло волну. Рецензируемое исследование с изображениями, созданными ИИ, авторы которых открыто приписывают инструменту Midjourney, было опубликовано в журнале Frontiers in Cell Development and Biology и в феврале стало вирусным в социальных сетях. Тогда журнал отозвал исследование и извинился «перед научным сообществом».

«Очень немногие прямо упоминают об использовании ChatGPT и подобных инструментов», — сказал Грей о статьях, которые он проанализировал. Хотя GenAI может помочь ускорить процесс редактирования, например, когда автор не является носителем языка, на котором он пишет, по мнению экспертов, вызывает беспокойство отсутствие прозрачности в использовании этих инструментов.

"Существует обеспокоенность тем, что эксперименты, например, не проводятся должным образом, что существует мошенничество на всех уровнях", - сказал Euronews Next Гийом Кабанак, профессор компьютерных наук в Университете Тулузы.

Прозванный Nature «сыщиком-обманщиком», Кабанак отслеживает фальшивые научные исследования и сомнительные статьи. «Общество отдает должное науке, но это признание может быть отозвано в любой момент», — добавил он, объяснив, что неправильное использование инструментов ИИ может подорвать доверие общественности к научным исследованиям.

Вместе с коллегами Кабанак разработал инструмент под названием «Problematic Paper Screener» для обнаружения «искаженных фраз» — тех, которые встречаются, когда используется инструмент перефразирования, например, чтобы избежать обнаружения плагиата.

Но с тех пор, как инструменты GenAI стали достоянием общественности, Кабанак начал замечать тенденцию появления в статьях новых отпечатков пальцев, таких как термин «регенерация», кнопка, появляющаяся в конце ответов чат-ботов с искусственным интеллектом, или предложения, начинающиеся со слов «Как языковая модель искусственного интеллекта».

Это характерные признаки текста, взятого из инструмента искусственного интеллекта. Ещё одна из проблем заключается в том, что по мере развития технологий контент, созданный ИИ, вероятно, будет все труднее обнаружить.

Процесс рецензирования призван предотвратить появление в журналах каких-либо вопиющих ошибок, но, как отмечает Кабанак в социальных сетях, это случается нечасто. Некоторые издатели выпустили рекомендации по использованию ИИ в представляемых публикациях.

В 2023 году журнал Nature заявил, что инструмент ИИ не может быть признан автором исследовательской работы и что любые исследователи, использующие инструменты ИИ, должны документировать их использование. Грей опасается, что в будущем эти документы будет труднее обнаружить. И Грей, и Кабанак призвали авторов быть осторожными, при этом Кабанак призвал отмечать подозрительные статьи и регулярно проверять наличие отозванных статей.

Понравилась эта новость? Подпишись на нас в соцсетях!


Смотрите ещё