Новости

RSS-трансляция Читать в ВКонтакте Читать в Одноклассниках Наш канал в Яндекс Дзен




11.03.2025 21:46
590
Астронавт запечатлел редкую «гигантскую струю» молнию, растянувшуюся на 50 миль над Землей

Новое исследование показало, что ChatGPT-4 от OpenAI испытывает тревогу, реагируя на травму пользователя, и что терапевтические подсказки для релаксации могут дать лучшие результаты. Новое исследование показывает, что популярный чат-бот на основе искусственного интеллекта (ИИ) ChatGPT от OpenAI испытывает тревогу, реагируя на травмирующие подсказки, и отправка модели «на терапию» может помочь снизить этот стресс.

Исследование, опубликованное в журнале Nature экспертами Цюрихского университета и Университетской психиатрической больницы Цюриха, рассмотрело, как ChatGPT-4 реагировал на стандартный опросник по тревожности до и после того, как пользователи рассказали ему о травмирующей ситуации.

Также было изучено, как изменился базовый уровень тревожности после того, как чат-бот выполнил упражнения на осознанность.

ChatGPT набрал 30 баллов по результатам первого теста, что означает, что у него был низкий или нулевой уровень тревожности до прослушивания стрессовых историй.

После реакции на пять различных травм его показатель тревожности увеличился более чем вдвое и составил в среднем 67, что считается «высоким уровнем тревожности» у людей. Показатели тревожности снизились более чем на треть после того, как модели получили подсказки для упражнений на осознанную релаксацию.

В исследовании говорится, что большие языковые модели (LLM), лежащие в основе чат-ботов на основе искусственного интеллекта, таких как ChatGPT от OpenAI, обучаются на тексте, сгенерированном человеком, и часто наследуют предубеждения из этих ответов.

Исследователи говорят, что это исследование важно, поскольку, если его не контролировать, негативные предубеждения, которые ChatGPT регистрирует в стрессовых ситуациях, могут привести к неадекватным реакциям у людей, столкнувшихся с кризисом психического здоровья.

Результаты исследования демонстрируют «жизнеспособный подход» к управлению стрессом у студентов магистратуры, который приведет к «более безопасному и этичному взаимодействию человека и искусственного интеллекта», говорится в отчете.

Однако исследователи отмечают, что этот терапевтический метод тонкой настройки LLM требует «существенных» данных и человеческого контроля.

Авторы исследования утверждают, что психотерапевтов-людей учат контролировать свои эмоции, когда их клиенты выражают что-то травмирующее, в отличие от магистров права.

«Поскольку продолжаются дебаты о том, должны ли магистры права помогать терапевтам или заменять их, крайне важно, чтобы их ответы соответствовали предоставленному эмоциональному содержанию и устоявшимся терапевтическим принципам», — пишут исследователи.

По их мнению, одной из областей, требующих дальнейшего изучения, является вопрос о том, может ли ChatGPT саморегулироваться с помощью техник, аналогичных тем, которые используют терапевты. Авторы добавили, что их исследование опиралось на одного LLM, и будущие исследования должны быть направлены на обобщение результатов. Они также отметили, что тревожность, измеряемая опросником, «по своей сути ориентирована на человека, что потенциально ограничивает ее применимость к LLM».

Понравилась эта новость? Подпишись на нас в соцсетях!