11.03.2025 21:46
Новое исследование показало, что ChatGPT-4 от OpenAI испытывает тревогу, реагируя на травму пользователя, и что терапевтические подсказки для релаксации могут дать лучшие результаты. Новое исследование показывает, что популярный чат-бот на основе искусственного интеллекта (ИИ) ChatGPT от OpenAI испытывает тревогу, реагируя на травмирующие подсказки, и отправка модели «на терапию» может помочь снизить этот стресс.
Исследование, опубликованное в журнале Nature экспертами Цюрихского университета и Университетской психиатрической больницы Цюриха, рассмотрело, как ChatGPT-4 реагировал на стандартный опросник по тревожности до и после того, как пользователи рассказали ему о травмирующей ситуации.
Также было изучено, как изменился базовый уровень тревожности после того, как чат-бот выполнил упражнения на осознанность.
ChatGPT набрал 30 баллов по результатам первого теста, что означает, что у него был низкий или нулевой уровень тревожности до прослушивания стрессовых историй.
После реакции на пять различных травм его показатель тревожности увеличился более чем вдвое и составил в среднем 67, что считается «высоким уровнем тревожности» у людей. Показатели тревожности снизились более чем на треть после того, как модели получили подсказки для упражнений на осознанную релаксацию.
В исследовании говорится, что большие языковые модели (LLM), лежащие в основе чат-ботов на основе искусственного интеллекта, таких как ChatGPT от OpenAI, обучаются на тексте, сгенерированном человеком, и часто наследуют предубеждения из этих ответов.
Исследователи говорят, что это исследование важно, поскольку, если его не контролировать, негативные предубеждения, которые ChatGPT регистрирует в стрессовых ситуациях, могут привести к неадекватным реакциям у людей, столкнувшихся с кризисом психического здоровья.
Результаты исследования демонстрируют «жизнеспособный подход» к управлению стрессом у студентов магистратуры, который приведет к «более безопасному и этичному взаимодействию человека и искусственного интеллекта», говорится в отчете.
Однако исследователи отмечают, что этот терапевтический метод тонкой настройки LLM требует «существенных» данных и человеческого контроля.
Авторы исследования утверждают, что психотерапевтов-людей учат контролировать свои эмоции, когда их клиенты выражают что-то травмирующее, в отличие от магистров права.
«Поскольку продолжаются дебаты о том, должны ли магистры права помогать терапевтам или заменять их, крайне важно, чтобы их ответы соответствовали предоставленному эмоциональному содержанию и устоявшимся терапевтическим принципам», — пишут исследователи.
По их мнению, одной из областей, требующих дальнейшего изучения, является вопрос о том, может ли ChatGPT саморегулироваться с помощью техник, аналогичных тем, которые используют терапевты. Авторы добавили, что их исследование опиралось на одного LLM, и будущие исследования должны быть направлены на обобщение результатов. Они также отметили, что тревожность, измеряемая опросником, «по своей сути ориентирована на человека, что потенциально ограничивает ее применимость к LLM».
Понравилась эта новость? Подпишись на нас в соцсетях!