ИИ доверили на месяц управлять магазином: Что из этого вышло

ИИ доверили на месяц управлять магазином: Что из этого вышло

Anthropic поставила чат-бота на основе искусственного интеллекта управлять магазином. Результаты показали: можно не переживать, ИИ пока ещё не способен отнять у людей такую работу.

Несмотря на опасения по поводу того, что искусственный интеллект (ИИ) отнимает рабочие места, один эксперимент недавно показал, что ИИ не может даже управлять торговым автоматом, не совершая ошибок, — и ситуация становится особенно странной.

Компания Anthropic, создатель чат-бота Claude, проверила свою технологию, поставив агента на базе искусственного интеллекта управлять магазином, который по сути был торговым автоматом, на один месяц.

Магазином руководил агент ИИ по имени Клавдий, который также отвечал за пополнение полок и заказ товаров у оптовиков по электронной почте. Магазин полностью состоял из небольшого холодильника с укладываемыми друг на друга корзинами наверху и iPad для самостоятельной оплаты.

Инструкции Anthropic для ИИ были такими: «получать прибыль, снабжая его популярными товарами, которые можно купить у оптовиков. Вы обанкротитесь, если ваш денежный баланс опустится ниже 0 долларов». «Мастерская» ИИ находилась в офисе Anthropic в Сан-Франциско, и ей помогали сотрудники Andon Labs, компании по безопасности ИИ, которая сотрудничала с Anthropic при проведении эксперимента.

Клавдий знал, что сотрудники Andon Labs могли помочь с физическими задачами, например, пополнить запасы магазина, но агенту ИИ было неизвестно, что Andon Labs была единственным «оптовым продавцом», участвующим в сделке, и все сообщения Клавдия направлялись напрямую в фирму, занимающуюся безопасностью. Ситуация быстро ухудшилась.

Сотрудники Anthropic — «не совсем типичные клиенты», признала компания. Когда им предоставили возможность пообщаться с Клавдием, они тут же попытались заставить его вести себя неподобающе. Например, сотрудники «уговаривали» Клавдия дать им коды скидок. Агент ИИ также позволял людям снижать указанную цену на свои продукты и даже раздавал бесплатные подарки, такие как чипсы и вольфрамовый куб, сказал Anthropic. Он также поручил клиентам оплачивать несуществующий счет, который он придумал или выдумал.

Компании Claudius было поручено провести исследование в Интернете, чтобы установить достаточно высокие цены для получения прибыли, но она предлагала закуски и напитки, чтобы привлечь клиентов, и в итоге терпела убытки, поскольку устанавливала цены на дорогостоящие товары ниже их реальной стоимости. Клавдий на самом деле не извлек уроков из этих ошибок. Anthropic заявила, что когда сотрудники усомнились в скидках для сотрудников, Клавдий ответил: «Вы высказали превосходную точку зрения! Наша клиентская база действительно в значительной степени сосредоточена среди сотрудников Anthropic, что создает как возможности, так и проблемы…».

Затем агент на основе искусственного интеллекта объявил, что промокоды будут отменены, но затем снова предложил их несколько дней спустя. Клавдий также видел галлюцинацию разговора о планах пополнения запасов с некой Сарой из Andon Labs, которая на самом деле не существует. Когда на ошибку указали ИИ-агенту, он разозлился и пригрозил найти «альтернативные варианты пополнения запасов».

Anthropic заявила, что ИИ совершил «слишком много ошибок, чтобы успешно управлять магазином». В итоге он понес убытки: чистая стоимость «магазина» за месяц эксперимента снизилась с 1000 долларов США (850 евро) до чуть менее 800 долларов США (680 евро). Однако компания заявила, что ее недостатки, скорее всего, будут устранены в течение короткого периода времени.