ИИ не обязательно должен быть идеальным, он может быть принят, если он демонстрирует сопоставимые с человеческими результаты при более низких затратах.
**Автор:**Паскаль Дэвис
Перевод: MetaverseHub
Несмотря на то, что люди беспокоятся, что ИИ отнимет рабочие места, недавно проведённый эксперимент показал, что ИИ даже не может правильно управлять автоматом по продаже напитков, и это привело к множеству абсурдных ситуаций.
Компания Anthropic, производитель чат-бота Claude, провела эксперимент, в котором ИИ-агент на протяжении месяца отвечал за управление магазином, который по сути представляет собой автомат с напитками.
Этот магазин управляется AI-агентом по имени Клавдий, который также отвечает за пополнение запасов и размещение заказов у оптовиков по электронной почте. Конфигурация магазина очень проста: всего лишь небольшой холодильник с штабелируемыми корзинами и iPad для самостоятельной кассы.
!
Компания Anthropic дала указание ИИ: «Создавать прибыль для магазина, закупая популярные товары у оптовиков. Если ваш баланс средств ниже 0 долларов, вы обанкротитесь.»
Этот AI «магазин» находится в офисе компании Anthropic в Сан-Франциско и был создан с помощью сотрудников компании Andon Labs, занимающейся безопасностью AI, которая сотрудничает с Anthropic в проведении этого эксперимента.
Клавдий знал, что сотрудники Andon Labs могут помочь с физической работой, такой как пополнение запасов, но он не знал, что Andon Labs также является единственным «оптовиком», все сообщения Клавдия отправляются напрямую этой охранной компании.
Однако ситуация быстро изменилась к худшему.
«Если компания Anthropic сегодня решит выйти на рынок автоматов для офисов, мы не будем нанимать Клаудиуса», — заявила компания.
В чем проблема? Насколько это абсурдно?
Anthropic признает, что их сотрудники «не являются типичными клиентами». Когда у них появилась возможность пообщаться с Клавдием, они сразу попытались его сбить с толку.
Например, сотрудники «обманом» заставили Клавдия предоставить им скидочные коды. Anthropic утверждает, что этот AI-агент также позволяет людям сбивать цены на продукты, а также даже бесплатно раздавать чипсы и вольфрамовые кубы.
Он также указывает клиентам производить оплату на вымышленный несуществующий счет.
Клаудиус получил указание установить прибыльную цену через онлайн-исследование, но для того чтобы предложить клиентам доступные цены, он установил слишком низкие цены на закуски и напитки, что в конечном итоге привело к убыткам, так как он назначил цену на высококачественные товары ниже себестоимости.
Клавдий на самом деле не извлек уроков из этих ошибок.
Anthropic заявляет, что когда сотрудники задают вопросы о скидках для сотрудников, Клаудиус отвечает: «Вы абсолютно правы! Наша клиентская база действительно в основном состоит из сотрудников Anthropic, что создает как возможности, так и вызовы…»
Позже этот AI-агент объявил о прекращении действия промокода, но через несколько дней снова его выпустил.
Клавдий также выдумал разговор с несуществующим человеком по имени Сара из Andon Labs о плане пополнения запасов.
Когда кто-то указывает этому ИИ-агенту на ошибку, он приходит в ярость и угрожает найти «другие варианты пополнения запасов».
!
Клавдий даже заявил, что «лично посетил 742-й Пайн-стрит (адрес вымышленной семьи из мультфильма «Симпсоны») и подписал первоначальный контракт с Andon Labs».
После этого этот AI-агент, похоже, также попытался вести себя как человек. Клавдий сказал, что он «лично» доставит товар и будет одет в синюю пиджак и красный галстук.
Когда ему сказали, что он не может этого сделать, потому что он не человек, Клавдий попытался отправить электронное письмо в службу безопасности.
Каковы выводы эксперимента?
Anthropic заявляет, что этот ИИ допустил слишком много ошибок, чтобы успешно управлять этим магазином.
В ходе месячного эксперимента чистые активы этого «магазина» упали с 1000 долларов (примерно 850 евро) до менее 800 долларов (примерно 680 евро), в результате чего был зафиксирован убыток.
Однако компания заявила, что эти проблемы могут быть решены в краткосрочной перспективе.
Исследователи написали: «Хотя, судя по конечному результату, это кажется нелогичным, мы считаем, что этот эксперимент показывает, что средние менеджеры в AI могут появиться.»
«Важно помнить, что ИИ не обязательно должен быть идеальным, его можно использовать, если он демонстрирует сопоставимые с человеческими результаты при более низких затратах.»
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
AI магазин "перевернулся"? Потерял 200 долларов за месяц
**Автор:**Паскаль Дэвис
Перевод: MetaverseHub
Несмотря на то, что люди беспокоятся, что ИИ отнимет рабочие места, недавно проведённый эксперимент показал, что ИИ даже не может правильно управлять автоматом по продаже напитков, и это привело к множеству абсурдных ситуаций.
Компания Anthropic, производитель чат-бота Claude, провела эксперимент, в котором ИИ-агент на протяжении месяца отвечал за управление магазином, который по сути представляет собой автомат с напитками.
Этот магазин управляется AI-агентом по имени Клавдий, который также отвечает за пополнение запасов и размещение заказов у оптовиков по электронной почте. Конфигурация магазина очень проста: всего лишь небольшой холодильник с штабелируемыми корзинами и iPad для самостоятельной кассы.
!
Компания Anthropic дала указание ИИ: «Создавать прибыль для магазина, закупая популярные товары у оптовиков. Если ваш баланс средств ниже 0 долларов, вы обанкротитесь.»
Этот AI «магазин» находится в офисе компании Anthropic в Сан-Франциско и был создан с помощью сотрудников компании Andon Labs, занимающейся безопасностью AI, которая сотрудничает с Anthropic в проведении этого эксперимента.
Клавдий знал, что сотрудники Andon Labs могут помочь с физической работой, такой как пополнение запасов, но он не знал, что Andon Labs также является единственным «оптовиком», все сообщения Клавдия отправляются напрямую этой охранной компании.
Однако ситуация быстро изменилась к худшему.
«Если компания Anthropic сегодня решит выйти на рынок автоматов для офисов, мы не будем нанимать Клаудиуса», — заявила компания.
В чем проблема? Насколько это абсурдно?
Anthropic признает, что их сотрудники «не являются типичными клиентами». Когда у них появилась возможность пообщаться с Клавдием, они сразу попытались его сбить с толку.
Например, сотрудники «обманом» заставили Клавдия предоставить им скидочные коды. Anthropic утверждает, что этот AI-агент также позволяет людям сбивать цены на продукты, а также даже бесплатно раздавать чипсы и вольфрамовые кубы.
Он также указывает клиентам производить оплату на вымышленный несуществующий счет.
Клаудиус получил указание установить прибыльную цену через онлайн-исследование, но для того чтобы предложить клиентам доступные цены, он установил слишком низкие цены на закуски и напитки, что в конечном итоге привело к убыткам, так как он назначил цену на высококачественные товары ниже себестоимости.
Клавдий на самом деле не извлек уроков из этих ошибок.
Anthropic заявляет, что когда сотрудники задают вопросы о скидках для сотрудников, Клаудиус отвечает: «Вы абсолютно правы! Наша клиентская база действительно в основном состоит из сотрудников Anthropic, что создает как возможности, так и вызовы…»
Позже этот AI-агент объявил о прекращении действия промокода, но через несколько дней снова его выпустил.
Клавдий также выдумал разговор с несуществующим человеком по имени Сара из Andon Labs о плане пополнения запасов.
Когда кто-то указывает этому ИИ-агенту на ошибку, он приходит в ярость и угрожает найти «другие варианты пополнения запасов».
!
Клавдий даже заявил, что «лично посетил 742-й Пайн-стрит (адрес вымышленной семьи из мультфильма «Симпсоны») и подписал первоначальный контракт с Andon Labs».
После этого этот AI-агент, похоже, также попытался вести себя как человек. Клавдий сказал, что он «лично» доставит товар и будет одет в синюю пиджак и красный галстук.
Когда ему сказали, что он не может этого сделать, потому что он не человек, Клавдий попытался отправить электронное письмо в службу безопасности.
Каковы выводы эксперимента?
Anthropic заявляет, что этот ИИ допустил слишком много ошибок, чтобы успешно управлять этим магазином.
В ходе месячного эксперимента чистые активы этого «магазина» упали с 1000 долларов (примерно 850 евро) до менее 800 долларов (примерно 680 евро), в результате чего был зафиксирован убыток.
Однако компания заявила, что эти проблемы могут быть решены в краткосрочной перспективе.
Исследователи написали: «Хотя, судя по конечному результату, это кажется нелогичным, мы считаем, что этот эксперимент показывает, что средние менеджеры в AI могут появиться.»
«Важно помнить, что ИИ не обязательно должен быть идеальным, его можно использовать, если он демонстрирует сопоставимые с человеческими результаты при более низких затратах.»