Трамп наказує уряду припинити використання Anthropic після конфлікту з Пентагоном

Президент Дональд Трамп у п’ятницю заявив, що він наказує всім федеральним агентствам припинити використання AI-сервісів від Anthropic, що є останнім ескалацією все більшої ворожнечі між його адміністрацією та стартапом AI, який створює Claude.

«Сполучені Штати Америки ніколи не дозволять радикальним лівим, пробудженій компанії диктувати, як наша велика армія веде та перемагає у війнах», — написав Трамп великими літерами у Truth Social.

Пов’язаний контент

Costco продовжує друкувати гроші — оптом

Акції Kroger зросли на твердих доходах, протистоячи низхідному тренду ринку

Західний крок президента стався через день після того, як Anthropic відхилив останню пропозицію Міністерства оборони щодо вирішення конфлікту щодо розгортання системи Claude AI для військових цілей без обмежень. Пентагон встановив дедлайн на 17:01 п’ятниці для Anthropic, щоб вона погодилася з його вимогами або зіткнулася з відповіддю з боку адміністрації Трампа. Повідомлення Трампа у соцмережах з’явилося напередодні цього дедлайну.

На кону стоїть контракт на оборону вартістю 200 мільйонів доларів між Anthropic і Пентагоном щодо використання AI у засекречених військових системах. Anthropic наполягала на гарантіях, що її AI не буде використовуватися для масового спостереження за американцями або у автономних озброєннях без людського контролю. Компанія наполягала, що вона проти повторних вимог Міноборони застосовувати її технології відповідно до військових потреб і законодавства.

«Ці погрози не змінюють нашої позиції: ми не можемо за совістю погодитися з їхнім проханням», — заявив генеральний директор Anthropic Дарио Амодей у четвер у заяві, опублікованій на сайті компанії.

Раніше у п’ятницю ще здавалося, що є можливість для останнього прориву напередодні дедлайну. Але пізно ввечері у п’ятницю Трамп заявив, що він наказує «КОЖНОМУ» федеральному агентству «НЕМЕДЛЕННО припинити всі використання технологій Anthropic».

«Нам це не потрібно, ми цього не хочемо і більше з ними не співпрацюватимемо!» — сказав Трамп.

Президент повідомив, що для агентств, включно з Пентагоном, буде шестимісячний «період поступового виключення».

Міністерство оборони погрожує позначити Anthropic як «ризик у ланцюгу постачання», що зазвичай застосовується до іноземних конкурентів, які можуть позбавити компанію контрактів із урядом США. Також воно попередило, що може застосувати Закон про виробництво оборонної продукції (DPA), що дозволить уряду США взяти під контроль технології AI компанії.

Аналітики вказують на суперечність у жорсткій політиці адміністрації Трампа щодо компанії. Позначення Anthropic як ризику у ланцюгу постачання заборонить уряду використовувати її продукти. Водночас застосування Закону про виробництво оборонної продукції дозволить стверджувати, що модель AI Anthropic є важливою для національної безпеки.

Амодей підтвердив цю ідею у своїй заяві у четвер, назвавши ці погрози «внутрішньо суперечливими».

«Одне називає нас ризиком для безпеки», — сказав він. «Інше — вважає Claude необхідним для національної безпеки».

Генеральний директор OpenAI Сэм Альтман підтримав Anthropic у конфлікті з Пентагоном, що свідчить про те, що адміністрація Трампа можливо доведеться мати справу з такими ж проблемами від інших компаній AI щодо використання передових технологій штучного інтелекту.

«Я особисто не вважаю, що Пентагон має погрожувати DPA цим компаніям», — сказав Альтман у інтерв’ю CNBC у п’ятницю. «З усіма моїми розбіжностями з Anthropic я здебільшого довіряю їм як компанії, і я справді вважаю, що вони дбають про безпеку. Не знаю, куди це все призведе».

Джозеф Зебальос-Ройг зробив внесок у цю статтю.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити