Міністерство оборони США обрало 7 компаній для закупівлі секретного рівня ШІ… включаючи OpenAI і Google, Anthropic виключено з участі

robot
Генерація анотацій у процесі

Міністерство оборони США опублікувало список семи компаній, які уклали контракти на закупівлю штучного інтелекту (ШІ). Серед них — Amazon Web Services, Google, Microsoft, Nvidia, OpenAI, SpaceX, а також відносно менш відома стартап-компанія Reflection AI, тоді як Anthropic було виключено.

Цей контракт спрямований на розширення спектру послуг, що надаються через внутрішній портал Міноборони з ШІ “GenAI.mil”. За повідомленнями іноземних ЗМІ, з моменту запуску платформи минулого року її вже використовують понад 1,3 мільйона військовослужбовців Міноборони, і побудовано десятки тисяч агентів ШІ. Міноборони зосереджено на цьому, щоб зменшити обсяг обробки даних і прискорити процес прийняття рішень.

Використання найвищого рівня безпечного середовища для обробки секретної інформації

Згідно з контрактом, продукти ШІ будуть застосовуватися у середовищах “рівень впливу 6” та “рівень впливу 7”. Це системні рівні Міноборони, що дозволяють зберігати секретну інформацію, фактично відповідаючи найвищим вимогам безпеки. Хоча конкретні продукти не були оприлюднені, очевидно, що ця закупівля вже перейшла за межі експериментальної стадії і увійшла у рівень “операційного використання ШІ з секретним рівнем”.

Також привертає увагу потенційний набір активів, які можуть запропонувати компанії. Nvidia, відома як виробник графічних процесорів, має також інструменти для розробки нейронних мереж і відкриті великі мовні моделі. Зокрема, їхня серія моделей на базі архітектури “Mamba-Transformer”, яка зменшує використання пам’яті, вважається потенційно застосовною у сферах з обмеженими обчислювальними ресурсами, наприклад, у військових цілях.

SpaceX і Reflection AI також привертають увагу… Anthropic виключено

Вибір SpaceX викликає здивування. Ця компанія у цьому році, об’єднавшись з xAI Holdings, отримала серію мовних моделей “Grok”, і її роль як постачальника ШІ посилюється. Крім того, компанія може розширити свій набір спеціалізованих моделей для програмування, і деякі експерти вважають, що це може прискорити перехід від аерокосмічної компанії до постачальника ШІ для оборони.

Reflection AI — найменш відома компанія у цьому списку. Це стартап, заснований у 2024 році колишніми дослідниками Google DeepMind. Хоча вона ще не випустила комерційних продуктів, минулого року компанія залучила 2 мільярди доларів інвестицій, що приблизно дорівнює 2,95 трильйонам корейських вон. Американські ЗМІ повідомляли, що компанія готується запустити мовну модель, натреновану на сотнях трильйонів токенів.

У порівнянні з цим, виключення Anthropic було цілком передбачуваним кроком. Міністр оборони Пітт Хаггсес у лютому цього року визначив Anthropic як об’єкт “ризиків ланцюга постачання”, і у березні ця міра була конкретизована. Згідно з цим, Міноборони заборонило використовувати Claude, а доступ до компаній у сфері оборони був обмежений.

Контекст заборони Claude — конфлікт із положенням “для будь-яких законних цілей”

Головний конфлікт полягає у положеннях контракту. Міністр Хаггсес заявив, що через те, що Anthropic не прийняла вимогу Міноборони щодо використання “для будь-яких законних цілей”, було ухвалено рішення про застосування санкцій. Anthropic побоюється, що така формулювання може залишити простір для використання моделей ШІ у внутрішньому масштабному контролі або для розробки автономної зброї. В результаті, у березні цього року компанія подала позов проти визначення ризиків ланцюга постачання.

Однак ситуація не така проста. За повідомленнями іноземних ЗМІ, незважаючи на заборону, Міноборони, за повідомленнями, все ще використовує “Claude Mitos Preview” від Anthropic. Хоча ця модель вже застосовується деякими іншими федеральними агентствами, вона ще не була відкрито представлена публіці. Причина — її здатність виявляти невідомі безпекові “нульові дні” у вразливостях.

Цей контракт на закупівлю ШІ Міноборони США — це не просто технічне запровадження, а й сигнал, що в системі національної безпеки визначаються компанії, яким можна довіряти у сфері ШІ. Також випадок Anthropic показує, що лише технічні характеристики недостатні для входу на ринок оборони — важливими стають умови контракту та політика прийняття.

TP AI зауважує: стаття підсумована на основі TokenPost.ai. Можливо, вона пропустила основний зміст або не відповідає фактам.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити