Ф'ючерси
Сотні контрактів розраховані в USDT або BTC
TradFi
Золото
Торгуйте глобальними традиційними активами за допомогою USDT в одному місці
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Запуск ф'ючерсів
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Беріть участь у подіях, щоб виграти щедрі винагороди
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Бали Alpha
Торгуйте ончейн-активами і насолоджуйтеся аірдроп-винагородами!
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Купуйте дешево і продавайте дорого, щоб отримати прибуток від коливань цін
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Індивідуальне управління капіталом сприяє зростанню ваших активів
Управління приватним капіталом
Індивідуальне управління активами для зростання ваших цифрових активів
Квантовий фонд
Найкраща команда з управління активами допоможе вам отримати прибуток без клопоту
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
New
Жодної примусової ліквідації до дати погашення — прибуток із плечем без зайвих ризиків
Випуск GUSD
Використовуйте USDT/USDC для випуску GUSD з дохідністю на рівні казначейських облігацій
✨Офіційне визначення Пентагоном Anthropic як ризику для ланцюга постачання: Даріо Амодей оголосив, що піде до суду, і підкреслив, що він продовжить підтримку національної безпеки
Міністерство оборони США (Пентагон) офіційно позначило стартап штучного інтелекту Anthropic як «ризик для ланцюга постачання». Це рішення ставить крапку у багатомісячному спорі щодо обмежень безпеки, які компанія наклала на свою модель Claude AI. У письмовій заяві від 5 березня 2026 року відомство зазначило: «Керівництво Anthropic було офіційно повідомлено, що компанія та її продукти оцінюються як ризик для ланцюга постачання; рішення набирає чинності негайно». Це інструмент, який історично використовувався проти іноземних компаній (особливо тих, що мають китайські зв’язки), які діють проти США, і вперше застосований до американської компанії. Обґрунтування Пентагону полягає в тому, що Anthropic заважає використанню Claude AI «для будь-яких легітимних цілей». Представники Міноборони заявили: «Основний принцип полягає в тому, що військові повинні мати можливість використовувати технології для всіх легітимних цілей. Постачальнику не дозволяється втручатися у ланцюг командування та ставити бойових дійців під ризик.»
✨Розбіжності виникають через два критичних червоні лінії Anthropic: компанія відкидає використання Claude у масовому внутрішньому спостереженні за американськими громадянами та повністю автономних безпілотних озброєних системах. Генеральний директор Даріо Амодей раніше чітко повідомляв про ці обмеження міністру оборони Піту Хегсету. Пентагон стверджує, що такі обмеження ставлять під загрозу національну безпеку.
✨Генеральний директор Anthropic Даріо Амодей підтвердив рішення Пентагону. У офіційній заяві компанії від 5 березня 2026 року Амодей зазначив, що вони отримали лист від Міністерства війни (колишнього Пентагону) 4 березня і вважають це рішення «юридично необґрунтованим». Амодей сказав: «Ми не маємо іншого вибору, окрім як боротися з цим у суді», і підтвердив, що подають судовий позов, як і було раніше заявлено. Однак Амодей також підкреслив, що вони продовжать підтримувати операції з національної безпеки: «Щоб не заважати нашим бійцям, ми продовжимо надавати наші моделі за номінальною ціною та з інженерною підтримкою настільки довго, наскільки це дозволено». Компанія нагадала, що вже активно співпрацює з Пентагоном у сферах аналізу розвідки, моделювання, оперативного планування та кібероперацій. Амодей також вибачився за тон внутрішнього меморандуму, який був витеклий шість днів тому, зазначивши, що текст застарів і не відображає його ретельних роздумів. Це рішення прийшло після того, як адміністрація Трампа наказала федеральним агентствам припинити використання продуктів Anthropic. Процес, ініційований заявою міністра оборони Піта Хегсету у X, тепер може вимагати від усіх військових підрядників розірвати комерційні зв’язки з Anthropic. Експерти кажуть, що цей крок може змінити баланс сил між Кремнієвою долиною та урядом і охолодити інновації. Anthropic стверджує, що позначка ризику для ланцюга постачання має бути «найменш обмежувальним методом» відповідно до 10 USC 3252, зазначаючи, що це рішення є вузьким за масштабом і вплине лише на прямі контракти. Компанія залишається відданою продовженню внесків у національну безпеку разом із судовими процесами. Ця подія ще раз підкреслює напруженість між політикою безпеки AI та оборонними потребами; процес, схоже, продовжиться у судових залах найближчими днями.
Спір виник через контракт приблизно на $200 мільйонів, який Anthropic підписала для використання своєї моделі Claude AI у засобах секретності для військових США.
Anthropic встановила два ключові "червоні лінії":
- Щоб штучний інтелект не використовувався для масового спостереження за американськими громадянами.
- Щоб він не використовувався для **повністю автономних озброєнь** (озброєнь, що приймають смертельні рішення без людського контролю)
Однак Пентагон вимагав необмеженого використання ШІ для "усіх законних цілей" і не приймав ці обмеження. Міністр оборони Піт Гегсетх змусив компанію дотримуватися цього до кінця п’ятниці (26 лютого 2026).
Коли угода не була досягнута:
- Президент Трамп наказав усім федеральним агентствам **негайно припинити** використання технологій Anthropic (з наданням Пентагону 6-місячного перехідного періоду).
- Гегсетх оголосив Anthropic "ризиком для національної безпеки у ланцюзі постачання" — санкцію, зазвичай застосовувану проти іноземних загроз; вона також забороняє військовим підрядникам вести бізнес із компанією.
Anthropic назвала це рішення "юридично недійсним і прецедентним" і оголосила, що звернеться до суду. Генеральний директор Даріо Амодей підкреслив, що він не відступить від своєї позиції.
Зрештою, Пентагон підписав нову угоду з OpenAI, прийнявши подібні обмеження. Ця подія стала важливим поворотним моментом щодо того, хто має встановлювати межі військового використання ШІ — компанії чи уряд?
Коротко: те, що починалося як обговорення питань безпеки, переросло у політичний тиск і санкції. Конфлікт між етикою ШІ та національною безпекою триває.
#TrumpordersfederalbanonAnthropicAI