Фьючерсы
Сотни контрактов, рассчитанных в USDT или BTC
TradFi
Золото
Торговля традиционными активами с помощью USDT в одном месте
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Начало фьючерсов
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Участвуйте в мероприятиях и выигрывайте щедрые награды
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте ончейн активами и получайте награды аирдропа!
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Покупайте дешево и продавайте дорого, чтобы получить прибыль от колебаний цен
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
VIP-центр богатства
Настроенное вами управление капиталом способствует росту ваших активов
Управление частным капиталом
Индивидуальное управление активами для роста ваших цифровых активов
Количественный фонд
Лучшая команда по управлению активами поможет вам получить прибыль без лишних хлопот
Стейкинг
Делайте стейкинг криптовалюты, чтобы заработать на продуктах PoS
Умное плечо
New
Без принудительной ликвидации до погашения, беззаботный прирост с кредитным плечом
Минтинг GUSD
Используйте USDT/USDC чтобы минтить GUSD для доходности на уровне казначейских облигаций
✨Официальное признание Пентагоном Anthropic как риска в цепочке поставок: Дарио Амодеи объявил, что пойдет в суд и подчеркнул, что продолжит поддержку национальной безопасности
Министерство обороны США (Пентагон) официально обозначило стартап в области искусственного интеллекта Anthropic как «риск в цепочке поставок». Это решение ставит точку в многомесячном споре о мерах безопасности, которые компания ввела для своей модели Claude AI. В письменном заявлении от 5 марта 2026 года ведомство заявило: «Руководство Anthropic было официально уведомлено о том, что компания и её продукты оцениваются как риск в цепочке поставок; решение вступает в силу немедленно». Это инструмент, который исторически использовался против иностранных компаний (особенно тех, у которых есть связи с Китаем), действующих против США, и впервые был применен к американской компании. Обоснование Пентагона заключается в том, что Anthropic препятствует использованию Claude AI «для любых законных целей». Представители Минобороны заявили: «Основной принцип заключается в том, что вооруженные силы должны иметь возможность использовать технологии для всех законных целей. Постачальщик не будет допущен к вмешательству в цепочку командования и не поставит под угрозу боевых операторов.»
✨Разногласия возникли из-за двух критических красных линий Anthropic: компания отвергает использование Claude в массовом внутреннем наблюдении за американскими гражданами и полностью автономных беспилотных оружейных системах. Генеральный директор Дарио Амодеи ранее явно сообщил об этих ограничениях министру обороны Питу Хегсету. Пентагон утверждает, что такие ограничения ставят под угрозу национальную безопасность.
✨Генеральный директор Anthropic Дарио Амодеи подтвердил решение Пентагона. В официальном заявлении компании от 5 марта 2026 года Амодеи заявил, что они получили письмо от Министерства войны (ранее Пентагона) 4 марта и посчитали решение «юридически необоснованным». Амодеи отметил: «У нас нет другого выбора, кроме как бороться с этим в суде», и подтвердил, что они подадут судебный иск, как было ранее заявлено. Однако Амодеи также подчеркнул, что они продолжат поддерживать операции в области национальной безопасности: «Чтобы не мешать нашим бойцам, мы продолжим предоставлять наши модели по минимальной цене и с инженерной поддержкой, насколько это возможно». Компания напомнила, что уже активно сотрудничает с Пентагоном в таких сферах, как разведывательный анализ, моделирование, оперативное планирование и кибероперации. Амодеи также извинился за тон внутренней записки, утечка которой произошла шесть дней назад, отметив, что текст устарел и не отражает его тщательного подхода. Решение принято после того, как администрация Трампа приказала федеральным агентствам прекратить использование продуктов Anthropic. Процесс, инициированный заявлением министра обороны Пита Хегсета в X, теперь, возможно, потребует от всех военных подрядчиков разорвать коммерческие связи с Anthropic. Эксперты считают, что этот шаг может изменить баланс сил между Кремниевой долиной и правительством и охладить инновации. Anthropic утверждает, что маркировка риска в цепочке поставок должна быть «наименее ограничительным методом» в соответствии с 10 USC 3252, заявляя, что это решение узконаправленное и повлияет только на прямые контракты. Компания остается приверженной продолжению своих вкладов в национальную безопасность наряду с судебными разбирательствами. Этот случай вновь подчеркивает напряженность между политикой безопасности ИИ и оборонными потребностями; процесс, по-видимому, продолжится в судах в ближайшие дни.
Спор возник из-за контракта на сумму примерно $200 миллион, который Anthropic подписала для использования своей модели Claude AI в секретных системах для вооружённых сил США.
Anthropic установила два ключевых «красных линий»:
- Что ИИ не будет использоваться для массового наблюдения за американскими гражданами.
- Что он не будет использоваться для **полностью автономных систем оружия** (оружия, принимающего смертельные решения без человеческого контроля)
Однако Пентагон потребовал неограниченного использования ИИ «для всех законных целей» и не принял эти ограничения. Министр обороны Пит Хегсетх заставил компанию соблюдать требования с дедлайном до вечера пятницы (26 февраля 2026 года).
Когда соглашение не было достигнуто:
- Президент Трамп приказал всем федеральным агентствам **немедленно прекратить** использование технологий Anthropic (предоставив Пентагону 6-месячный переходный период).
- Хегсетх заявил, что Anthropic представляет собой «риск для национальной безопасности в цепочке поставок» — санкцию, обычно применяемую к иностранным угрозам; также она запрещает военным подрядчикам вести бизнес с компанией.
Anthropic назвала это решение «незаконным и создающим прецедент» и объявила, что обратится в суд. Генеральный директор Дарио Амодей подчеркнул, что он не отступит от своей позиции.
В конечном итоге Пентагон подписал новое соглашение с OpenAI, приняв аналогичные ограничения. Это событие стало важным поворотным моментом в вопросе о том, кто должен устанавливать ограничения на военное использование ИИ — компании или правительство?
Короче говоря: то, что началось как обсуждение вопросов безопасности, переросло в политическое давление и санкции. Конфликт между этикой ИИ и национальной безопасностью продолжается.
#TrumpordersfederalbanonAnthropicAI