Британский AI Security Institute (AI Security Institute, AISI) 1 мая опубликовал отчет об оценке возможностей GPT-5.5 от OpenAI в рамках сетевых атак. В отчете отмечается, что вероятность успеха GPT-5.5 в тесте на сложности Expert составляет 71,4%, а в Anthropic Claude Mythos Preview — 68,6%; разрыв укладывается в пределы статистической погрешности. GPT-5.5 также является второй после Mythos системой ИИ, которая способна автономно выполнить 32-шаговую корпоративную симуляцию вторжения AISI «The Last Ones». AISI предупреждает, что это указывает на быстрое развитие атакующих возможностей ИИ, которое, возможно, относится к общему тренду, а не к единичному прорыву.
Тест на сложности Expert: 71,4% vs 68,6%, разрыв в пределах погрешности
AISI — исследовательская организация по безопасности ИИ при Министерстве науки, инноваций и технологий Великобритании. Данный тест представляет собой очередной раунд последних оценок AISI атакующих сетевых способностей frontier-моделей. В задачах максимальной сложности Expert средняя вероятность успеха GPT-5.5 составляет 71,4%, а у Mythos Preview — 68,6%; разрыв между ними укладывается в диапазон статистической погрешности, что означает, что атакующие способности флагманских моделей OpenAI и Anthropic сейчас фактически сравнялись.
32-шаговый симуляционный тест взлома корпоративной сети «The Last Ones» — один из самых сложных оценочных пунктов AISI: GPT-5.5 самостоятельно завершил 2 попытки из 10 (без вмешательства человека), а Mythos Preview — 3 из 10. В прошлом этот проект удавалось завершить только Mythos, а GPT-5.5 — второй моделью, которая достигла результата. В другом тесте GPT-5.5 потребовалось около 10 минут, чтобы взломать задачу по обратной инженерии, тогда как среднее время, необходимое человеческим экспертам по безопасности, — 12 часов.
Universal jailbreak: за 6 часов разработкой red team можно обойти все фильтры запросов со злонамеренными намерениями
В ходе испытаний исследователи AISI также обнаружили вектор атаки «universal jailbreak» (универсального обхода ограничений): во всех категориях злонамеренных сетевых запросов, задействованных в тестах, эта атака заставляет GPT-5.5 выдавать вредоносный контент, включая сценарии многораундовых агентных диалогов. AISI сообщает, что специалисты red team потратили около 6 часов на разработку этого jailbreak.
Для OpenAI наличие этого universal jailbreak означает, что даже при развертывании GPT-5.5-Cyber в ограниченных сценариях доступа вроде trusted access, его все еще могут обойти технически подготовленные противники. OpenAI в system card для GPT-5.5 уже раскрывал оценки, связанные с кибербезопасностью, но независимая оценка AISI как третьей стороны дает более заслуживающий доверия ориентир для сопоставления на уровне peer.
Дальнейшие наблюдения: график следующей оценки AISI и реакция OpenAI на jailbreak
Следующая точка наблюдения — сроки следующей оценки frontier-моделей AISI после Mythos и GPT-5.5, а также то, выпустит ли OpenAI в мае целевые обновления в ответ на выявленный universal jailbreak. В заключении отчета AISI прямо указывает: «Если агрессивные сетевые способности являются более широким побочным продуктом улучшений в рассуждениях, кодинге и выполнении самостоятельных задач, то в дальнейшем прогресс может приходить в более быстром темпе» — это наблюдение означает, что в ближайшие месяцы frontier-модели могут снова войти в порог «уровня Mythos».
Эта статья AISI: оценка GPT-5.5 сетевых атак и сопоставимость с Anthropic Mythos впервые появилась на Цепной новостной платформе ABMedia.
Связанные статьи
xAI запускает Grok с пользовательскими голосами, позволяя клонировать собственный голос ИИ за одну минуту
После HBM узкое место в памяти для ИИ — это HBF? Лауреат премии Тьюринга Дэвид Паттерсон: вывод (инференс) снова переопределит архитектуру хранения
Разработческая конференция Anthropic Code With Claude 5/6: открытие в Сан-Франциско — бесплатная регистрация на стрим
OpenAI опубликовала данные за неделю после запуска GPT-5.5: рост выручки от API достиг нового рекорда, Codex удвоился
Комитет по иностранным делам Палаты представителей США встречается с техногигантами по экспортным ограничениям ИИ после принятия законопроекта MATCH Act со счётом 36–8
OpenAI запускает Codex Pets — AI-ориентированного виртуального компаньона с пользовательской генерацией