Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
DeepSeek новая статья: как ограничивающая манifold сверхсвязная архитектура решает проблему обучения глубоких сетей
Новая статья, недавно опубликованная DeepSee, привлекла внимание технологического сообщества. Они предложили новую архитектуру под названием многообразно-ограниченная гиперсвязь (mHC), и основная цель которой на самом деле проста — решить две проблемы существующей технологии гиперсоединения (HC): нестабильность обучения и ограниченную масштабируемость.
Корень этой проблемы в том, что технология HC разрушает свойства идентичного отображения. Решение DeepSeek заключается в отображении остаточного пространства связей HC в конкретное многообразие, что восстанавливает свойства тождественного отображения. Звучит немного абстрактно, но, говоря прямо, это для того, чтобы сделать обучение глубоких сетей более стабильным и масштабируемым благодаря более умному математическому отображению.
В статье также включена оптимизация инфраструктуры для обеспечения практической эффективности, а экспериментальные результаты демонстрируют значительное улучшение производительности и превосходную масштабируемость. Это означает, что с более глубокой сетевой структурой процесс обучения становится более контролируемым.
DeepSeek считает, что mHC — это гибкое и практическое продолжение технологии HC, которое не только может помочь отрасли лучше понять топологическое архитектурное проектирование, но и указать очень перспективное направление для эволюции крупных моделей. Эту статью завершили Се Чжэнда, Вэй Исюань, Цао Хуаньци, Лян Вэньфэн и другие.
В долгосрочной перспективе прорывы в такой инфраструктуре окажут глубокое влияние на стабильность и масштабируемость крупных моделей.
Опять эти математические черные магии? По сути, это просто чтобы сеть не падала во время обучения
Я честно не понимаю ограничений на многообразие, но если экспериментальные данные выглядят хорошо, то и ладно
Наконец-то глубокие сети могут стабильно обучаться? Значит, снова кто-то будет в этом сильно проигрывать
Но если говорить откровенно, то если действительно удастся решить вопрос масштабируемости, внедрение в практику пойдет гораздо быстрее
Если эта статья действительно надежна, значит, в фундаментальном слое ИИ еще столько дыр, которые нужно заделать
Подождите, а какова реальная эффективность этого метода при запуске? Неужели снова только на бумаге выглядит хорошо
Новая архитектура звучит круто, как она покажет себя на практике — посмотрим, рынок всё проверит, а я пока что просто улыбаюсь.
Эта логика похожа на мою торговлю криптовалютой: теория идеальна, а реальность — кровавая расправа, ха-ха.
DeepSeek, по сути, прокладывает путь для обучения больших моделей, стабилизация глубоких сетей увеличивает вероятность появления монструозных моделей в будущем.
Честно говоря, если такие фундаментальные исследования будут хорошо развиваться, выигрыши получат только крупные компании, а мы, мелкие инвесторы, можем рассчитывать только на остатки.
Если действительно удастся стабильно обучать глубокие модели, то стоит хорошо ознакомиться с экспериментальными данными, чтобы не получилось так, что статья выглядит хорошо, а на практике проваливается.
Восстановление свойства тождественного отображения... подождем обратной связи из производственной среды, чтобы похвалить.
Статьи о Deep все более насыщенные, и если действительно произойдет прорыв в области масштабируемости, это будет хорошей новостью для затрат на обучение больших моделей.
Я должен внимательно изучить концепцию математических отображений, кажется, снова придется связывать теорию с практикой на долгое время.
Данные на блокчейне пока что без изменений, мы, розничные инвесторы, лучше пока понаблюдаем, чтобы не стать «плохими парнями». Но, говоря откровенно, DeepSeek действительно оказался в центре штормовой зоны, те, кто рано вложился, возможно, уже смеются.
Ограничения на многообразие звучат очень продвинуто, но насколько это архитектурное новшество далеко от реального внедрения? Есть ли крупные организации, уже занимающиеся арбитражем в этой области?
Честно говоря, чистые технологические прорывы часто переоценены, я ставлю на реакцию рынка, а не на саму статью. Как только сборы за майнинг начнут расти, я буду готова к уходу.
Когда выйдут последние данные о масштабируемости? Есть ли подробное сравнение с аналогичными решениями? Именно это меня действительно интересует.
---
DeepSeek проделал новую задачу, и кажется, что он восстанавливает старую яму HC технологий
---
После долгих разговоров это делается для того, чтобы сделать тренировки более стабильными, и насколько быстрее она действительно может бежать?
---
Я мало что понимаю в изометрическом отображении и чувствую, что автор статьи усложняет простые вещи
---
Превосходная масштабируемость? На сколько процентных пунктов быстрее существующего плана, есть ли ориентир?
---
Ещё одна «революционная» архитектура, ждущая, сможет ли её применить в реальных ситуациях
---
Слово «ограничение многообразия» звучит очень дорого, и я не знаю, сколько стоит его эксплуатация
---
Оптимизация алгоритмов всегда «очень хороша в теории, но на практике зависит от GPU»
---
Он кажется внимательным, но мне кажется, что бумага полна цветов и деталей
---
Проблема стабильности обучения глубокой сети решена, так что что насчёт заполнения видеопамяти? Это решение обычно накачивает ветер
Ограничение многообразия? Проще говоря, чтобы не сломался процесс обучения сети, в любом случае я не понял, ха-ха.
Глубокие сети стали стабильнее, это помогает в настройке майнинга?
Математические отображения, отображения, отображения — разве это не повышает эффективность расчёта gas?
DeepSeek снова занимается моделированием архитектуры, этот темп действительно трудно уследить.
Просто хочу знать, сможет ли в конце концов всё запуститься без сбоев, остальное — пустое.