Наступление снижения цен на конечные модели вывода
21 мая Alibaba Cloud объявила о значительном снижении цен на API-вызовы для своей коммерческой модели Tongyi Qianwen и открытой модели. В частности, цена за ввод главной модели Qwen-Long снизилась с 0,02 юаня за тысячу токенов до 0,5 юаня за миллион токенов, что составляет снижение на 97%. Эта мера снижения цен привлекла широкое внимание в отрасли.
На самом деле, Tongyi Qianwen не является первой крупной моделью, которая снизила цены для разработчиков. С мая несколько производителей крупных моделей выпустили недорогие продукты или меры по снижению цен: API модели глубокого поиска одной компании стоит всего около одного процента от цены GPT-4-Turbo; цена на вызов модели GLM-3Turbo одной компании снизилась с 5 юаней за миллион токенов до 1 юаня за миллион токенов; одна компания представила новую модель, производительность которой сопоставима с GPT-4 Turbo, и открыла её для всех пользователей бесплатно, скорость вызова API увеличилась вдвое, но цена уменьшилась вдвое; цена на ввод основных моделей одной компании снизилась до 0,0008 юаня за тысячу токенов; одна компания объявила, что ее две основные модели полностью бесплатны; одна компания объявила, что ее API будет открытым навсегда.
Общее снижение цен на API больших моделей может быть вызвано прогрессом в технологии вывода и снижением затрат. Эта тенденция объективно предоставляет разработчикам больше возможностей и способствует широкому развитию приложений ИИ.
В то же время, Aliyun Tongyi также запустила ряд языковых моделей различного масштаба, параметры которых варьируются от 500 миллионов до 110 миллиардов. Малые модели, такие как 0,5B, 1,8B и т.д., могут быть развернуты на мобильных устройствах и ПК, в то время как большие модели, такие как 72B, 110B, могут поддерживать корпоративные и научные приложения; модели среднего размера, такие как 32B, стремятся найти баланс между производительностью, эффективностью и использованием памяти. Кроме того, Tongyi также открыла исходные коды для нескольких специализированных моделей, таких как визуальное понимание, аудиопонимание, код и смешанные эксперты. Эти меры окажут мощную поддержку для разнообразных сценариев применения ИИ.
"Снижение цен + открытый код" постепенно становится общим мнением среди мировых производителей крупных моделей. Эта стратегия может решить две основные проблемы, с которыми сталкиваются разработчики AI-приложений: слишком высокие цены на API крупных моделей и недостаточное качество открытых моделей, что, в свою очередь, будет способствовать полному процветанию AI-приложений.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
23 Лайков
Награда
23
9
Поделиться
комментарий
0/400
AirdropHunterKing
· 07-22 16:33
Эра бесплатного получения пришла. Ждите Клиповые купоны.
Посмотреть ОригиналОтветить0
RegenRestorer
· 07-22 05:48
Свернулось, да?
Посмотреть ОригиналОтветить0
WhaleMistaker
· 07-21 04:06
Должны ли цены на электричество также падать!
Посмотреть ОригиналОтветить0
LonelyAnchorman
· 07-19 17:33
Закатать до крови!
Посмотреть ОригиналОтветить0
rugpull_ptsd
· 07-19 17:32
разыгрывайте людей как лохов не получится, да?
Посмотреть ОригиналОтветить0
DEXRobinHood
· 07-19 17:31
мир криптовалют в серых тонах вынужден вести ценовые войны
Цены на API больших моделей значительно снижены, отечественные производители начали волны снижения цен.
Наступление снижения цен на конечные модели вывода
21 мая Alibaba Cloud объявила о значительном снижении цен на API-вызовы для своей коммерческой модели Tongyi Qianwen и открытой модели. В частности, цена за ввод главной модели Qwen-Long снизилась с 0,02 юаня за тысячу токенов до 0,5 юаня за миллион токенов, что составляет снижение на 97%. Эта мера снижения цен привлекла широкое внимание в отрасли.
На самом деле, Tongyi Qianwen не является первой крупной моделью, которая снизила цены для разработчиков. С мая несколько производителей крупных моделей выпустили недорогие продукты или меры по снижению цен: API модели глубокого поиска одной компании стоит всего около одного процента от цены GPT-4-Turbo; цена на вызов модели GLM-3Turbo одной компании снизилась с 5 юаней за миллион токенов до 1 юаня за миллион токенов; одна компания представила новую модель, производительность которой сопоставима с GPT-4 Turbo, и открыла её для всех пользователей бесплатно, скорость вызова API увеличилась вдвое, но цена уменьшилась вдвое; цена на ввод основных моделей одной компании снизилась до 0,0008 юаня за тысячу токенов; одна компания объявила, что ее две основные модели полностью бесплатны; одна компания объявила, что ее API будет открытым навсегда.
Общее снижение цен на API больших моделей может быть вызвано прогрессом в технологии вывода и снижением затрат. Эта тенденция объективно предоставляет разработчикам больше возможностей и способствует широкому развитию приложений ИИ.
В то же время, Aliyun Tongyi также запустила ряд языковых моделей различного масштаба, параметры которых варьируются от 500 миллионов до 110 миллиардов. Малые модели, такие как 0,5B, 1,8B и т.д., могут быть развернуты на мобильных устройствах и ПК, в то время как большие модели, такие как 72B, 110B, могут поддерживать корпоративные и научные приложения; модели среднего размера, такие как 32B, стремятся найти баланс между производительностью, эффективностью и использованием памяти. Кроме того, Tongyi также открыла исходные коды для нескольких специализированных моделей, таких как визуальное понимание, аудиопонимание, код и смешанные эксперты. Эти меры окажут мощную поддержку для разнообразных сценариев применения ИИ.
"Снижение цен + открытый код" постепенно становится общим мнением среди мировых производителей крупных моделей. Эта стратегия может решить две основные проблемы, с которыми сталкиваются разработчики AI-приложений: слишком высокие цены на API крупных моделей и недостаточное качество открытых моделей, что, в свою очередь, будет способствовать полному процветанию AI-приложений.