👀 家人们,每天看行情、刷大佬观点,却从来不开口说两句?你的观点可能比你想的更有价值!
广场新人 & 回归福利正式上线!不管你是第一次发帖还是久违回归,我们都直接送你奖励!🎁
每月 $20,000 奖金等你来领!
📅 活动时间: 长期有效(月底结算)
💎 参与方式:
用户需为首次发帖的新用户或一个月未发帖的回归用户。
发帖时必须带上话题标签: #我在广场发首帖 。
内容不限:币圈新闻、行情分析、晒单吐槽、币种推荐皆可。
💰 奖励机制:
必得奖:发帖体验券
每位有效发帖用户都可获得 $50 仓位体验券。(注:每月奖池上限 $20,000,先到先得!如果大家太热情,我们会继续加码!)
进阶奖:发帖双王争霸
月度发帖王: 当月发帖数量最多的用户,额外奖励 50U。
月度互动王: 当月帖子互动量(点赞+评论+转发+分享)最高的用户,额外奖励 50U。
📝 发帖要求:
帖子字数需 大于30字,拒绝纯表情或无意义字符。
内容需积极健康,符合社区规范,严禁广告引流及违规内容。
💡 你的观点可能会启发无数人,你的第一次分享也许就是成为“广场大V”的起点,现在就开始广场创作之旅吧!
Akash Network 推出 AkashML,首个基于去中心化 GPU 的全托管 AI 推理服务
简要
Akash Network 推出了 AkashML,提供兼容 OpenAI 的 API、全球低延迟访问,并在部署大语言模型(LLM)时可节省高达 85% 的成本。
Akash Network 作为云计算市场,推出了首个完全基于去中心化 GPU 的全面托管 AI 推理服务。该新服务消除了开发者此前在 Akash 上管理生产级推理时遇到的运营难题,让用户无需亲自管理基础设施,即可享受去中心化云计算的优势。
在发布时,AkashML 已支持包括 Llama 3.3-70B、DeepSeek V3 以及 Qwen3-30B-A3B 等模型的托管推理,可立即部署,并能在全球 65 个以上的数据中心进行扩展。该架构实现了全球范围的即时推理、可预测的按 token 支付定价,并提升了开发者生产力。
自 OpenAI 推动 AI 应用浪潮以来,Akash 一直支持早期 AI 开发者和初创企业。过去几年,Akash Core 团队与包括 brev.dev((被英伟达收购))、VeniceAI 和 Prime Intellect 等客户合作,推出了服务数万用户的产品。虽然这些早期用户技术实力较强,能自行管理基础设施,但反馈指出他们更倾向于无需处理底层系统的 API 访问方式。基于这些反馈,团队开发了面向特定用户的非公开版 AkashML,以及 AkashChat 和 AkashChat API,为 AkashML 的公开发布奠定了基础。
AkashML 可将 LLM 部署成本降低高达 85%
该新方案解决了开发者和企业在部署大语言模型时面临的多项关键挑战。传统云解决方案成本高昂,70B 型号的预留实例每百万 tokens 输入成本超 $0.13,输出成本超 $0.40,而 AkashML 通过市场竞争,将费用降低 70-85%。运维负担也是一大障碍,打包模型、配置 vLLM 或 TGI 服务器、管理分片及故障转移可能耗费数周工程时间;AkashML 通过兼容 OpenAI 的 API,使迁移过程无需更改代码、几分钟即可完成。
集中式平台还存在延迟问题,请求往往需跨越长距离。AkashML 会将流量路由至全球 80 多个最近的数据中心,实现小于 200 毫秒的响应时间,适用于实时应用。供应商锁定限制了对模型和数据的灵活性与控制;AkashML 仅使用开源模型如 Llama、DeepSeek 和 Qwen,用户可完全掌控模型版本、升级和治理。可扩展性难题通过自动扩展去中心化 GPU 资源得到缓解,保障 99% 正常运行时间,无容量限制,并避免价格突涨。
AkashML 旨在实现快速上手和即时回报。新用户可获得 $100 AI 代币积分,用于通过 Playground 或 API 体验所有支持的模型。所有模型共用单一 API 端点,并可集成到 LangChain、Haystack 或自定义 Agent。定价透明并按模型区分,避免意外支出。高影响力部署可通过 Akash Star 获得曝光,未来网络升级如 BME、虚拟机和机密计算将进一步降低成本。早期用户已报告成本降低三到五倍,全球延迟始终低于 200 毫秒,实现了成本下降、使用率提升和服务商参与度扩大的良性循环。
上手极为简单:用户只需两分钟即可在 playground.akashml.com 免费注册账号,浏览包括 Llama 3.3-70B、DeepSeek V3 及 Qwen3-30B-A3B 在内的模型库,并提前了解价格。可直接在平台上申请其他模型。用户可在 Playground 或通过 API 即时测试模型,通过仪表盘监控用量、延迟和支出,并通过区域绑定和自动扩展实现生产级部署。
集中式推理依然成本高昂、速度慢且限制多,而 AkashML 则通过 API 优先、去中心化的方式,以市场定价为开发者和企业提供对顶级开源模型的全面托管访问。希望将推理成本降低至 80% 的开发者和企业可立即开始使用该平台。