🔥 Gate Alpha 限时赏金活动第三期上线!
在 Alpha 区交易热门代币,瓜分 $30,000 奖池!
💰 奖励规则:
1️⃣ 连续2日每日交易满 128 USDT,即可参与共享 $20,000 美金盲盒奖励
2️⃣ 累计买入 ≥1,024 USDT,交易量前100名可直领奖励 100美金盲盒
⏰ 活动时间:8月29日 16:00 — 8月31日 16:00 (UTC+8)
👉 立即参与交易: https://www.gate.com/announcements/article/46841
#GateAlpha # #GateAlphaPoints # #onchain#
A16z 推出由 NVIDIA Blackwell GPU 提供支持的 AI 工作站
在一个由基础模型和海量数据集主导的时代,开发者和研究人员越来越面临计算访问的瓶颈。虽然云计算提供了可扩展性,但隐私、延迟和成本的担忧使得许多构建者寻求高性能的本地替代方案。风险投资公司A16z现已推出其定制的AI工作站,旨在直接在本地提供企业级性能——由NVIDIA最新的Blackwell GPU提供支持。
满足高需求AI工作负载的全带宽
系统的核心是四个 NVIDIA RTX 6000 Pro Blackwell Max-Q GPU,每个配备 96GB 的 VRAM,总计 384GB。与典型的多 GPU 工作站将带宽分配到各个卡的方式不同,这里的每个 GPU 通过自己的专用 PCIe 5.0 x16 通道连接。这个设计提供了完整的 GPU 到 CPU 的带宽,确保模型训练和推理不出现瓶颈。
该系统配备了AMD的Ryzen Threadripper PRO 7975WX,这是一款针对重并行工作负载优化的32核64线程CPU。CPU与GPU共同创造了一个平衡的环境,用于训练大型语言模型、微调专业系统和运行多模态AI应用。
为扩展而构建的存储和内存
为了跟上GPU的吞吐量,A16z的工作站配备了四个2TB PCIe 5.0 NVMe SSD,提供近60GB/s的聚合带宽在RAID 0模式下。该机器还配备256GB的ECC DDR5内存,可扩展至2TB,支持八个通道。
这种组合不仅加速了大数据集的处理,还集成了NVIDIA GPUDirect Storage,使数据能够直接从SSD流向GPU内存。通过绕过CPU内存,这种设计显著减少了依赖快速数据移动的工作负载的延迟。
能源效率与流动性
尽管其强大的性能,这台工作站在能耗方面却出乎意料地节能。它的最大功耗为1650W,能够从标准的15安培插座供电。液体冷却系统在长时间的训练过程中稳定CPU,而机箱内置轮子,使得该设备可以在实验室和办公室之间方便移动。
释放地方AI潜力
A16z工作站被定位为研究人员和初创企业的灵活工具。它使团队能够在本地训练、微调和部署模型,而无需将敏感数据交给云端。除了大型语言模型,这台机器还支持多模态AI,使得文本、视频和图像数据的工作负载能够同时进行。
通过结合企业级GPU性能、大量存储带宽和实用设计,A16z的AI工作站在对AI资源需求空前增长的时刻,提供了本地计算基础设施的引人注目的愿景。