Jin10 dados, 29 de setembro, a Cambricon anunciou em seu WeChat que, em 29 de setembro de 2025, a Cambricon já havia realizado a adaptação do mais recente modelo da empresa DeepSeek, o DeepSeek-V3.2-Exp, e liberado o Código-fonte do motor de inferência de grande modelo vLLM-MLU. Em relação à nova arquitetura do modelo DeepSeek-V3.2-Exp, a Cambricon implementou uma rápida adaptação através do operador Triton e utilizou o operador de fusão BangC para alcançar uma otimização de desempenho extrema, e com base na estratégia de paralelismo entre computação e comunicação, alcançou novamente um nível de eficiência computacional líder na indústria.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Camberra Day 0 adaptado para DeepSeek-V3.2-Exp, sincronização do motor de inferência Código aberto vLLM-MLU
Jin10 dados, 29 de setembro, a Cambricon anunciou em seu WeChat que, em 29 de setembro de 2025, a Cambricon já havia realizado a adaptação do mais recente modelo da empresa DeepSeek, o DeepSeek-V3.2-Exp, e liberado o Código-fonte do motor de inferência de grande modelo vLLM-MLU. Em relação à nova arquitetura do modelo DeepSeek-V3.2-Exp, a Cambricon implementou uma rápida adaptação através do operador Triton e utilizou o operador de fusão BangC para alcançar uma otimização de desempenho extrema, e com base na estratégia de paralelismo entre computação e comunicação, alcançou novamente um nível de eficiência computacional líder na indústria.