Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
YunTian LiFe QianKa AI Inferência Cluster implementado em Zhanjiang Criar um modelo ecológico de "modelo nacional e núcleo nacional"
12 de março, Yuntian Lifei (688343) venceu a licitação para o projeto de construção de infraestrutura de suporte à nova força produtiva baseada em AI em Zhanjiang, com um valor de 420 milhões de yuan. O projeto será baseado na aceleradora de inferência AI nacional desenvolvida pela Yuntian Lifei, criando um cluster de mil chips de inferência AI nacionais. Este cluster será equipado com grandes modelos nacionais como DeepSeek, oferecendo capacidades de AI mais acessíveis e de baixo custo para governação, indústria e diversas aplicações, explorando a criação de um ecossistema de AI com “modelos nacionais e chips nacionais”.
A capacidade de AI está a passar de “treinamento prioritário” para “inferência prioritária”
O cluster de inteligência é uma infraestrutura fundamental na era da inteligência artificial. No passado, muitos centros de inteligência no país adotaram um modelo de construção “treino e inferência integrados”. Este cluster em Zhanjiang, no entanto, é focado exclusivamente em tarefas de inferência AI, voltado para aplicações industriais, apoiando diretamente a digitalização de setores tradicionais.
Sabe-se que Zhanjiang é a cidade natal de Liang Wenfeng, fundador do grande modelo nacional DeepSeek. Nos últimos anos, a região tem explorado ativamente aplicações de “DeepSeek+”. Após o lançamento do DeepSeek-R1 no início de 2025, Zhanjiang realizou a implantação local, com o grande modelo baseado na pilha tecnológica nacional sendo lançado na nuvem governamental local. Este modelo consegue aprender continuamente sobre conhecimentos industriais locais e expressões dialetais, formando uma “Zhanjiang inteligente” com características regionais.
O cluster de inferência AI que a Yuntian Lifei está a construir também será profundamente compatível com modelos nacionais como o DeepSeek, fornecendo suporte de computação para mais aplicações industriais.
Em cenários de grandes modelos, os sistemas de inferência geralmente precisam atender a requisitos de alta concorrência, alto throughput e baixa latência simultaneamente. Para melhorar a eficiência geral, a indústria costuma usar uma arquitetura de inferência de “Pré-preenchimento e Decodificação separados”, otimizando recursos em diferentes fases para melhorar o desempenho do sistema. Nesse contexto, a colaboração entre capacidade de computação, armazenamento e rede está se tornando uma vantagem competitiva importante na infraestrutura de AI.
O cluster de mil chips de inferência em Zhanjiang foi construído com base nessa abordagem. Utiliza chips de inferência AI desenvolvidos pela Yuntian Lifei, com uma arquitetura que prioriza a otimização do Pré-preenchimento e equilibra a Decodificação. Através de configurações específicas de recursos de cálculo e largura de banda de armazenamento no design do chip, o sistema mantém alta eficiência de throughput mesmo em cenários de inferência de longo contexto.
Na parte de conectividade, o sistema usa uma arquitetura de alta velocidade unificada, com rede óptica de 400G para conectar fisicamente os clusters, garantindo comunicação de alta largura de banda e baixa latência entre os nós. Comparado a arquiteturas tradicionais que usam protocolos diferentes dentro e entre os nós, essa arquitetura homogênea reduz custos adicionais de conversão de protocolos e simplifica a implantação do sistema.
Em termos de capacidade de implantação, essa arquitetura suporta tanto a expansão de dezenas de chips em um único nó quanto a expansão suave para clusters de mil chips, atendendo a diferentes necessidades de aplicações de AI.
Além disso, para lidar com a pressão do acesso ao KV Cache em inferência de grandes modelos, o sistema foi otimizado de forma colaborativa na camada de conexão de cálculo e armazenamento. A coordenação conjunta entre rede de cálculo e rede de armazenamento melhora significativamente a eficiência de leitura de dados, mantendo desempenho estável em cenários de inferência de longo contexto. Com otimizações em arquitetura de chips, conectividade de rede e agendamento do sistema, esse cluster de inferência oferece vantagens claras em eficiência geral e custos, fornecendo uma solução de capacidade de computação mais econômica para aplicações de AI em escala.
Chips desenvolvidos internamente para construir capacidades de inferência de baixo custo
Segundo informações, o cluster de inferência AI será construído em três fases, todas usando aceleradoras de inferência AI nacionais desenvolvidas pela Yuntian Lifei.
A primeira fase implantará a aceleradora de inferência X6000; as fases duas e três terão os chips mais recentes da empresa.
De acordo com o plano, nos próximos três anos, a Yuntian Lifei lançará três gerações de chips de inferência AI. A primeira fase incluirá chips otimizados para cenários de longo contexto, com foco na eficiência de cálculo e acesso à memória, apoiando plataformas como OpenClaw e diversos agentes de AI. A segunda fase desenvolverá chips com baixa latência para a fase de Decodificação, melhorando ainda mais a inferência em tempo real. A terceira fase buscará uma otimização sistêmica para elevar o desempenho de Pré-preenchimento e Decodificação, atingindo tempos de inferência de milissegundos.
O primeiro chip de Pré-preenchimento, DeepVerse100, deve ser finalizado ainda este ano e será implantado inicialmente no cluster de Zhanjiang. Em planos de longo prazo, a Yuntian Lifei propôs o “Plano 1001”, com o objetivo de alcançar “cem bilhões de tokens por um centavo”, reduzindo continuamente os custos de inferência de grandes modelos por meio de otimizações conjuntas de chips e sistemas.
Na visão da indústria, a capacidade de inferência será uma infraestrutura chave para a implementação em larga escala de AI. Quem oferecer maior eficiência e menor custo na capacidade de inferência em grande escala terá vantagem na nova rodada de competição na indústria de inteligência artificial. A construção do cluster de mil chips de inferência em Zhanjiang não só fornece uma base importante para a transformação digital local, como também cria um cenário de prática para o desenvolvimento conjunto de modelos e chips nacionais. Com a colaboração profunda entre “modelos nacionais” e “chips nacionais”, a infraestrutura de AI está a evoluir da exploração tecnológica para a aplicação em escala, abrindo novas possibilidades para o próximo estágio do setor de inteligência artificial.