Então Jensen Huang falou sobre treino descentralizado de IA no podcast ALL-IN e a TAO impulsionou MUITO


Adivinha, @0g_labs já provou isso em junho de 2025 (Quase um ano atrás) ao lançar o artigo DiLoCoX no arXiv para treino de modelos de IA
Eles treinaram um modelo de 107 bilhões de parâmetros usando 20 computadores com apenas 1 Gbps de internet
Em comparação com o Bittensor Covenant de 72B ( que é um modelo treinado único), o DiLoCoX pode treinar QUALQUER modelo enquanto torna a comunicação 357x mais eficiente
Tem uma pilha completa por trás: Computação, Armazenamento, DA e Chain. Nenhum projeto possui todas as quatro camadas
A equipa falará sobre IA descentralizada na EthCC Cannes em 1 de abril, ansiosos 🙌
TAO-6,25%
0G-3,71%
Ver original
post-image
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar