Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
DeepSeek nouvelle publication : comment l'architecture hyperconnectée à contrainte de variété résout les difficultés d'entraînement des réseaux profonds
【链文】DeepSeek récemment publié un nouveau papier qui a attiré l’attention du cercle technologique. Ils ont proposé une nouvelle architecture appelée contrainte de manifold hyperconnecté (mHC), dont l’objectif principal est en fait très simple — résoudre deux points douloureux des réseaux hyperconnectés (HC) existants : l’instabilité de l’entraînement et la limitation de l’évolutivité.
La racine du problème réside dans le fait que la technologie HC viole la propriété de la mapping identité. La solution de DeepSeek consiste à mapper l’espace de connexion résiduelle de HC sur un manifold spécifique, ce qui permet de restaurer la propriété de la mapping identité. Cela peut sembler un peu abstrait, mais en résumé, il s’agit d’utiliser une cartographie mathématique plus intelligente pour rendre l’entraînement des réseaux profonds plus stable et plus évolutif.
Le papier intègre également une optimisation de l’infrastructure pour garantir une efficacité pratique, et les résultats expérimentaux montrent une amélioration significative des performances, avec une excellente évolutivité. Cela signifie qu’avec des structures de réseau plus profondes, le processus d’entraînement devient plus contrôlable.
DeepSeek considère que le mHC est une extension flexible et pratique de la technologie HC, ce travail non seulement aide l’industrie à mieux comprendre la conception architecturale topologique, mais indique également une direction très prometteuse pour l’évolution des grands modèles. Ce papier a été réalisé en collaboration avec 解振达, 韦毅轩, 曹焕琪 et 梁文锋.
À long terme, ce type de percée dans l’infrastructure de base aura des impacts profonds sur la stabilité et l’évolutivité des grands modèles.
Encore ces magies noires mathématiques ? En gros, c'est pour que le réseau d'entraînement ne lâche pas la connexion
Je ne comprends vraiment pas la contrainte de variété, mais si les données expérimentales sont belles, c'est suffisant
Le réseau profond peut enfin être entraîné de manière stable ? Cette fois, encore une fois, certains vont se faire dépasser
Mais en y repensant, si la scalabilité peut vraiment être résolue, la mise en application sera beaucoup plus rapide par la suite
Si cet article est vraiment fiable, cela montre que la couche de base de l'IA a encore beaucoup de trous à combler
Attends, comment est l'efficacité quand ça tourne réellement ? Ne serait-ce pas encore une façade brillante sur le papier
La nouvelle architecture semble impressionnante, mais il faut attendre que le marché la valide pour voir ses effets réels, en tout cas je reste sceptique.
Cette logique est comme mon trading de crypto, la théorie est parfaite, mais la réalité s'effondre, haha.
Cette vague de DeepSeek prépare en quelque sorte le terrain pour l'entraînement de grands modèles, si le réseau profond devient stable, la probabilité de voir apparaître des modèles de niveau monstre augmente.
Honnêtement, si ce genre de recherche fondamentale est bien menée, ce sont surtout les grandes entreprises qui en bénéficient, nous, petits investisseurs, ne pouvons que manger les restes.
Si on peut vraiment stabiliser l'entraînement profond, il faudra examiner attentivement les données expérimentales, ne pas encore une fois se laisser séduire par un papier impressionnant mais peu pratique
La restauration de la propriété de la mapping identité... on attendra les retours de l'environnement de production, ce n'est pas trop tard pour en faire l'éloge
Les papiers sur Deep deviennent de plus en plus compétitifs, si on parvient à une véritable avancée en termes de scalabilité, ce serait une excellente nouvelle pour le coût de l'entraînement des grands modèles
Je dois examiner attentivement cette approche de la mapping mathématique, j'ai l'impression qu'on va encore devoir faire le lien entre théorie et pratique pendant un bon moment
Les données on-chain n'ont pas encore bougé, nous, petits investisseurs, préférons observer d'abord pour éviter de devenir les pigeons. Mais pour revenir à ce que je disais, cette vague de DeepSeek est vraiment au cœur de la tempête, ceux qui ont misé tôt risquent de rire.
La contrainte de manifold semble très avancée, mais à quel point cette innovation architecturale est-elle encore éloignée d'une application concrète ? Des grandes institutions exploitent-elles déjà cette différence pour faire de l'arbitrage ?
Honnêtement, les percées purement techniques sont souvent trop médiatisées, je parie en réalité sur la réaction du marché, pas sur le papier lui-même. Si les frais de transaction des mineurs suivent, c'est le moment pour moi de partir.
Quand sortira la dernière donnée sur l'évolutivité ? Y a-t-il une comparaison détaillée avec des solutions concurrentes ? C'est ce qui m'importe vraiment.
---
DeepSeek propose une nouvelle fonctionnalité, on dirait qu'ils essaient de réparer les vieux problèmes de la technologie HC
---
Après tout, il s'agit simplement de rendre l'entraînement plus stable, mais on ne sait pas encore à quelle vitesse cela peut réellement fonctionner
---
Je n'ai pas trop compris la partie sur la correspondance d'identité, on dirait que les auteurs de papiers compliquent les choses simples
---
Une excellente évolutivité ? Combien de points de pourcentage en plus par rapport aux solutions existantes ? Y a-t-il un benchmark ?
---
Encore une architecture "révolutionnaire", on attend de voir si elle pourra être utilisée dans des scénarios réels
---
Le terme contrainte de manifold sonne très cher, on ne sait pas combien cela coûte en pratique
---
L'optimisation d'algorithmes, c'est toujours : "théoriquement ça marche, en pratique ça dépend du GPU"
---
On dirait qu'ils ont mis du cœur à l'ouvrage, mais dans les papiers, tout semble en surface, où sont les détails ?
---
Le problème de stabilité de l'entraînement des réseaux profonds est résolu, mais qu'en est-il de la consommation de mémoire ? Ce genre de solution a souvent des bugs, non
Contrainte de manifold ? En termes simples, c'est pour éviter que l'entraînement du réseau ne plante, de toute façon je n'ai pas compris haha
Les réseaux profonds sont plus stables, est-ce que ça aide à l'optimisation du minage ?
Mappage mathématique, mappage, mappage, ça peut directement améliorer l'efficacité du calcul des frais de gas, non ?
DeepSeek retravaille encore l'architecture du modèle, ce rythme est vraiment difficile à suivre
Je veux juste savoir si ça pourra finalement fonctionner sans planter, tout le reste c'est du vent