Rapport de recherche sur AI Layer1 : à la recherche de terres fertiles pour DeAI off-chain
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont continuellement propulsé le développement rapide des modèles de langage de grande taille (LLM). Les LLM ont montré des capacités sans précédent dans divers secteurs, élargissant considérablement l'imagination humaine, et ont même démontré, dans certains cas, un potentiel de substitution au travail humain. Cependant, le cœur de ces technologies est fermement contrôlé par quelques géants technologiques centralisés. Grâce à leur capital solide et à leur maîtrise des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficilement surmontables, rendant la concurrence difficile pour la grande majorité des développeurs et des équipes d'innovation.
Au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention portée à des questions fondamentales telles que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptabilité sociale. Si ces questions ne sont pas résolues de manière appropriée, le débat sur si l'IA doit "aller vers le bien" ou "vers le mal" deviendra de plus en plus saillant, tandis que les géants centralisés, motivés par leur instinct de profit, manquent souvent de la motivation suffisante pour faire face à ces défis de manière proactive.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" émergent sur certaines blockchains majeures. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les maillons critiques et les infrastructures dépendent encore des services cloud centralisés, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA on-chain reste limitée en termes de capacité des modèles, d'utilisation des données et de cas d'utilisation, et la profondeur et l'ampleur de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain de supporter des applications IA à grande échelle de manière sécurisée, efficace et démocratique, et de rivaliser en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer 1 spécifiquement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la démocratie de gouvernance et la sécurité des données, favorisant le développement prospère d'un écosystème d'IA décentralisé.
Les caractéristiques clés de l'IA Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a une architecture sous-jacente et un design de performance étroitement alignés sur les besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème IA off-chain. Plus précisément, AI Layer 1 devrait posséder les capacités clés suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace
Le cœur de l'AI Layer 1 réside dans la construction d'un réseau de partage ouvert des ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la tenue des livres, les nœuds de l'AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, réaliser l'entraînement et l'inférence des modèles d'IA, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur l'infrastructure de l'IA. Cela impose des exigences plus élevées en matière de consensus et de mécanismes d'incitation : l'AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans des tâches telles que l'inférence et l'entraînement de l'IA, réalisant ainsi la sécurité du réseau et une allocation efficace des ressources. Ce n'est qu'ainsi que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente performance élevée et capacité de support des tâches hétérogènes
Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, imposent des exigences très élevées en matière de performance de calcul et de capacité de traitement parallèle. De plus, l'écosystème AI off-chain nécessite souvent de prendre en charge une variété de types de tâches hétérogènes, y compris différentes structures de modèles, traitement des données, inférence, stockage et autres scénarios variés. La couche AI Layer 1 doit être profondément optimisée au niveau de l'architecture sous-jacente pour répondre aux besoins de haute capacité, de faible latence et de parallélisme élastique, et prévoir une capacité de support natif pour les ressources de calcul hétérogènes, garantissant que toutes les tâches d'IA peuvent fonctionner efficacement, permettant une extension fluide allant de "tâches uniques" à "écosystèmes complexes et diversifiés".
Vérifiabilité et garantie de sortie fiable
AI Layer 1 doit non seulement prévenir les risques de sécurité tels que la malveillance des modèles et la falsification des données, mais aussi garantir la vérifiabilité et l'alignement des résultats produits par l'IA dès le mécanisme de base. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), les preuves à divulgation nulle de connaissance (ZK) et le calcul sécurisé multiparty (MPC), la plateforme permet à chaque processus d'inférence, d'entraînement et de traitement des données d'être vérifié de manière indépendante, assurant ainsi l'équité et la transparence du système IA. Parallèlement, cette vérifiabilité aide les utilisateurs à comprendre clairement la logique et les fondements des sorties de l'IA, réalisant "ce qui est obtenu est ce qui est souhaité", augmentant ainsi la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données
Les applications d'IA impliquent souvent des données sensibles des utilisateurs. Dans les domaines financier, médical et social, la protection de la vie privée des données est particulièrement cruciale. L'IA Layer 1 devrait garantir la vérifiabilité tout en utilisant des techniques de traitement de données basées sur le cryptage, des protocoles de calcul de la vie privée et des méthodes de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, d'empêcher efficacement les fuites de données et les abus, et d'éliminer les préoccupations des utilisateurs concernant la sécurité des données.
Puissante capacité d'hébergement et de support au développement de l'écosystème
En tant qu'infrastructure de couche 1 natif de l'IA, la plateforme doit non seulement posséder une avance technique, mais aussi fournir aux développeurs, opérateurs de nœuds, fournisseurs de services d'IA et autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, on favorise la mise en œuvre d'applications variées et riches basées sur l'IA, réalisant ainsi la prospérité continue d'un écosystème d'IA décentralisé.
Sur la base de ce contexte et de ces attentes, cet article présentera en détail six projets représentatifs de l'AI Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en examinant les dernières avancées dans le domaine, en analysant l'état actuel du développement des projets et en explorant les tendances futures.
Sentient : Construire des modèles d'IA décentralisés et open source fidèles
Aperçu du projet
Sentient est une plateforme de protocole open-source qui développe une blockchain AI Layer1. La phase initiale est Layer 2, puis elle sera migrée vers Layer 1(. En combinant AI Pipeline et technologie blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de suivi des appels et de répartition de la valeur sur le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant aux modèles d'IA d'atteindre une structure de propriété on-chain, une transparence des appels et une répartition de la valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits d'IA, afin de promouvoir un écosystème de réseau d'agents d'IA équitable et ouvert.
L'équipe de Sentient Foundation réunit des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, s'engageant à construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent le professeur Pramod Viswanath de l'université de Princeton et le professeur Himanshu Tyagi de l'Institut indien de science, responsables respectivement de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, cofondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe ont des antécédents dans des entreprises renommées telles que Meta, Coinbase, Polygon, ainsi que dans des universités de premier plan comme l'université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP, et la vision par ordinateur, travaillant ensemble pour faire avancer le projet.
En tant que projet de deuxième entreprise de Sandeep Nailwal, co-fondateur de Polygon, Sentient a dès le départ bénéficié d'un halo, avec des ressources, des relations et une reconnaissance sur le marché riches, offrant un puissant soutien au développement du projet. À la mi-2024, Sentient a complété un financement de série seed de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, avec d'autres institutions d'investissement comprenant Delphi, Hashkey et Spartan, parmi des dizaines de VC renommés.
![Biteye et PANews publient conjointement un rapport de recherche sur AI Layer1 : à la recherche d'un sol fertile pour DeAI off-chain])/images/8337Radfz2.png(
) architecture de conception et couche d'application
couche d'infrastructure
Architecture centrale
L'architecture de base de Sentient est composée de deux parties : le pipeline AI (AI Pipeline) et le système blockchain.
Le pipeline AI est la base du développement et de l'entraînement des artefacts "AI loyal", comprenant deux processus clés :
Planification des données (Data Curation) : processus de sélection des données piloté par la communauté, destiné à l'alignement des modèles.
Formation à la fidélité (Loyalty Training) : assurer que le modèle maintienne un processus d'entraînement aligné avec les intentions de la communauté.
Le système blockchain offre transparence et contrôle décentralisé pour le protocole, garantissant la propriété des artefacts AI, le suivi d'utilisation, la distribution des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
Couche de stockage : stocke les poids du modèle et les informations d'enregistrement des empreintes.
Couche de distribution : le contrat d'autorisation contrôle le point d'entrée de l'appel du modèle ;
Couche d'accès : vérifier si l'utilisateur est autorisé via une preuve d'autorisation ;
Couche d'incitation : le contrat de routage des revenus attribuera chaque paiement lors de l'appel aux formateurs, déployeurs et validateurs.
Cadre de modèle OML
Le cadre OML (Ouvert Open, Monétisable Monetizable, Loyal Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles AI open source. En combinant la technologie off-chain et la cryptographie native à l'IA, il présente les caractéristiques suivantes :
Ouverture : Le modèle doit être open source, le code et la structure des données doivent être transparents, facilitant ainsi la reproduction, l'audit et l'amélioration par la communauté.
Monétisation : Chaque appel de modèle déclenche un flux de revenus, le contrat off-chain répartit les revenus entre les formateurs, les déployeurs et les validateurs.
Fidélité : Le modèle appartient à la communauté des contributeurs, la direction des mises à jour et la gouvernance sont décidées par le DAO, et son utilisation et sa modification sont contrôlées par un mécanisme cryptographique.
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure de variété de faible dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie clé est :
Empreinte digitale : insérer un ensemble de paires clé-valeur query-response cachées lors de l'entraînement pour former une signature unique du modèle ;
Protocole de vérification de la propriété : vérifier si l'empreinte digitale est conservée par le biais d'un détecteur tiers (Prover) sous forme de question query ;
Mécanisme d'appel autorisé : Avant d'appeler, il est nécessaire d'obtenir un "certificat d'autorisation" délivré par le propriétaire du modèle, le système autorisera ensuite le modèle à décoder cette entrée et à renvoyer la réponse exacte.
Cette méthode permet de réaliser "appel autorisé basé sur le comportement + vérification d'appartenance" sans coût de réencryption.
Cadre d'exécution sécurisée et de certification des modèles
Sentient utilise actuellement la sécurité hybride Melange : combinaison de la vérification par empreinte digitale, de l'exécution TEE et du partage des profits des contrats off-chain. La méthode par empreinte digitale est mise en œuvre par OML 1.0, soulignant la pensée de "sécurité optimiste (Optimistic Security)", c'est-à-dire une conformité par défaut, avec la possibilité de détecter et de punir en cas de violation.
Le mécanisme d'empreinte digitale est une réalisation clé d'OML, qui permet au modèle de générer une signature unique pendant la phase d'entraînement en intégrant des paires "question-réponse" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi la copie et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, qui utilise des environnements d'exécution de confiance (comme AWS Nitro Enclaves) pour garantir que les modèles ne répondent qu'aux demandes autorisées, empêchant ainsi l'accès et l'utilisation non autorisés. Bien que le TEE repose sur du matériel et présente certains risques de sécurité, ses avantages en termes de haute performance et de temps réel en font une technologie clé pour le déploiement des modèles actuels.
À l'avenir, Sentient prévoit d'introduire des technologies de preuve à divulgation nulle de connaissance (ZK) et de cryptographie homomorphe complète (FHE) pour renforcer davantage la protection de la vie privée et la vérifiabilité, offrant des solutions plus matures pour le déploiement décentralisé des modèles d'IA.
![Biteye et PANews publient conjointement un rapport de recherche sur AI Layer1 : à la recherche de la terre fertile pour DeAI off-chain]###
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
5 J'aime
Récompense
5
3
Reposter
Partager
Commentaire
0/400
GasWhisperer
· Il y a 3h
je peux sentir la guerre du gaz L1 arriver... les modèles centralisés vont se faire détruire quand deAI frappera
Recherche sur l'écosystème AI Layer1 : exploration de l'infrastructure de l'intelligence artificielle décentralisée
Rapport de recherche sur AI Layer1 : à la recherche de terres fertiles pour DeAI off-chain
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont continuellement propulsé le développement rapide des modèles de langage de grande taille (LLM). Les LLM ont montré des capacités sans précédent dans divers secteurs, élargissant considérablement l'imagination humaine, et ont même démontré, dans certains cas, un potentiel de substitution au travail humain. Cependant, le cœur de ces technologies est fermement contrôlé par quelques géants technologiques centralisés. Grâce à leur capital solide et à leur maîtrise des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficilement surmontables, rendant la concurrence difficile pour la grande majorité des développeurs et des équipes d'innovation.
Au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention portée à des questions fondamentales telles que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptabilité sociale. Si ces questions ne sont pas résolues de manière appropriée, le débat sur si l'IA doit "aller vers le bien" ou "vers le mal" deviendra de plus en plus saillant, tandis que les géants centralisés, motivés par leur instinct de profit, manquent souvent de la motivation suffisante pour faire face à ces défis de manière proactive.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" émergent sur certaines blockchains majeures. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les maillons critiques et les infrastructures dépendent encore des services cloud centralisés, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA on-chain reste limitée en termes de capacité des modèles, d'utilisation des données et de cas d'utilisation, et la profondeur et l'ampleur de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain de supporter des applications IA à grande échelle de manière sécurisée, efficace et démocratique, et de rivaliser en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer 1 spécifiquement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la démocratie de gouvernance et la sécurité des données, favorisant le développement prospère d'un écosystème d'IA décentralisé.
Les caractéristiques clés de l'IA Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a une architecture sous-jacente et un design de performance étroitement alignés sur les besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème IA off-chain. Plus précisément, AI Layer 1 devrait posséder les capacités clés suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace Le cœur de l'AI Layer 1 réside dans la construction d'un réseau de partage ouvert des ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la tenue des livres, les nœuds de l'AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, réaliser l'entraînement et l'inférence des modèles d'IA, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur l'infrastructure de l'IA. Cela impose des exigences plus élevées en matière de consensus et de mécanismes d'incitation : l'AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans des tâches telles que l'inférence et l'entraînement de l'IA, réalisant ainsi la sécurité du réseau et une allocation efficace des ressources. Ce n'est qu'ainsi que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente performance élevée et capacité de support des tâches hétérogènes Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, imposent des exigences très élevées en matière de performance de calcul et de capacité de traitement parallèle. De plus, l'écosystème AI off-chain nécessite souvent de prendre en charge une variété de types de tâches hétérogènes, y compris différentes structures de modèles, traitement des données, inférence, stockage et autres scénarios variés. La couche AI Layer 1 doit être profondément optimisée au niveau de l'architecture sous-jacente pour répondre aux besoins de haute capacité, de faible latence et de parallélisme élastique, et prévoir une capacité de support natif pour les ressources de calcul hétérogènes, garantissant que toutes les tâches d'IA peuvent fonctionner efficacement, permettant une extension fluide allant de "tâches uniques" à "écosystèmes complexes et diversifiés".
Vérifiabilité et garantie de sortie fiable AI Layer 1 doit non seulement prévenir les risques de sécurité tels que la malveillance des modèles et la falsification des données, mais aussi garantir la vérifiabilité et l'alignement des résultats produits par l'IA dès le mécanisme de base. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), les preuves à divulgation nulle de connaissance (ZK) et le calcul sécurisé multiparty (MPC), la plateforme permet à chaque processus d'inférence, d'entraînement et de traitement des données d'être vérifié de manière indépendante, assurant ainsi l'équité et la transparence du système IA. Parallèlement, cette vérifiabilité aide les utilisateurs à comprendre clairement la logique et les fondements des sorties de l'IA, réalisant "ce qui est obtenu est ce qui est souhaité", augmentant ainsi la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs. Dans les domaines financier, médical et social, la protection de la vie privée des données est particulièrement cruciale. L'IA Layer 1 devrait garantir la vérifiabilité tout en utilisant des techniques de traitement de données basées sur le cryptage, des protocoles de calcul de la vie privée et des méthodes de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, d'empêcher efficacement les fuites de données et les abus, et d'éliminer les préoccupations des utilisateurs concernant la sécurité des données.
Puissante capacité d'hébergement et de support au développement de l'écosystème En tant qu'infrastructure de couche 1 natif de l'IA, la plateforme doit non seulement posséder une avance technique, mais aussi fournir aux développeurs, opérateurs de nœuds, fournisseurs de services d'IA et autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, on favorise la mise en œuvre d'applications variées et riches basées sur l'IA, réalisant ainsi la prospérité continue d'un écosystème d'IA décentralisé.
Sur la base de ce contexte et de ces attentes, cet article présentera en détail six projets représentatifs de l'AI Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en examinant les dernières avancées dans le domaine, en analysant l'état actuel du développement des projets et en explorant les tendances futures.
Sentient : Construire des modèles d'IA décentralisés et open source fidèles
Aperçu du projet
Sentient est une plateforme de protocole open-source qui développe une blockchain AI Layer1. La phase initiale est Layer 2, puis elle sera migrée vers Layer 1(. En combinant AI Pipeline et technologie blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de suivi des appels et de répartition de la valeur sur le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant aux modèles d'IA d'atteindre une structure de propriété on-chain, une transparence des appels et une répartition de la valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits d'IA, afin de promouvoir un écosystème de réseau d'agents d'IA équitable et ouvert.
L'équipe de Sentient Foundation réunit des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, s'engageant à construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent le professeur Pramod Viswanath de l'université de Princeton et le professeur Himanshu Tyagi de l'Institut indien de science, responsables respectivement de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, cofondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe ont des antécédents dans des entreprises renommées telles que Meta, Coinbase, Polygon, ainsi que dans des universités de premier plan comme l'université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP, et la vision par ordinateur, travaillant ensemble pour faire avancer le projet.
En tant que projet de deuxième entreprise de Sandeep Nailwal, co-fondateur de Polygon, Sentient a dès le départ bénéficié d'un halo, avec des ressources, des relations et une reconnaissance sur le marché riches, offrant un puissant soutien au développement du projet. À la mi-2024, Sentient a complété un financement de série seed de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, avec d'autres institutions d'investissement comprenant Delphi, Hashkey et Spartan, parmi des dizaines de VC renommés.
![Biteye et PANews publient conjointement un rapport de recherche sur AI Layer1 : à la recherche d'un sol fertile pour DeAI off-chain])/images/8337Radfz2.png(
) architecture de conception et couche d'application
couche d'infrastructure
Architecture centrale
L'architecture de base de Sentient est composée de deux parties : le pipeline AI (AI Pipeline) et le système blockchain.
Le pipeline AI est la base du développement et de l'entraînement des artefacts "AI loyal", comprenant deux processus clés :
Le système blockchain offre transparence et contrôle décentralisé pour le protocole, garantissant la propriété des artefacts AI, le suivi d'utilisation, la distribution des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
Cadre de modèle OML
Le cadre OML (Ouvert Open, Monétisable Monetizable, Loyal Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles AI open source. En combinant la technologie off-chain et la cryptographie native à l'IA, il présente les caractéristiques suivantes :
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure de variété de faible dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie clé est :
Cette méthode permet de réaliser "appel autorisé basé sur le comportement + vérification d'appartenance" sans coût de réencryption.
Cadre d'exécution sécurisée et de certification des modèles
Sentient utilise actuellement la sécurité hybride Melange : combinaison de la vérification par empreinte digitale, de l'exécution TEE et du partage des profits des contrats off-chain. La méthode par empreinte digitale est mise en œuvre par OML 1.0, soulignant la pensée de "sécurité optimiste (Optimistic Security)", c'est-à-dire une conformité par défaut, avec la possibilité de détecter et de punir en cas de violation.
Le mécanisme d'empreinte digitale est une réalisation clé d'OML, qui permet au modèle de générer une signature unique pendant la phase d'entraînement en intégrant des paires "question-réponse" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi la copie et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, qui utilise des environnements d'exécution de confiance (comme AWS Nitro Enclaves) pour garantir que les modèles ne répondent qu'aux demandes autorisées, empêchant ainsi l'accès et l'utilisation non autorisés. Bien que le TEE repose sur du matériel et présente certains risques de sécurité, ses avantages en termes de haute performance et de temps réel en font une technologie clé pour le déploiement des modèles actuels.
À l'avenir, Sentient prévoit d'introduire des technologies de preuve à divulgation nulle de connaissance (ZK) et de cryptographie homomorphe complète (FHE) pour renforcer davantage la protection de la vie privée et la vérifiabilité, offrant des solutions plus matures pour le déploiement décentralisé des modèles d'IA.
![Biteye et PANews publient conjointement un rapport de recherche sur AI Layer1 : à la recherche de la terre fertile pour DeAI off-chain]###