Rapport de recherche sur AI Layer1 : à la recherche des terres fertiles pour DeAI off-chain
Aperçu
Contexte
Ces dernières années, des entreprises technologiques de premier plan comme OpenAI, Anthropic, Google et Meta ont continuellement poussé le développement rapide des grands modèles de langage. Ces modèles montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humaine et montrant même dans certains scénarios le potentiel de remplacer le travail humain. Cependant, le cœur de ces technologies est fermement contrôlé par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle sur des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant la compétition difficile pour la grande majorité des développeurs et des équipes d'innovation.
Au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités offertes par la technologie, tandis que l'attention portée aux problèmes fondamentaux tels que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces questions ne sont pas résolues de manière appropriée, le débat sur le fait que l'IA soit "bienveillante" ou "malveillante" deviendra de plus en plus prononcé, et les géants centralisés, motivés par leur instinct de profit, manquent souvent de la dynamique nécessaire pour faire face à ces défis.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour un développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont déjà émergé sur certaines blockchains populaires. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les éléments clés et les infrastructures dépendent encore des services cloud centralisés, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA sur la chaîne reste limitée en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, et la profondeur et la largeur de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain de supporter des applications AI à grande échelle de manière sécurisée, efficace et démocratique, tout en rivalisant en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer 1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la gouvernance démocratique et la sécurité des données, favorisant le développement prospère d'un écosystème d'IA décentralisé.
Les caractéristiques clés de AI Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a son architecture sous-jacente et sa conception de performance étroitement liées aux besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème IA off-chain. Plus précisément, AI Layer 1 devrait posséder les capacités clés suivantes :
Mécanisme d'incitation efficace et de consensus décentralisé Le cœur de AI Layer 1 réside dans la construction d'un réseau partagé de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité des registres, les nœuds de AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul et effectuer l'entraînement et l'inférence des modèles d'IA, mais également contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, rompant ainsi le monopole des géants centralisés sur les infrastructures d'IA. Cela impose des exigences plus élevées sur le consensus de base et le mécanisme d'incitation : AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans des tâches telles que l'inférence et l'entraînement de l'IA, afin d'assurer la sécurité du réseau et une répartition efficace des ressources. Ce n'est que de cette manière que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Performance élevée et capacité de support des tâches hétérogènes Les tâches d'IA, en particulier l'entraînement et l'inférence des grands modèles de langage, posent des exigences très élevées en matière de performance de calcul et de capacité de traitement parallèle. De plus, l'écosystème AI off-chain nécessite souvent de prendre en charge des types de tâches diversifiés et hétérogènes, y compris différentes structures de modèles, traitement des données, inférence, stockage et autres scénarios variés. AI Layer 1 doit être profondément optimisé au niveau de l'architecture sous-jacente pour répondre aux besoins de haute capacité de traitement, de faible latence et de parallélisme flexible, tout en prévoyant une capacité de support natif pour les ressources de calcul hétérogènes, afin de garantir que toutes les tâches d'IA puissent fonctionner efficacement et réaliser une expansion fluide de "tâches uniques" à "écosystèmes complexes et diversifiés".
Vérifiabilité et garantie de résultats fiables La couche AI Layer 1 ne doit pas seulement prévenir les comportements malveillants des modèles et la falsification des données, mais doit également garantir la vérifiabilité et l'alignement des résultats produits par l'IA au niveau des mécanismes sous-jacents. En intégrant des technologies de pointe telles que des environnements d'exécution sécurisés, des preuves à connaissance nulle et des calculs sécurisés multipartites, la plateforme permet de vérifier indépendamment chaque inférence de modèle, chaque entraînement et chaque processus de traitement des données, garantissant ainsi l'équité et la transparence du système d'IA. En même temps, cette vérifiabilité peut aider les utilisateurs à comprendre clairement la logique et les fondements des résultats de l'IA, réalisant "ce que l'on obtient est ce que l'on souhaite", augmentant la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs, et dans des domaines tels que la finance, la santé et les réseaux sociaux, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 devrait garantir la vérifiabilité tout en adoptant des technologies de traitement des données basées sur le cryptage, des protocoles de calcul de la vie privée et des moyens de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, et de prévenir efficacement les fuites et les abus de données, éliminant ainsi les préoccupations des utilisateurs en matière de sécurité des données.
Capacité puissante de soutien à l'écosystème et au développement En tant qu'infrastructure de base de Layer 1 native à l'IA, la plateforme doit non seulement posséder un leadership technologique, mais aussi fournir aux développeurs, aux opérateurs de nœuds, aux fournisseurs de services d'IA et aux autres participants de l'écosystème des outils de développement complets, un SDK d'intégration, un soutien opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, cela favorisera le déploiement d'applications riches et diverses natives à l'IA, réalisant la prospérité continue d'un écosystème décentralisé de l'IA.
Sur la base de ce contexte et de ces attentes, cet article présentera en détail six projets représentatifs de l'AI Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en récapitulant les dernières avancées du secteur, en analysant l'état actuel des projets et en explorant les tendances futures.
Sentient : construire un modèle d'IA décentralisé open source fidèle
Aperçu du projet
Sentient est une plateforme de protocole open source qui construit une blockchain AI Layer1. La phase initiale est la Layer 2, puis elle sera migrée vers la Layer 1(. En combinant la pipeline AI et la technologie blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de suivi des appels et de distribution de la valeur sur le marché des grands modèles de langage centralisés grâce au cadre "OML" (ouvert, rentable, loyal), permettant ainsi aux modèles d'IA de réaliser une structure de propriété sur la chaîne, une transparence des appels et une distribution de la valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits d'IA, favorisant ainsi un écosystème de réseau d'agents d'IA équitable et ouvert.
L'équipe de la Sentient Foundation rassemble des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, engagés à construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent le professeur Pramod Viswanath de l'Université de Princeton et le professeur Himanshu Tyagi de l'Institut indien de science, respectivement responsables de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, co-fondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe viennent d'entreprises renommées telles que Meta, Coinbase, Polygon, ainsi que d'institutions de premier plan comme l'Université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP, et la vision par ordinateur, unissant leurs forces pour faire avancer le projet.
En tant que projet de deuxième entreprise de Sandeep Nailwal, cofondateur de Polygon, Sentient a dès le départ bénéficié d'un halo, disposant de ressources riches, de relations et d'une reconnaissance sur le marché, offrant un puissant soutien au développement du projet. Mi-2024, Sentient a complété un financement de série seed de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, d'autres investisseurs incluent des dizaines de VC renommés tels que Delphi, Hashkey et Spartan.
![Biteye et PANews publient conjointement un rapport de recherche sur l'AI Layer1 : à la recherche des terres fertiles de DeAI off-chain])https://img-cdn.gateio.im/webp-social/moments-f4a64f13105f67371db1a93a52948756.webp(
)# Architecture de conception et couche d'application
Infrastructure Layer
Architecture de base
L'architecture principale de Sentient est composée de deux parties : le pipeline AI (AI Pipeline) et le système blockchain.
Les pipelines d'IA sont la base du développement et de l'entraînement des artefacts "IA de loyauté", et comprennent deux processus clés :
Planification des données (Data Curation) : processus de sélection de données piloté par la communauté, utilisé pour l'alignement des modèles.
Formation à la fidélité (Loyalty Training) : s'assurer que le modèle maintient un processus d'entraînement cohérent avec l'intention de la communauté.
Le système blockchain offre transparence et contrôle décentralisé pour les protocoles, garantissant la propriété, le suivi de l'utilisation, la répartition des bénéfices et la gouvernance équitable des artefacts AI. L'architecture spécifique est divisée en quatre couches :
Couche de stockage : stocke les poids du modèle et les informations d'enregistrement des empreintes digitales ;
Couche de distribution : l'entrée d'appel du modèle est contrôlée par le contrat d'autorisation ;
Couche d'accès : Vérifiez si l'utilisateur est autorisé par la preuve d'autorisation ;
Couche d'incitation : le contrat de routage des revenus répartit chaque appel de paiement entre les formateurs, les déployeurs et les validateurs.
![Biteye et PANews publient ensemble un rapport de recherche sur l'AI Layer1 : à la recherche d'un sol fertile pour le DeAI off-chain]###https://img-cdn.gateio.im/webp-social/moments-a70b0aca9250ab65193d0094fa9b5641.webp(
Cadre de modèle OML
Le cadre OML (Open, Monetizable, Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native à l'IA, il présente les caractéristiques suivantes :
Ouvert : Le modèle doit être open source, avec un code et une structure de données transparents, facilitant la reproduction, l'audit et l'amélioration par la communauté.
Monétisation : Chaque appel de modèle déclenche un flux de revenus, le contrat off-chain répartira les revenus entre les formateurs, les déployeurs et les validateurs.
Loyauté : Le modèle appartient à la communauté des contributeurs, la direction des mises à jour et la gouvernance sont décidées par le DAO, l'utilisation et la modification sont contrôlées par un mécanisme cryptographique.
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure des variétés de faible dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie clé est :
Empreinte digitale : insérer un ensemble de paires clé-valeur query-response cachées lors de l'entraînement pour former la signature unique du modèle ;
Protocole de vérification de la propriété : vérification de la conservation des empreintes par un détecteur tiers (Prover) sous forme de requête.
Mécanisme d'appel autorisé : Avant l'appel, il est nécessaire d'obtenir le "certificat d'autorisation" délivré par le propriétaire du modèle, et le système autorisera ensuite le modèle à décoder cette entrée et à renvoyer la réponse exacte.
Cette méthode permet d'implémenter "l'appel autorisé basé sur le comportement + la vérification d'appartenance" sans coût de réencryption.
![Biteye et PANews publient conjointement un rapport de recherche sur AI Layer1 : à la recherche d'un sol fertile pour DeAI off-chain])https://img-cdn.gateio.im/webp-social/moments-cf5f43c63b7ab154e2201c8d3531be8c.webp(
Cadre de validation des modèles et d'exécution sécurisée
Sentient utilise actuellement Melange pour la sécurité hybride : combinaison de la reconnaissance d'empreintes digitales, de l'exécution TEE et du partage des bénéfices des contrats off-chain. La méthode d'empreinte digitale est réalisée par OML 1.0, mettant l'accent sur la pensée de "sécurité optimiste (Optimistic Security)", c'est-à-dire que la conformité est supposée par défaut, et les violations peuvent être détectées et punies.
Le mécanisme d'empreinte digitale est une mise en œuvre clé d'OML, qui permet au modèle de générer une signature unique durant la phase d'entraînement en intégrant des paires "question-réponse" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi la copie et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également des enregistrements traçables off-chain des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, qui utilise un environnement d'exécution de confiance pour garantir que le modèle ne répond qu'aux demandes autorisées, empêchant ainsi tout accès et utilisation non autorisés. Bien que le TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de performances élevées et de réactivité en font la technologie clé pour le déploiement actuel des modèles.
À l'avenir, Sentient prévoit d'introduire le zéro connaissance.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
10 J'aime
Récompense
10
2
Partager
Commentaire
0/400
BanklessAtHeart
· Il y a 23h
Une nouvelle vague d'histoires off-chain commence!
Exploration de la piste AI Layer1 : infrastructures clés pour construire un écosystème AI décentralisé
Rapport de recherche sur AI Layer1 : à la recherche des terres fertiles pour DeAI off-chain
Aperçu
Contexte
Ces dernières années, des entreprises technologiques de premier plan comme OpenAI, Anthropic, Google et Meta ont continuellement poussé le développement rapide des grands modèles de langage. Ces modèles montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humaine et montrant même dans certains scénarios le potentiel de remplacer le travail humain. Cependant, le cœur de ces technologies est fermement contrôlé par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle sur des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant la compétition difficile pour la grande majorité des développeurs et des équipes d'innovation.
Au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités offertes par la technologie, tandis que l'attention portée aux problèmes fondamentaux tels que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces questions ne sont pas résolues de manière appropriée, le débat sur le fait que l'IA soit "bienveillante" ou "malveillante" deviendra de plus en plus prononcé, et les géants centralisés, motivés par leur instinct de profit, manquent souvent de la dynamique nécessaire pour faire face à ces défis.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour un développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont déjà émergé sur certaines blockchains populaires. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les éléments clés et les infrastructures dépendent encore des services cloud centralisés, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA sur la chaîne reste limitée en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, et la profondeur et la largeur de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain de supporter des applications AI à grande échelle de manière sécurisée, efficace et démocratique, tout en rivalisant en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer 1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la gouvernance démocratique et la sécurité des données, favorisant le développement prospère d'un écosystème d'IA décentralisé.
Les caractéristiques clés de AI Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a son architecture sous-jacente et sa conception de performance étroitement liées aux besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème IA off-chain. Plus précisément, AI Layer 1 devrait posséder les capacités clés suivantes :
Mécanisme d'incitation efficace et de consensus décentralisé Le cœur de AI Layer 1 réside dans la construction d'un réseau partagé de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité des registres, les nœuds de AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul et effectuer l'entraînement et l'inférence des modèles d'IA, mais également contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, rompant ainsi le monopole des géants centralisés sur les infrastructures d'IA. Cela impose des exigences plus élevées sur le consensus de base et le mécanisme d'incitation : AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans des tâches telles que l'inférence et l'entraînement de l'IA, afin d'assurer la sécurité du réseau et une répartition efficace des ressources. Ce n'est que de cette manière que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Performance élevée et capacité de support des tâches hétérogènes Les tâches d'IA, en particulier l'entraînement et l'inférence des grands modèles de langage, posent des exigences très élevées en matière de performance de calcul et de capacité de traitement parallèle. De plus, l'écosystème AI off-chain nécessite souvent de prendre en charge des types de tâches diversifiés et hétérogènes, y compris différentes structures de modèles, traitement des données, inférence, stockage et autres scénarios variés. AI Layer 1 doit être profondément optimisé au niveau de l'architecture sous-jacente pour répondre aux besoins de haute capacité de traitement, de faible latence et de parallélisme flexible, tout en prévoyant une capacité de support natif pour les ressources de calcul hétérogènes, afin de garantir que toutes les tâches d'IA puissent fonctionner efficacement et réaliser une expansion fluide de "tâches uniques" à "écosystèmes complexes et diversifiés".
Vérifiabilité et garantie de résultats fiables La couche AI Layer 1 ne doit pas seulement prévenir les comportements malveillants des modèles et la falsification des données, mais doit également garantir la vérifiabilité et l'alignement des résultats produits par l'IA au niveau des mécanismes sous-jacents. En intégrant des technologies de pointe telles que des environnements d'exécution sécurisés, des preuves à connaissance nulle et des calculs sécurisés multipartites, la plateforme permet de vérifier indépendamment chaque inférence de modèle, chaque entraînement et chaque processus de traitement des données, garantissant ainsi l'équité et la transparence du système d'IA. En même temps, cette vérifiabilité peut aider les utilisateurs à comprendre clairement la logique et les fondements des résultats de l'IA, réalisant "ce que l'on obtient est ce que l'on souhaite", augmentant la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs, et dans des domaines tels que la finance, la santé et les réseaux sociaux, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 devrait garantir la vérifiabilité tout en adoptant des technologies de traitement des données basées sur le cryptage, des protocoles de calcul de la vie privée et des moyens de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, et de prévenir efficacement les fuites et les abus de données, éliminant ainsi les préoccupations des utilisateurs en matière de sécurité des données.
Capacité puissante de soutien à l'écosystème et au développement En tant qu'infrastructure de base de Layer 1 native à l'IA, la plateforme doit non seulement posséder un leadership technologique, mais aussi fournir aux développeurs, aux opérateurs de nœuds, aux fournisseurs de services d'IA et aux autres participants de l'écosystème des outils de développement complets, un SDK d'intégration, un soutien opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, cela favorisera le déploiement d'applications riches et diverses natives à l'IA, réalisant la prospérité continue d'un écosystème décentralisé de l'IA.
Sur la base de ce contexte et de ces attentes, cet article présentera en détail six projets représentatifs de l'AI Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en récapitulant les dernières avancées du secteur, en analysant l'état actuel des projets et en explorant les tendances futures.
Sentient : construire un modèle d'IA décentralisé open source fidèle
Aperçu du projet
Sentient est une plateforme de protocole open source qui construit une blockchain AI Layer1. La phase initiale est la Layer 2, puis elle sera migrée vers la Layer 1(. En combinant la pipeline AI et la technologie blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de suivi des appels et de distribution de la valeur sur le marché des grands modèles de langage centralisés grâce au cadre "OML" (ouvert, rentable, loyal), permettant ainsi aux modèles d'IA de réaliser une structure de propriété sur la chaîne, une transparence des appels et une distribution de la valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits d'IA, favorisant ainsi un écosystème de réseau d'agents d'IA équitable et ouvert.
L'équipe de la Sentient Foundation rassemble des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, engagés à construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent le professeur Pramod Viswanath de l'Université de Princeton et le professeur Himanshu Tyagi de l'Institut indien de science, respectivement responsables de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, co-fondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe viennent d'entreprises renommées telles que Meta, Coinbase, Polygon, ainsi que d'institutions de premier plan comme l'Université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP, et la vision par ordinateur, unissant leurs forces pour faire avancer le projet.
En tant que projet de deuxième entreprise de Sandeep Nailwal, cofondateur de Polygon, Sentient a dès le départ bénéficié d'un halo, disposant de ressources riches, de relations et d'une reconnaissance sur le marché, offrant un puissant soutien au développement du projet. Mi-2024, Sentient a complété un financement de série seed de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, d'autres investisseurs incluent des dizaines de VC renommés tels que Delphi, Hashkey et Spartan.
![Biteye et PANews publient conjointement un rapport de recherche sur l'AI Layer1 : à la recherche des terres fertiles de DeAI off-chain])https://img-cdn.gateio.im/webp-social/moments-f4a64f13105f67371db1a93a52948756.webp(
)# Architecture de conception et couche d'application
Infrastructure Layer
Architecture de base
L'architecture principale de Sentient est composée de deux parties : le pipeline AI (AI Pipeline) et le système blockchain.
Les pipelines d'IA sont la base du développement et de l'entraînement des artefacts "IA de loyauté", et comprennent deux processus clés :
Le système blockchain offre transparence et contrôle décentralisé pour les protocoles, garantissant la propriété, le suivi de l'utilisation, la répartition des bénéfices et la gouvernance équitable des artefacts AI. L'architecture spécifique est divisée en quatre couches :
![Biteye et PANews publient ensemble un rapport de recherche sur l'AI Layer1 : à la recherche d'un sol fertile pour le DeAI off-chain]###https://img-cdn.gateio.im/webp-social/moments-a70b0aca9250ab65193d0094fa9b5641.webp(
Cadre de modèle OML
Le cadre OML (Open, Monetizable, Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native à l'IA, il présente les caractéristiques suivantes :
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure des variétés de faible dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie clé est :
Cette méthode permet d'implémenter "l'appel autorisé basé sur le comportement + la vérification d'appartenance" sans coût de réencryption.
![Biteye et PANews publient conjointement un rapport de recherche sur AI Layer1 : à la recherche d'un sol fertile pour DeAI off-chain])https://img-cdn.gateio.im/webp-social/moments-cf5f43c63b7ab154e2201c8d3531be8c.webp(
Cadre de validation des modèles et d'exécution sécurisée
Sentient utilise actuellement Melange pour la sécurité hybride : combinaison de la reconnaissance d'empreintes digitales, de l'exécution TEE et du partage des bénéfices des contrats off-chain. La méthode d'empreinte digitale est réalisée par OML 1.0, mettant l'accent sur la pensée de "sécurité optimiste (Optimistic Security)", c'est-à-dire que la conformité est supposée par défaut, et les violations peuvent être détectées et punies.
Le mécanisme d'empreinte digitale est une mise en œuvre clé d'OML, qui permet au modèle de générer une signature unique durant la phase d'entraînement en intégrant des paires "question-réponse" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi la copie et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également des enregistrements traçables off-chain des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, qui utilise un environnement d'exécution de confiance pour garantir que le modèle ne répond qu'aux demandes autorisées, empêchant ainsi tout accès et utilisation non autorisés. Bien que le TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de performances élevées et de réactivité en font la technologie clé pour le déploiement actuel des modèles.
À l'avenir, Sentient prévoit d'introduire le zéro connaissance.