Relatório de Pesquisa AI Layer1: Procurando a Terra Fértil para DeAI na cadeia
Resumo
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm impulsionado o rápido desenvolvimento de modelos de linguagem de grande escala (LLM). Os LLM demonstram habilidades sem precedentes em diversos setores, ampliando significativamente o espaço de imaginação da humanidade, e até mesmo em algumas situações mostram potencial para substituir o trabalho humano. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de poucos gigantes tecnológicos centralizados. Com um forte capital e controle sobre recursos de computação de alto custo, essas empresas estabeleceram barreiras quase intransponíveis, dificultando a concorrência da grande maioria dos desenvolvedores e equipes de inovação.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública muitas vezes se concentra nas inovações e facilidades trazidas pela tecnologia, enquanto a atenção a questões centrais como proteção de privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, essas questões vão impactar profundamente o desenvolvimento saudável da indústria de IA e a aceitação social. Se não forem resolvidas adequadamente, a controvérsia sobre se a IA deve ser "para o bem" ou "para o mal" se tornará cada vez mais proeminente, enquanto os gigantes centralizados, impulsionados pelo instinto de lucro, frequentemente carecem de motivação suficiente para enfrentar esses desafios proativamente.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, já surgiram numerosas aplicações de "Web3 AI" em algumas blockchains principais. No entanto, uma análise mais profunda revela que esses projetos ainda apresentam várias questões: por um lado, o grau de descentralização é limitado, e os elos e infraestrutura críticos ainda dependem de serviços de nuvem centralizados, dificultando o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda é limitada em termos de capacidade do modelo, utilização de dados e cenários de aplicação, e a profundidade e amplitude da inovação ainda precisam ser aprimoradas.
Para realmente realizar a visão de IA descentralizada, tornando a blockchain capaz de suportar aplicações de IA em larga escala de forma segura, eficiente e democrática, e competindo em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para a IA. Isso proporcionará uma base sólida para a inovação aberta em IA, a governança democrática e a segurança dos dados, promovendo o desenvolvimento próspero do ecossistema de IA descentralizada.
As principais características da Camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho estreitamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento e a prosperidade sustentável do ecossistema de IA na cadeia. Especificamente, o AI Layer 1 deve possuir as seguintes capacidades principais:
Mecanismo de consenso descentralizado e incentivos eficientes
O núcleo do AI Layer 1 reside na construção de uma rede compartilhada de recursos abertos, como poder de computação e armazenamento. Ao contrário dos nós de blockchain tradicionais, que se concentram principalmente na contabilidade do livro-razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, que não apenas fornecem poder de computação, completam o treinamento e a inferência de modelos de IA, mas também contribuem com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio dos gigantes centralizados na infraestrutura de IA. Isso impõe requisitos mais elevados para o consenso de base e mecanismos de incentivo: o AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, alcançando a segurança da rede e a eficiente alocação de recursos. Somente assim podemos garantir a estabilidade e prosperidade da rede, além de reduzir efetivamente o custo total de computação.
Desempenho elevado e capacidade de suporte a tarefas heterogêneas
As tarefas de IA, especialmente o treinamento e a inferência de LLM, impõem exigências extremamente altas em relação ao desempenho computacional e à capacidade de processamento paralelo. Além disso, o ecossistema de IA na cadeia muitas vezes precisa suportar tipos de tarefas diversos e heterogêneos, incluindo diferentes estruturas de modelo, processamento de dados, inferência, armazenamento e outros cenários variados. O AI Layer 1 deve ser profundamente otimizado na arquitetura subjacente para atender às necessidades de alta taxa de transferência, baixa latência e paralelismo elástico, e deve prever a capacidade de suporte nativo a recursos de computação heterogêneos, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, alcançando uma expansão suave de "tarefas únicas" para um "ecossistema complexo e diversificado".
Verificabilidade e garantia de saída confiável
A camada 1 da IA não só precisa prevenir riscos de segurança, como comportamentos maliciosos do modelo e manipulação de dados, mas também deve garantir a verificabilidade e a alinhamento dos resultados da IA a partir da mecânica fundamental. Através da integração de tecnologias de ponta como ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK) e computação segura multipartidária (MPC), a plataforma pode permitir que cada inferência de modelo, treinamento e processo de manipulação de dados sejam independentemente verificáveis, assegurando a justiça e a transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade pode ajudar os usuários a entender a lógica e a fundamentação das saídas da IA, alcançando o "que se obtém é o que se deseja", aumentando a confiança e a satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados
As aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crucial em áreas como finanças, saúde e redes sociais. A camada de IA deve garantir a verificabilidade enquanto adota tecnologias de processamento de dados baseadas em criptografia, protocolos de computação de privacidade e gestão de permissões de dados, assegurando a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, e eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte e desenvolvimento de ecossistemas
Como uma infraestrutura Layer 1 nativa de IA, a plataforma não só deve ter uma liderança técnica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte a operações e mecanismos de incentivo para desenvolvedores, operadores de nós, fornecedores de serviços de IA e outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promove a implementação de aplicações nativas de IA diversificadas e ricas, alcançando a prosperidade contínua de um ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo irá apresentar detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematicamente revisar os últimos avanços da pista, analisar o estado atual do desenvolvimento dos projetos e discutir as tendências futuras.
Sentient: Construir modelos de IA descentralizados de código aberto e leais
Visão Geral do Projeto
Sentient é uma plataforma de protocolo open-source que está a desenvolver uma blockchain AI Layer1 ( na fase inicial como Layer 2, e depois migrará para Layer 1). Ao combinar tecnologia de AI Pipeline e blockchain, está a construir um ecossistema de inteligência artificial descentralizado. O seu objetivo central é resolver problemas de atribuição de modelos, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que os modelos de AI tenham uma estrutura de propriedade na cadeia, transparência nas chamadas e uma partilha de valor. A visão da Sentient é permitir que qualquer pessoa construa, colabore, possua e monetize produtos de AI, promovendo assim uma rede de ecossistema de Agentes de AI justa e aberta.
A equipe da Sentient Foundation reúne os principais especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma de AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e privacidade da IA, enquanto o cofundador da Polygon, Sandeep Nailwal, lidera a estratégia de blockchain e a estrutura ecológica. Os membros da equipe têm formação em empresas renomadas como Meta, Coinbase, Polygon, bem como em universidades de prestígio como a Universidade de Princeton e o Instituto Indiano de Tecnologia, abrangendo áreas como AI/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como o projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, o Sentient já nasceu com um grande prestígio, possuindo recursos abundantes, conexões e reconhecimento de mercado, o que proporciona um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, o Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, com Founders Fund, Pantera e Framework Ventures como investidores principais, e outras instituições de investimento, incluindo Delphi, Hashkey e Spartan, entre várias outras VCs renomadas.
Arquitetura de design e camada de aplicação
Infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um Pipeline de IA e um sistema de blockchain:
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos "AI leal", contendo dois processos principais:
Planeamento de Dados (Data Curation): Processo de seleção de dados impulsionado pela comunidade, utilizado para o alinhamento do modelo.
Treinamento de Lealdade (Loyalty Training): garantir que o modelo mantenha um processo de treinamento alinhado com as intenções da comunidade.
O sistema de blockchain proporciona transparência e controle descentralizado aos protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento de uso, a distribuição de receitas e a governança justa. A arquitetura específica é dividida em quatro camadas:
Camada de armazenamento: armazena pesos de modelo e informações de registro de impressões digitais;
Camada de distribuição: entrada de chamada de modelo controlada por contrato de autorização;
Camada de acesso: verifica se o usuário está autorizado através de prova de permissão;
Camada de incentivo: O contrato de roteamento de receitas irá alocar o pagamento a cada chamada para os treinadores, implementadores e validadores.
Estrutura de Modelo OML
A estrutura OML (Aberto Open, Monetizável Monetizable, Leal Loyal) é o conceito central proposto pela Sentient, com o objetivo de fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Abertura: O modelo deve ser open source, com código e estrutura de dados transparentes, permitindo a reprodução, auditoria e melhoria pela comunidade.
Monetização: Cada chamada ao modelo desencadeia um fluxo de receita, o contrato na cadeia distribuirá os ganhos para os treinadores, implantadores e validadores.
Lealdade: O modelo pertence à comunidade de contribuidores, a direção da atualização e a governança são decididas pela DAO, e o uso e a modificação são controlados por mecanismos de criptografia.
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade, a estrutura de variedade de baixa dimensão e a característica de diferenciabilidade dos modelos de IA para desenvolver um mecanismo de segurança leve que é "verificável, mas não removível". A sua tecnologia central é:
Impressão digital: durante o treinamento, insere-se um conjunto de pares chave-valor de consulta-resposta ocultos para formar a assinatura única do modelo;
Protocolo de verificação de propriedade: verificar se a impressão digital é retida através de um detector de terceiros (Prover) na forma de perguntas de query;
Mecanismo de chamada de permissão: antes da chamada, é necessário obter o "certificado de permissão" emitido pelo proprietário do modelo, e o sistema, com base nisso, autoriza o modelo a decodificar a entrada e retornar a resposta correta.
Esta abordagem permite a realização de "chamadas autorizadas baseadas em comportamento + verificação de pertencimento" sem custos de re-encriptação.
Modelo de Titulação e Estrutura de Execução Segura
Sentient atualmente adota a segurança mista Melange: combina a certificação por impressão digital, a execução TEE e a participação nos lucros de contratos na cadeia. O método de impressão digital é a implementação da OML 1.0 na linha principal, enfatizando a ideia de "Segurança Otimista (Optimistic Security)", ou seja, presume conformidade, podendo detectar e punir em caso de violação.
O mecanismo de impressão digital é a implementação chave do OML, que gera assinaturas únicas durante a fase de treinamento, incorporando pares específicos de "pergunta-resposta". Através dessas assinaturas, os proprietários do modelo podem verificar a propriedade, prevenindo a cópia e comercialização não autorizadas. Este mecanismo não apenas protege os direitos dos desenvolvedores do modelo, mas também fornece um registro rastreável na cadeia para as ações de uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que o modelo responda apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente certos riscos de segurança, suas vantagens em termos de alto desempenho e tempo real fazem dele uma tecnologia central para a implantação de modelos atualmente.
No futuro, a Sentient planeia introduzir provas de conhecimento zero (ZK) e criptografia homomórfica completamente (FHE), para melhorar ainda mais a proteção da privacidade e a verificabilidade, proporcionando soluções mais maduras para a implementação descentralizada de modelos de IA.
 e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
5 Curtidas
Recompensa
5
3
Repostar
Compartilhar
Comentário
0/400
GasWhisperer
· 3h atrás
posso sentir a guerra do gás L1 a chegar... modelos centralizados vão ser destruídos quando o deAI chegar
Ver originalResponder0
AirdropChaser
· 4h atrás
Mais alguém está a preparar-se para arrecadar dinheiro?
Pesquisa sobre o ecossistema AI Layer1: explorando a infraestrutura de inteligência artificial Descentralização
Relatório de Pesquisa AI Layer1: Procurando a Terra Fértil para DeAI na cadeia
Resumo
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm impulsionado o rápido desenvolvimento de modelos de linguagem de grande escala (LLM). Os LLM demonstram habilidades sem precedentes em diversos setores, ampliando significativamente o espaço de imaginação da humanidade, e até mesmo em algumas situações mostram potencial para substituir o trabalho humano. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de poucos gigantes tecnológicos centralizados. Com um forte capital e controle sobre recursos de computação de alto custo, essas empresas estabeleceram barreiras quase intransponíveis, dificultando a concorrência da grande maioria dos desenvolvedores e equipes de inovação.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública muitas vezes se concentra nas inovações e facilidades trazidas pela tecnologia, enquanto a atenção a questões centrais como proteção de privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, essas questões vão impactar profundamente o desenvolvimento saudável da indústria de IA e a aceitação social. Se não forem resolvidas adequadamente, a controvérsia sobre se a IA deve ser "para o bem" ou "para o mal" se tornará cada vez mais proeminente, enquanto os gigantes centralizados, impulsionados pelo instinto de lucro, frequentemente carecem de motivação suficiente para enfrentar esses desafios proativamente.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, já surgiram numerosas aplicações de "Web3 AI" em algumas blockchains principais. No entanto, uma análise mais profunda revela que esses projetos ainda apresentam várias questões: por um lado, o grau de descentralização é limitado, e os elos e infraestrutura críticos ainda dependem de serviços de nuvem centralizados, dificultando o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda é limitada em termos de capacidade do modelo, utilização de dados e cenários de aplicação, e a profundidade e amplitude da inovação ainda precisam ser aprimoradas.
Para realmente realizar a visão de IA descentralizada, tornando a blockchain capaz de suportar aplicações de IA em larga escala de forma segura, eficiente e democrática, e competindo em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para a IA. Isso proporcionará uma base sólida para a inovação aberta em IA, a governança democrática e a segurança dos dados, promovendo o desenvolvimento próspero do ecossistema de IA descentralizada.
As principais características da Camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho estreitamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento e a prosperidade sustentável do ecossistema de IA na cadeia. Especificamente, o AI Layer 1 deve possuir as seguintes capacidades principais:
Mecanismo de consenso descentralizado e incentivos eficientes O núcleo do AI Layer 1 reside na construção de uma rede compartilhada de recursos abertos, como poder de computação e armazenamento. Ao contrário dos nós de blockchain tradicionais, que se concentram principalmente na contabilidade do livro-razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, que não apenas fornecem poder de computação, completam o treinamento e a inferência de modelos de IA, mas também contribuem com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio dos gigantes centralizados na infraestrutura de IA. Isso impõe requisitos mais elevados para o consenso de base e mecanismos de incentivo: o AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, alcançando a segurança da rede e a eficiente alocação de recursos. Somente assim podemos garantir a estabilidade e prosperidade da rede, além de reduzir efetivamente o custo total de computação.
Desempenho elevado e capacidade de suporte a tarefas heterogêneas As tarefas de IA, especialmente o treinamento e a inferência de LLM, impõem exigências extremamente altas em relação ao desempenho computacional e à capacidade de processamento paralelo. Além disso, o ecossistema de IA na cadeia muitas vezes precisa suportar tipos de tarefas diversos e heterogêneos, incluindo diferentes estruturas de modelo, processamento de dados, inferência, armazenamento e outros cenários variados. O AI Layer 1 deve ser profundamente otimizado na arquitetura subjacente para atender às necessidades de alta taxa de transferência, baixa latência e paralelismo elástico, e deve prever a capacidade de suporte nativo a recursos de computação heterogêneos, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, alcançando uma expansão suave de "tarefas únicas" para um "ecossistema complexo e diversificado".
Verificabilidade e garantia de saída confiável A camada 1 da IA não só precisa prevenir riscos de segurança, como comportamentos maliciosos do modelo e manipulação de dados, mas também deve garantir a verificabilidade e a alinhamento dos resultados da IA a partir da mecânica fundamental. Através da integração de tecnologias de ponta como ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK) e computação segura multipartidária (MPC), a plataforma pode permitir que cada inferência de modelo, treinamento e processo de manipulação de dados sejam independentemente verificáveis, assegurando a justiça e a transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade pode ajudar os usuários a entender a lógica e a fundamentação das saídas da IA, alcançando o "que se obtém é o que se deseja", aumentando a confiança e a satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados As aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crucial em áreas como finanças, saúde e redes sociais. A camada de IA deve garantir a verificabilidade enquanto adota tecnologias de processamento de dados baseadas em criptografia, protocolos de computação de privacidade e gestão de permissões de dados, assegurando a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, e eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte e desenvolvimento de ecossistemas Como uma infraestrutura Layer 1 nativa de IA, a plataforma não só deve ter uma liderança técnica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte a operações e mecanismos de incentivo para desenvolvedores, operadores de nós, fornecedores de serviços de IA e outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promove a implementação de aplicações nativas de IA diversificadas e ricas, alcançando a prosperidade contínua de um ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo irá apresentar detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematicamente revisar os últimos avanços da pista, analisar o estado atual do desenvolvimento dos projetos e discutir as tendências futuras.
Sentient: Construir modelos de IA descentralizados de código aberto e leais
Visão Geral do Projeto
Sentient é uma plataforma de protocolo open-source que está a desenvolver uma blockchain AI Layer1 ( na fase inicial como Layer 2, e depois migrará para Layer 1). Ao combinar tecnologia de AI Pipeline e blockchain, está a construir um ecossistema de inteligência artificial descentralizado. O seu objetivo central é resolver problemas de atribuição de modelos, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que os modelos de AI tenham uma estrutura de propriedade na cadeia, transparência nas chamadas e uma partilha de valor. A visão da Sentient é permitir que qualquer pessoa construa, colabore, possua e monetize produtos de AI, promovendo assim uma rede de ecossistema de Agentes de AI justa e aberta.
A equipe da Sentient Foundation reúne os principais especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma de AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e privacidade da IA, enquanto o cofundador da Polygon, Sandeep Nailwal, lidera a estratégia de blockchain e a estrutura ecológica. Os membros da equipe têm formação em empresas renomadas como Meta, Coinbase, Polygon, bem como em universidades de prestígio como a Universidade de Princeton e o Instituto Indiano de Tecnologia, abrangendo áreas como AI/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como o projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, o Sentient já nasceu com um grande prestígio, possuindo recursos abundantes, conexões e reconhecimento de mercado, o que proporciona um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, o Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, com Founders Fund, Pantera e Framework Ventures como investidores principais, e outras instituições de investimento, incluindo Delphi, Hashkey e Spartan, entre várias outras VCs renomadas.
Arquitetura de design e camada de aplicação
Infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um Pipeline de IA e um sistema de blockchain:
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos "AI leal", contendo dois processos principais:
O sistema de blockchain proporciona transparência e controle descentralizado aos protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento de uso, a distribuição de receitas e a governança justa. A arquitetura específica é dividida em quatro camadas:
Estrutura de Modelo OML
A estrutura OML (Aberto Open, Monetizável Monetizable, Leal Loyal) é o conceito central proposto pela Sentient, com o objetivo de fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade, a estrutura de variedade de baixa dimensão e a característica de diferenciabilidade dos modelos de IA para desenvolver um mecanismo de segurança leve que é "verificável, mas não removível". A sua tecnologia central é:
Esta abordagem permite a realização de "chamadas autorizadas baseadas em comportamento + verificação de pertencimento" sem custos de re-encriptação.
Modelo de Titulação e Estrutura de Execução Segura
Sentient atualmente adota a segurança mista Melange: combina a certificação por impressão digital, a execução TEE e a participação nos lucros de contratos na cadeia. O método de impressão digital é a implementação da OML 1.0 na linha principal, enfatizando a ideia de "Segurança Otimista (Optimistic Security)", ou seja, presume conformidade, podendo detectar e punir em caso de violação.
O mecanismo de impressão digital é a implementação chave do OML, que gera assinaturas únicas durante a fase de treinamento, incorporando pares específicos de "pergunta-resposta". Através dessas assinaturas, os proprietários do modelo podem verificar a propriedade, prevenindo a cópia e comercialização não autorizadas. Este mecanismo não apenas protege os direitos dos desenvolvedores do modelo, mas também fornece um registro rastreável na cadeia para as ações de uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que o modelo responda apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente certos riscos de segurança, suas vantagens em termos de alto desempenho e tempo real fazem dele uma tecnologia central para a implantação de modelos atualmente.
No futuro, a Sentient planeia introduzir provas de conhecimento zero (ZK) e criptografia homomórfica completamente (FHE), para melhorar ainda mais a proteção da privacidade e a verificabilidade, proporcionando soluções mais maduras para a implementação descentralizada de modelos de IA.
![Biteye e PANews publicam em conjunto o relatório de pesquisa AI Layer1: buscando a terra fértil do DeAI na cadeia](