Informe de investigación de AI Layer1: buscando la tierra fértil para DeAI en la cadena.
Resumen
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje grandes (LLM). Los LLM han demostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso mostrando potencial para sustituir el trabajo humano en ciertos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente controlado por un pequeño número de gigantes tecnológicos centralizados. Con un fuerte capital y el control sobre los costosos recursos de cómputo, estas empresas han construido barreras casi insuperables, lo que dificulta que la gran mayoría de los desarrolladores y equipos de innovación puedan competir con ellas.
Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública a menudo se centra en los avances y la conveniencia que trae la tecnología, mientras que la atención a cuestiones centrales como la protección de la privacidad, la transparencia y la seguridad es relativamente insuficiente. A largo plazo, estos problemas afectarán profundamente el desarrollo saludable de la industria de la IA y su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA se "dirige hacia el bien" o "hacia el mal" se volverá cada vez más prominente, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la motivación suficiente para abordar estos desafíos de manera proactiva.
La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, ya han surgido muchas aplicaciones de "Web3 AI" en algunas blockchains principales. Sin embargo, un análisis más profundo revela que estos proyectos aún enfrentan numerosos problemas: por un lado, el grado de descentralización es limitado, y los eslabones clave y la infraestructura aún dependen de servicios en la nube centralizados, lo que dificulta el apoyo a un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA en cadena tiene limitaciones en cuanto a la capacidad del modelo, la utilización de datos y los escenarios de aplicación, lo que requiere una mejora en la profundidad y amplitud de la innovación.
Para lograr verdaderamente la visión de la IA descentralizada, hacer que la cadena de bloques pueda soportar de manera segura, eficiente y democrática aplicaciones de IA a gran escala, y competir en rendimiento con las soluciones centralizadas, necesitamos diseñar una cadena de bloques Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de la IA, la gobernanza democrática y la seguridad de los datos, impulsando el próspero desarrollo del ecosistema de IA descentralizada.
características centrales de AI Layer 1
AI Layer 1, como una cadena de bloques diseñada específicamente para aplicaciones de IA, su arquitectura subyacente y el diseño de rendimiento están estrechamente alineados con las necesidades de las tareas de IA, con el objetivo de apoyar de manera eficiente el desarrollo y la prosperidad sostenibles del ecosistema de IA en la cadena. Específicamente, AI Layer 1 debe poseer las siguientes capacidades centrales:
Mecanismos de incentivos eficientes y consenso descentralizado
El núcleo de AI Layer 1 radica en construir una red compartida de recursos abiertos como potencia de cálculo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se centran principalmente en el registro de libros contables, los nodos de AI Layer 1 deben asumir tareas más complejas, no solo proporcionando potencia de cálculo y llevando a cabo el entrenamiento e inferencia de modelos de IA, sino también contribuyendo con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso subyacente y el mecanismo de incentivos: AI Layer 1 debe ser capaz de evaluar, incentivar y validar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando la seguridad de la red y la eficiente distribución de recursos. Solo así se podrá garantizar la estabilidad y prosperidad de la red, y reducir eficazmente el costo total de la potencia de cálculo.
Excelentes capacidades de alto rendimiento y soporte para tareas heterogéneas
Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, presentan altos requisitos de rendimiento computacional y capacidad de procesamiento en paralelo. Más aún, el ecosistema de IA en cadena a menudo necesita soportar una variedad de tipos de tareas heterogéneas, incluyendo diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. La capa de IA de nivel 1 debe optimizarse profundamente en la arquitectura subyacente para cumplir con las demandas de alto rendimiento, baja latencia y paralelismo elástico, y prever la capacidad de soporte nativo para recursos computacionales heterogéneos, asegurando que diversas tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida desde "tareas de tipo único" hasta "ecosistemas complejos y diversos".
Verificabilidad y garantía de salida confiable
La Capa 1 de IA no solo debe prevenir riesgos de seguridad como el mal uso de modelos y la alteración de datos, sino que también debe asegurar, desde el mecanismo básico, la verificabilidad y la alineación de los resultados generados por la IA. Al integrar tecnologías de vanguardia como Entornos de Ejecución Confiables (TEE), Pruebas de Conocimiento Cero (ZK) y Cálculo Seguro Multipartito (MPC), la plataforma permite que cada inferencia de modelo, entrenamiento y proceso de manejo de datos pueda ser verificado de manera independiente, asegurando la justicia y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también ayuda a los usuarios a comprender la lógica y la base de los resultados de la IA, logrando que "lo que se obtiene es lo que se desea", aumentando la confianza y satisfacción de los usuarios en los productos de IA.
Protección de la privacidad de los datos
Las aplicaciones de IA a menudo involucran datos sensibles de los usuarios, y en campos como las finanzas, la salud y las redes sociales, la protección de la privacidad de los datos es especialmente crucial. AI Layer 1 debe garantizar la verificabilidad mientras utiliza tecnologías de procesamiento de datos basadas en cifrado, protocolos de computación privada y gestión de permisos de datos, asegurando la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo eficazmente la filtración y el abuso de datos, y eliminando las preocupaciones de los usuarios sobre la seguridad de los datos.
Potente capacidad de soporte para la carga y el desarrollo del ecosistema
Como infraestructura Layer 1 nativa de IA, la plataforma no solo debe poseer liderazgo técnico, sino que también debe proporcionar a los desarrolladores, operadores de nodos, proveedores de servicios de IA y otros participantes del ecosistema herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivo. A través de la optimización continua de la usabilidad de la plataforma y la experiencia del desarrollador, se promoverá la implementación de aplicaciones ricas y diversas nativas de IA, logrando la prosperidad continua del ecosistema de IA descentralizado.
Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluidos Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances en la pista, analizando el estado actual del desarrollo de los proyectos y explorando las tendencias futuras.
Sentient: Construir modelos de IA descentralizados de código abierto y leales
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está construyendo una cadena de bloques AI Layer1 ( en su fase inicial como Layer 2, y luego se trasladará a Layer 1). Al combinar la AI Pipeline y la tecnología blockchain, se busca construir una economía de inteligencia artificial descentralizada. Su objetivo principal es resolver los problemas de pertenencia de modelos, seguimiento de llamadas y distribución de valor en el mercado LLM centralizado a través del marco "OML" (abierto, rentable, leal), permitiendo que los modelos de IA logren una estructura de propiedad on-chain, transparencia en las llamadas y distribución de valor. La visión de Sentient es permitir que cualquier persona pueda construir, colaborar, poseer y monetizar productos de IA, promoviendo así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los principales expertos académicos, emprendedores y ingenieros en blockchain de todo el mundo, dedicándose a construir una plataforma AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, quienes son responsables de la seguridad y privacidad de la IA, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia y el ecosistema de blockchain. Los antecedentes de los miembros del equipo abarcan empresas reconocidas como Meta, Coinbase, Polygon, así como universidades de élite como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo áreas como IA/ML, NLP y visión por computadora, colaborando para llevar a cabo el proyecto.
Como el segundo proyecto emprendedor de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un halo desde su creación, contando con abundantes recursos, contactos y reconocimiento en el mercado, lo que proporciona un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiamiento inicial de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con otras instituciones inversoras que incluyen a Delphi, Hashkey y Spartan, entre docenas de VC reconocidos.
diseño de arquitectura y capa de aplicación
Capa de infraestructura
Arquitectura central
La arquitectura central de Sentient se compone de dos partes: un sistema de canalización de IA (AI Pipeline) y un sistema de blockchain.
El pipeline de IA es la base para desarrollar y entrenar artefactos de "IA leal", e incluye dos procesos centrales:
Curación de datos (Data Curation): Proceso de selección de datos impulsado por la comunidad, utilizado para la alineación del modelo.
Entrenamiento de Lealtad (Loyalty Training): Asegurarse de que el modelo mantenga un proceso de entrenamiento consistente con la intención de la comunidad.
El sistema de blockchain proporciona transparencia y control descentralizado para el protocolo, asegurando la propiedad de los artefactos de IA, el seguimiento de uso, la distribución de ingresos y una gobernanza justa. La arquitectura específica se divide en cuatro capas:
Capa de almacenamiento: almacenar los pesos del modelo y la información de registro de huellas dactilares;
Capa de distribución: entrada de llamada al modelo controlado por el contrato de autorización;
Capa de acceso: verifica si el usuario está autorizado a través de la prueba de permisos;
Capa de incentivos: el contrato de enrutamiento de ganancias asignará el pago a los entrenadores, implementadores y validadores en cada llamada.
Marco de modelo OML
El marco OML (Abierto Open, Monetizable Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, destinado a proporcionar una clara protección de propiedad y un mecanismo de incentivo económico para modelos de IA de código abierto. Al combinar tecnología on-chain y criptografía nativa de IA, presenta las siguientes características:
Apertura: El modelo debe ser de código abierto, con código y estructura de datos transparentes, facilitando la reproducción, auditoría y mejora por parte de la comunidad.
Monetización: Cada vez que se llama al modelo, se activa un flujo de ingresos, el contrato en la cadena distribuirá los ingresos a los entrenadores, implementadores y validadores.
Lealtad: El modelo pertenece a la comunidad de contribuyentes, la dirección de la actualización y la gobernanza son decididas por la DAO, y el uso y modificación están controlados por mecanismos criptográficos.
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las características de diferenciabilidad del modelo para desarrollar un mecanismo de seguridad ligero "verificable pero no removible". Su tecnología central es:
Huella dactilar incrustada: insertar un conjunto de pares clave-valor de consulta-respuesta encubiertos durante el entrenamiento para formar la firma única del modelo;
Protocolo de verificación de propiedad: verifica si la huella dactilar se conserva a través de un detector de terceros (Prover) en forma de consulta.
Mecanismo de llamada con permiso: antes de la llamada, se debe obtener un "certificado de permiso" emitido por el propietario del modelo, y el sistema autorizará al modelo a decodificar la entrada y devolver la respuesta correcta.
Este enfoque permite lograr "llamadas autorizadas basadas en el comportamiento + verificación de pertenencia" sin el costo de re-encriptación.
Marco de ejecución segura y confirmación de derechos de modelo
Sentient actualmente utiliza Melange seguridad mixta: combinación de verificación por huellas dactilares, ejecución TEE y participación en contratos on-chain. El método de huellas dactilares es implementado por OML 1.0 como línea principal, enfatizando la idea de "seguridad optimista (Optimistic Security)", es decir, se asume la conformidad y se pueden detectar y castigar las infracciones.
El mecanismo de huellas dactilares es una implementación clave de OML, que a través de la incorporación de pares de "pregunta-respuesta" específicos permite que el modelo genere una firma única durante la fase de entrenamiento. A través de estas firmas, el propietario del modelo puede verificar la propiedad, evitando la copia y comercialización no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro on-chain rastreable de las acciones de uso del modelo.
Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución confiables (como AWS Nitro Enclaves) para asegurar que los modelos solo respondan a solicitudes autorizadas, previniendo el acceso y uso no autorizados. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas de alto rendimiento y temporalidad lo convierten en la tecnología central para el despliegue de modelos en la actualidad.
En el futuro, Sentient planea introducir pruebas de conocimiento cero (ZK) y cifrado homomórfico completo (FHE) para mejorar aún más la protección de la privacidad y la verificabilidad, proporcionando soluciones más maduras para el despliegue descentralizado de modelos de IA.
 y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
5 me gusta
Recompensa
5
3
Republicar
Compartir
Comentar
0/400
GasWhisperer
· hace7h
puedo oler la guerra de gas L1 que se aproxima... los modelos centralizados van a ser destruidos cuando deAI llegue
Investigación del ecosistema AI Layer1: explorando la infraestructura de la Descentralización de la inteligencia artificial
Informe de investigación de AI Layer1: buscando la tierra fértil para DeAI en la cadena.
Resumen
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje grandes (LLM). Los LLM han demostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso mostrando potencial para sustituir el trabajo humano en ciertos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente controlado por un pequeño número de gigantes tecnológicos centralizados. Con un fuerte capital y el control sobre los costosos recursos de cómputo, estas empresas han construido barreras casi insuperables, lo que dificulta que la gran mayoría de los desarrolladores y equipos de innovación puedan competir con ellas.
Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública a menudo se centra en los avances y la conveniencia que trae la tecnología, mientras que la atención a cuestiones centrales como la protección de la privacidad, la transparencia y la seguridad es relativamente insuficiente. A largo plazo, estos problemas afectarán profundamente el desarrollo saludable de la industria de la IA y su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA se "dirige hacia el bien" o "hacia el mal" se volverá cada vez más prominente, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la motivación suficiente para abordar estos desafíos de manera proactiva.
La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, ya han surgido muchas aplicaciones de "Web3 AI" en algunas blockchains principales. Sin embargo, un análisis más profundo revela que estos proyectos aún enfrentan numerosos problemas: por un lado, el grado de descentralización es limitado, y los eslabones clave y la infraestructura aún dependen de servicios en la nube centralizados, lo que dificulta el apoyo a un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA en cadena tiene limitaciones en cuanto a la capacidad del modelo, la utilización de datos y los escenarios de aplicación, lo que requiere una mejora en la profundidad y amplitud de la innovación.
Para lograr verdaderamente la visión de la IA descentralizada, hacer que la cadena de bloques pueda soportar de manera segura, eficiente y democrática aplicaciones de IA a gran escala, y competir en rendimiento con las soluciones centralizadas, necesitamos diseñar una cadena de bloques Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de la IA, la gobernanza democrática y la seguridad de los datos, impulsando el próspero desarrollo del ecosistema de IA descentralizada.
características centrales de AI Layer 1
AI Layer 1, como una cadena de bloques diseñada específicamente para aplicaciones de IA, su arquitectura subyacente y el diseño de rendimiento están estrechamente alineados con las necesidades de las tareas de IA, con el objetivo de apoyar de manera eficiente el desarrollo y la prosperidad sostenibles del ecosistema de IA en la cadena. Específicamente, AI Layer 1 debe poseer las siguientes capacidades centrales:
Mecanismos de incentivos eficientes y consenso descentralizado El núcleo de AI Layer 1 radica en construir una red compartida de recursos abiertos como potencia de cálculo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se centran principalmente en el registro de libros contables, los nodos de AI Layer 1 deben asumir tareas más complejas, no solo proporcionando potencia de cálculo y llevando a cabo el entrenamiento e inferencia de modelos de IA, sino también contribuyendo con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso subyacente y el mecanismo de incentivos: AI Layer 1 debe ser capaz de evaluar, incentivar y validar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando la seguridad de la red y la eficiente distribución de recursos. Solo así se podrá garantizar la estabilidad y prosperidad de la red, y reducir eficazmente el costo total de la potencia de cálculo.
Excelentes capacidades de alto rendimiento y soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, presentan altos requisitos de rendimiento computacional y capacidad de procesamiento en paralelo. Más aún, el ecosistema de IA en cadena a menudo necesita soportar una variedad de tipos de tareas heterogéneas, incluyendo diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. La capa de IA de nivel 1 debe optimizarse profundamente en la arquitectura subyacente para cumplir con las demandas de alto rendimiento, baja latencia y paralelismo elástico, y prever la capacidad de soporte nativo para recursos computacionales heterogéneos, asegurando que diversas tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida desde "tareas de tipo único" hasta "ecosistemas complejos y diversos".
Verificabilidad y garantía de salida confiable La Capa 1 de IA no solo debe prevenir riesgos de seguridad como el mal uso de modelos y la alteración de datos, sino que también debe asegurar, desde el mecanismo básico, la verificabilidad y la alineación de los resultados generados por la IA. Al integrar tecnologías de vanguardia como Entornos de Ejecución Confiables (TEE), Pruebas de Conocimiento Cero (ZK) y Cálculo Seguro Multipartito (MPC), la plataforma permite que cada inferencia de modelo, entrenamiento y proceso de manejo de datos pueda ser verificado de manera independiente, asegurando la justicia y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también ayuda a los usuarios a comprender la lógica y la base de los resultados de la IA, logrando que "lo que se obtiene es lo que se desea", aumentando la confianza y satisfacción de los usuarios en los productos de IA.
Protección de la privacidad de los datos Las aplicaciones de IA a menudo involucran datos sensibles de los usuarios, y en campos como las finanzas, la salud y las redes sociales, la protección de la privacidad de los datos es especialmente crucial. AI Layer 1 debe garantizar la verificabilidad mientras utiliza tecnologías de procesamiento de datos basadas en cifrado, protocolos de computación privada y gestión de permisos de datos, asegurando la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo eficazmente la filtración y el abuso de datos, y eliminando las preocupaciones de los usuarios sobre la seguridad de los datos.
Potente capacidad de soporte para la carga y el desarrollo del ecosistema Como infraestructura Layer 1 nativa de IA, la plataforma no solo debe poseer liderazgo técnico, sino que también debe proporcionar a los desarrolladores, operadores de nodos, proveedores de servicios de IA y otros participantes del ecosistema herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivo. A través de la optimización continua de la usabilidad de la plataforma y la experiencia del desarrollador, se promoverá la implementación de aplicaciones ricas y diversas nativas de IA, logrando la prosperidad continua del ecosistema de IA descentralizado.
Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluidos Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances en la pista, analizando el estado actual del desarrollo de los proyectos y explorando las tendencias futuras.
Sentient: Construir modelos de IA descentralizados de código abierto y leales
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está construyendo una cadena de bloques AI Layer1 ( en su fase inicial como Layer 2, y luego se trasladará a Layer 1). Al combinar la AI Pipeline y la tecnología blockchain, se busca construir una economía de inteligencia artificial descentralizada. Su objetivo principal es resolver los problemas de pertenencia de modelos, seguimiento de llamadas y distribución de valor en el mercado LLM centralizado a través del marco "OML" (abierto, rentable, leal), permitiendo que los modelos de IA logren una estructura de propiedad on-chain, transparencia en las llamadas y distribución de valor. La visión de Sentient es permitir que cualquier persona pueda construir, colaborar, poseer y monetizar productos de IA, promoviendo así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los principales expertos académicos, emprendedores y ingenieros en blockchain de todo el mundo, dedicándose a construir una plataforma AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, quienes son responsables de la seguridad y privacidad de la IA, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia y el ecosistema de blockchain. Los antecedentes de los miembros del equipo abarcan empresas reconocidas como Meta, Coinbase, Polygon, así como universidades de élite como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo áreas como IA/ML, NLP y visión por computadora, colaborando para llevar a cabo el proyecto.
Como el segundo proyecto emprendedor de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un halo desde su creación, contando con abundantes recursos, contactos y reconocimiento en el mercado, lo que proporciona un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiamiento inicial de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con otras instituciones inversoras que incluyen a Delphi, Hashkey y Spartan, entre docenas de VC reconocidos.
diseño de arquitectura y capa de aplicación
Capa de infraestructura
Arquitectura central
La arquitectura central de Sentient se compone de dos partes: un sistema de canalización de IA (AI Pipeline) y un sistema de blockchain.
El pipeline de IA es la base para desarrollar y entrenar artefactos de "IA leal", e incluye dos procesos centrales:
El sistema de blockchain proporciona transparencia y control descentralizado para el protocolo, asegurando la propiedad de los artefactos de IA, el seguimiento de uso, la distribución de ingresos y una gobernanza justa. La arquitectura específica se divide en cuatro capas:
Marco de modelo OML
El marco OML (Abierto Open, Monetizable Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, destinado a proporcionar una clara protección de propiedad y un mecanismo de incentivo económico para modelos de IA de código abierto. Al combinar tecnología on-chain y criptografía nativa de IA, presenta las siguientes características:
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las características de diferenciabilidad del modelo para desarrollar un mecanismo de seguridad ligero "verificable pero no removible". Su tecnología central es:
Este enfoque permite lograr "llamadas autorizadas basadas en el comportamiento + verificación de pertenencia" sin el costo de re-encriptación.
Marco de ejecución segura y confirmación de derechos de modelo
Sentient actualmente utiliza Melange seguridad mixta: combinación de verificación por huellas dactilares, ejecución TEE y participación en contratos on-chain. El método de huellas dactilares es implementado por OML 1.0 como línea principal, enfatizando la idea de "seguridad optimista (Optimistic Security)", es decir, se asume la conformidad y se pueden detectar y castigar las infracciones.
El mecanismo de huellas dactilares es una implementación clave de OML, que a través de la incorporación de pares de "pregunta-respuesta" específicos permite que el modelo genere una firma única durante la fase de entrenamiento. A través de estas firmas, el propietario del modelo puede verificar la propiedad, evitando la copia y comercialización no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro on-chain rastreable de las acciones de uso del modelo.
Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución confiables (como AWS Nitro Enclaves) para asegurar que los modelos solo respondan a solicitudes autorizadas, previniendo el acceso y uso no autorizados. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas de alto rendimiento y temporalidad lo convierten en la tecnología central para el despliegue de modelos en la actualidad.
En el futuro, Sentient planea introducir pruebas de conocimiento cero (ZK) y cifrado homomórfico completo (FHE) para mejorar aún más la protección de la privacidad y la verificabilidad, proporcionando soluciones más maduras para el despliegue descentralizado de modelos de IA.
![Biteye y PANews publican conjuntamente un informe de investigación sobre AI Layer1: buscando la tierra fértil para DeAI en la cadena](