Rapport de recherche AI Layer1 : à la recherche d'un terreau DeAI off-chain
Aperçu
Ces dernières années, le développement rapide des grands modèles de langage (LLM) a considérablement élargi l'espace d'imagination de l'humanité, montrant même un potentiel de remplacement du travail humain dans certains domaines. Cependant, le cœur de ces technologies est aux mains de quelques géants technologiques centralisés. Grâce à des capitaux considérables et à un contrôle des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficilement franchissables, rendant la concurrence difficile pour la plupart des développeurs et des équipes d'innovation.
En même temps, au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention portée à des questions clés telles que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces questions ne sont pas résolues de manière appropriée, le débat sur le fait que l'IA soit "bienveillante" ou "malveillante" deviendra de plus en plus prononcé, et les géants centralisés, poussés par leur instinct de profit, manquent souvent de motivation suffisante pour répondre activement à ces défis.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont émergé sur certaines blockchains majeures. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les maillons clés et les infrastructures dépendent encore des services cloud centralisés, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits IA du monde Web2, l'IA on-chain présente encore des limites en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, et la profondeur et l'étendue de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain d'accueillir des applications IA à grande échelle de manière sécurisée, efficace et démocratique, tout en rivalisant en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la gouvernance démocratique et la sécurité des données, favorisant le développement prospère d'un écosystème d'IA décentralisé.
Les caractéristiques clés de l'AI Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a une architecture sous-jacente et une conception de performance étroitement liées aux besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème AI off-chain. Plus précisément, AI Layer 1 devrait posséder les capacités centrales suivantes :
Mécanisme d'incitation efficace et de consensus décentralisé
Le cœur de AI Layer 1 réside dans la construction d'un réseau partagé ouvert de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité des livres, les nœuds de AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, réaliser l'entraînement et l'inférence des modèles d'IA, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, brisant ainsi le monopole des géants centralisés sur l'infrastructure IA. Cela impose des exigences plus élevées en matière de consensus de base et de mécanismes d'incitation : AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans les tâches d'inférence et d'entraînement d'IA, réalisant ainsi la sécurité du réseau et une allocation efficace des ressources. Ce n'est qu'ainsi que l'on pourra garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente performance et capacité de support des tâches hétérogènes
Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, exigent des performances de calcul et des capacités de traitement parallèle extrêmement élevées. De plus, l'écosystème d'IA off-chain doit souvent prendre en charge des types de tâches diversifiés et hétérogènes, y compris différentes structures de modèles, le traitement des données, l'inférence, le stockage et d'autres scénarios variés. Le Layer 1 d'IA doit être profondément optimisé au niveau de l'architecture sous-jacente pour répondre à des exigences telles que le haut débit, la faible latence et le parallélisme flexible, tout en prévoyant une prise en charge native des ressources de calcul hétérogènes, afin d'assurer le bon fonctionnement de diverses tâches d'IA et de permettre une évolution fluide de "tâches uniques" à "écosystèmes complexes et diversifiés".
Vérifiabilité et garantie de sortie fiable
L'IA Layer 1 doit non seulement prévenir les méfaits des modèles, les falsifications de données et autres risques de sécurité, mais aussi garantir la vérifiabilité et l'alignement des résultats générés par l'IA au niveau des mécanismes de base. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), la preuve à divulgation nulle de connaissance (ZK), et le calcul sécurisé multi-parties (MPC), la plateforme permet que chaque processus d'inférence de modèle, de formation et de traitement des données puisse être vérifié de manière indépendante, garantissant l'équité et la transparence du système d'IA. En même temps, cette vérifiabilité aide les utilisateurs à clarifier la logique et les fondements des résultats de l'IA, réalisant ainsi "ce que l'on obtient est ce que l'on souhaite" et renforçant la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données
Les applications d'IA impliquent souvent des données sensibles des utilisateurs. Dans les domaines financier, médical et social, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 doit garantir la vérifiabilité tout en adoptant des techniques de traitement de données basées sur le cryptage, des protocoles de calcul de confidentialité et des systèmes de gestion des autorisations des données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, empêchant efficacement les fuites et les abus de données, et éliminant les inquiétudes des utilisateurs en matière de sécurité des données.
Capacité puissante de support et de développement de l'écosystème
En tant qu'infrastructure de couche 1 native à l'IA, la plateforme doit non seulement posséder un leadership technologique, mais aussi fournir aux développeurs, opérateurs de nœuds, fournisseurs de services IA et autres participants à l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant en permanence la disponibilité de la plateforme et l'expérience des développeurs, nous favorisons le déploiement d'applications IA natives variées et riches, réalisant ainsi la prospérité continue d'un écosystème IA décentralisé.
Sur la base de ce contexte et de ces attentes, cet article présentera en détail six projets représentatifs de l'AI Layer1, notamment Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en systématisant les derniers développements du secteur, en analysant l'état actuel des projets et en discutant des tendances futures.
Sentient : Construire un modèle d'IA décentralisé et open source fidèle
Aperçu du projet
Sentient est une plateforme de protocole open source qui construit une blockchain AI Layer1 ( dans sa phase initiale en tant que Layer 2, puis migrera vers Layer 1). En combinant AI Pipeline et technologie blockchain, elle construit une économie décentralisée d'intelligence artificielle. Son objectif principal est de résoudre les problèmes d'attribution des modèles, de traçabilité des appels et de distribution de valeur sur le marché des LLM centralisés grâce au cadre "OML" (, ouvert, rentable et loyal, permettant aux modèles AI de réaliser une structure de propriété sur la chaîne, une transparence des appels et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits AI, favorisant ainsi un écosystème de réseau d'agents AI équitable et ouvert.
L'équipe de Sentient Foundation réunit des spécialistes académiques, des entrepreneurs en blockchain et des ingénieurs de premier plan du monde entier, s'efforçant de construire une plateforme AGI communautaire, open-source et vérifiable. Les membres clés comprennent le professeur Pramod Viswanath de l'Université de Princeton et le professeur Himanshu Tyagi de l'Institut indien de science, chacun responsable de la sécurité de l'IA et de la protection de la vie privée, tandis que Sandeep Nailwal, co-fondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe viennent de grandes entreprises telles que Meta, Coinbase, Polygon, ainsi que des universités de premier plan comme l'Université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP et la vision par ordinateur, travaillant ensemble pour faire avancer le projet.
En tant que projet de deuxième startup de Sandeep Nailwal, co-fondateur de Polygon, Sentient a dès ses débuts été entouré d'une aura, bénéficiant de ressources riches, de contacts et d'une reconnaissance sur le marché, offrant un fort soutien au développement du projet. À la mi-2024, Sentient a complété un tour de financement de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, avec d'autres investisseurs tels que Delphi, Hashkey et des dizaines de VC renommés comme Spartan.
![Biteye et PANews publient conjointement un rapport de recherche sur l'IA Layer1 : à la recherche d'un sol fertile pour DeAI off-chain])https://img-cdn.gateio.im/webp-social/moments-f4a64f13105f67371db1a93a52948756.webp(
) architecture de conception et couche d'application
Infrastructure
Architecture de base
L'architecture de base de Sentient est composée de deux parties : le pipeline d'IA ### AI Pipeline ( et le système de blockchain.
Le pipeline d'IA est la base du développement et de l'entraînement des artefacts "IA fidèle", comprenant deux processus clés :
Données de planification ) Data Curation ( : un processus de sélection de données piloté par la communauté, utilisé pour l'alignement des modèles.
Formation de fidélité )Loyalty Training( : Assurer que le modèle maintienne un processus de formation cohérent avec les intentions de la communauté.
Le système blockchain offre transparence et contrôle décentralisé pour les protocoles, garantissant la propriété des artefacts d'IA, le suivi de l'utilisation, la répartition des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
Couche de stockage : stocke les poids du modèle et les informations d'enregistrement des empreintes digitales ;
Couche de distribution : entrée d'appel du modèle contrôlé par le contrat d'autorisation ;
Couche d'accès : Vérifier si l'utilisateur est autorisé par la preuve d'autorisation ;
Couche d'incitation : le contrat de routage des revenus distribue les paiements à chaque appel aux formateurs, déployeurs et validateurs.
)## OML modèle cadre
Le cadre OML ### est ouvert, monétisable, et loyal. C'est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native à l'IA, il présente les caractéristiques suivantes:
Ouverture : le modèle doit être open source, avec un code et une structure de données transparents, facilitant la reproduction, l'audit et l'amélioration par la communauté.
Monétisation : Chaque appel de modèle déclenche un flux de revenus, le contrat off-chain répartit les revenus entre les formateurs, les déployeurs et les validateurs.
Loyauté : Le modèle appartient à la communauté des contributeurs, la direction de la mise à niveau et la gouvernance sont décidées par le DAO, l'utilisation et la modification sont contrôlées par un mécanisme cryptographique.
(## AI-native Cryptography)
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure de variété de faible dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie clé est :
Intégration d'empreintes digitales : insérer un ensemble de paires clé-valeur query-response cachées lors de l'entraînement pour former la signature unique du modèle;
Protocole de vérification de propriété : vérifiez si l'empreinte digitale est conservée par le biais d'un détecteur tiers ###Prover( sous forme de requête.
Mécanisme d'appel autorisé : avant l'appel, il est nécessaire d'obtenir le "certificat d'autorisation" délivré par le propriétaire du modèle, le système autorise ensuite le modèle à décoder cette entrée et à renvoyer une réponse précise.
Cette méthode permet de réaliser "l'appel autorisé basé sur le comportement + la vérification d'appartenance" sans coût de ré-encryptage.
)## Cadre de validation des modèles et d'exécution sécurisée
Sentient utilise actuellement la sécurité mixte Melange : combinant la vérification par empreinte digitale, l'exécution TEE et le partage des profits des contrats off-chain. La méthode d'empreinte digitale est mise en œuvre par OML 1.0, soulignant la pensée "sécurité optimiste (Optimistic Security)", c'est-à-dire que la conformité est par défaut, et les violations peuvent être détectées et punies.
Le mécanisme d'empreinte digitale est une réalisation clé d'OML, il permet, par l'intégration de paires de "questions-réponses" spécifiques, de générer des signatures uniques lors de la phase d'entraînement du modèle. Grâce à ces signatures, les propriétaires du modèle peuvent vérifier l'appartenance, empêchant ainsi les copies et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable off-chain des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant un environnement d'exécution de confiance ### tel que AWS Nitro Enclaves ( pour garantir que le modèle ne répond qu'aux demandes autorisées, empêchant ainsi l'accès et l'utilisation non autorisés. Bien que TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de performances élevées et de temps réel en font la technologie centrale pour le déploiement des modèles actuels.
Dans le futur, Sentient prévoit d'introduire des preuves à divulgation nulle de connaissance )ZK( et des technologies de chiffrement homomorphe )FHE( pour renforcer davantage la protection de la vie privée et la vérifiabilité, offrant des solutions plus matures pour le déploiement décentralisé des modèles d'IA.
) couche d'application
Actuellement, les produits de Sentient comprennent principalement la plateforme de chat décentralisée Sentient Chat et le modèle open source Dobby.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
12 J'aime
Récompense
12
6
Partager
Commentaire
0/400
AirdropHuntress
· 07-13 10:15
D'abord, examinez bien le projet avant d'entrer dans une position.
Voir l'originalRépondre0
GateUser-00be86fc
· 07-12 10:51
L'IA doit être décentralisée.
Voir l'originalRépondre0
RugPullAlarm
· 07-10 17:00
AI To the moon L1必热
Voir l'originalRépondre0
SmartContractPlumber
· 07-10 16:56
La centralisation est un problème.
Voir l'originalRépondre0
TokenStorm
· 07-10 16:50
suivre le contrôle des risques pour traverser le désert
AI Layer1 Blockchain : l'infrastructure clé pour l'innovation DeAI off-chain
Rapport de recherche AI Layer1 : à la recherche d'un terreau DeAI off-chain
Aperçu
Ces dernières années, le développement rapide des grands modèles de langage (LLM) a considérablement élargi l'espace d'imagination de l'humanité, montrant même un potentiel de remplacement du travail humain dans certains domaines. Cependant, le cœur de ces technologies est aux mains de quelques géants technologiques centralisés. Grâce à des capitaux considérables et à un contrôle des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficilement franchissables, rendant la concurrence difficile pour la plupart des développeurs et des équipes d'innovation.
En même temps, au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention portée à des questions clés telles que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces questions ne sont pas résolues de manière appropriée, le débat sur le fait que l'IA soit "bienveillante" ou "malveillante" deviendra de plus en plus prononcé, et les géants centralisés, poussés par leur instinct de profit, manquent souvent de motivation suffisante pour répondre activement à ces défis.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont émergé sur certaines blockchains majeures. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les maillons clés et les infrastructures dépendent encore des services cloud centralisés, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits IA du monde Web2, l'IA on-chain présente encore des limites en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, et la profondeur et l'étendue de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain d'accueillir des applications IA à grande échelle de manière sécurisée, efficace et démocratique, tout en rivalisant en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la gouvernance démocratique et la sécurité des données, favorisant le développement prospère d'un écosystème d'IA décentralisé.
Les caractéristiques clés de l'AI Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a une architecture sous-jacente et une conception de performance étroitement liées aux besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème AI off-chain. Plus précisément, AI Layer 1 devrait posséder les capacités centrales suivantes :
Le cœur de AI Layer 1 réside dans la construction d'un réseau partagé ouvert de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité des livres, les nœuds de AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, réaliser l'entraînement et l'inférence des modèles d'IA, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, brisant ainsi le monopole des géants centralisés sur l'infrastructure IA. Cela impose des exigences plus élevées en matière de consensus de base et de mécanismes d'incitation : AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans les tâches d'inférence et d'entraînement d'IA, réalisant ainsi la sécurité du réseau et une allocation efficace des ressources. Ce n'est qu'ainsi que l'on pourra garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, exigent des performances de calcul et des capacités de traitement parallèle extrêmement élevées. De plus, l'écosystème d'IA off-chain doit souvent prendre en charge des types de tâches diversifiés et hétérogènes, y compris différentes structures de modèles, le traitement des données, l'inférence, le stockage et d'autres scénarios variés. Le Layer 1 d'IA doit être profondément optimisé au niveau de l'architecture sous-jacente pour répondre à des exigences telles que le haut débit, la faible latence et le parallélisme flexible, tout en prévoyant une prise en charge native des ressources de calcul hétérogènes, afin d'assurer le bon fonctionnement de diverses tâches d'IA et de permettre une évolution fluide de "tâches uniques" à "écosystèmes complexes et diversifiés".
L'IA Layer 1 doit non seulement prévenir les méfaits des modèles, les falsifications de données et autres risques de sécurité, mais aussi garantir la vérifiabilité et l'alignement des résultats générés par l'IA au niveau des mécanismes de base. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), la preuve à divulgation nulle de connaissance (ZK), et le calcul sécurisé multi-parties (MPC), la plateforme permet que chaque processus d'inférence de modèle, de formation et de traitement des données puisse être vérifié de manière indépendante, garantissant l'équité et la transparence du système d'IA. En même temps, cette vérifiabilité aide les utilisateurs à clarifier la logique et les fondements des résultats de l'IA, réalisant ainsi "ce que l'on obtient est ce que l'on souhaite" et renforçant la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Les applications d'IA impliquent souvent des données sensibles des utilisateurs. Dans les domaines financier, médical et social, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 doit garantir la vérifiabilité tout en adoptant des techniques de traitement de données basées sur le cryptage, des protocoles de calcul de confidentialité et des systèmes de gestion des autorisations des données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, empêchant efficacement les fuites et les abus de données, et éliminant les inquiétudes des utilisateurs en matière de sécurité des données.
En tant qu'infrastructure de couche 1 native à l'IA, la plateforme doit non seulement posséder un leadership technologique, mais aussi fournir aux développeurs, opérateurs de nœuds, fournisseurs de services IA et autres participants à l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant en permanence la disponibilité de la plateforme et l'expérience des développeurs, nous favorisons le déploiement d'applications IA natives variées et riches, réalisant ainsi la prospérité continue d'un écosystème IA décentralisé.
Sur la base de ce contexte et de ces attentes, cet article présentera en détail six projets représentatifs de l'AI Layer1, notamment Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en systématisant les derniers développements du secteur, en analysant l'état actuel des projets et en discutant des tendances futures.
Sentient : Construire un modèle d'IA décentralisé et open source fidèle
Aperçu du projet
Sentient est une plateforme de protocole open source qui construit une blockchain AI Layer1 ( dans sa phase initiale en tant que Layer 2, puis migrera vers Layer 1). En combinant AI Pipeline et technologie blockchain, elle construit une économie décentralisée d'intelligence artificielle. Son objectif principal est de résoudre les problèmes d'attribution des modèles, de traçabilité des appels et de distribution de valeur sur le marché des LLM centralisés grâce au cadre "OML" (, ouvert, rentable et loyal, permettant aux modèles AI de réaliser une structure de propriété sur la chaîne, une transparence des appels et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits AI, favorisant ainsi un écosystème de réseau d'agents AI équitable et ouvert.
L'équipe de Sentient Foundation réunit des spécialistes académiques, des entrepreneurs en blockchain et des ingénieurs de premier plan du monde entier, s'efforçant de construire une plateforme AGI communautaire, open-source et vérifiable. Les membres clés comprennent le professeur Pramod Viswanath de l'Université de Princeton et le professeur Himanshu Tyagi de l'Institut indien de science, chacun responsable de la sécurité de l'IA et de la protection de la vie privée, tandis que Sandeep Nailwal, co-fondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe viennent de grandes entreprises telles que Meta, Coinbase, Polygon, ainsi que des universités de premier plan comme l'Université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP et la vision par ordinateur, travaillant ensemble pour faire avancer le projet.
En tant que projet de deuxième startup de Sandeep Nailwal, co-fondateur de Polygon, Sentient a dès ses débuts été entouré d'une aura, bénéficiant de ressources riches, de contacts et d'une reconnaissance sur le marché, offrant un fort soutien au développement du projet. À la mi-2024, Sentient a complété un tour de financement de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, avec d'autres investisseurs tels que Delphi, Hashkey et des dizaines de VC renommés comme Spartan.
![Biteye et PANews publient conjointement un rapport de recherche sur l'IA Layer1 : à la recherche d'un sol fertile pour DeAI off-chain])https://img-cdn.gateio.im/webp-social/moments-f4a64f13105f67371db1a93a52948756.webp(
) architecture de conception et couche d'application
Infrastructure
Architecture de base
L'architecture de base de Sentient est composée de deux parties : le pipeline d'IA ### AI Pipeline ( et le système de blockchain.
Le pipeline d'IA est la base du développement et de l'entraînement des artefacts "IA fidèle", comprenant deux processus clés :
Le système blockchain offre transparence et contrôle décentralisé pour les protocoles, garantissant la propriété des artefacts d'IA, le suivi de l'utilisation, la répartition des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
)## OML modèle cadre
Le cadre OML ### est ouvert, monétisable, et loyal. C'est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native à l'IA, il présente les caractéristiques suivantes:
(## AI-native Cryptography)
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure de variété de faible dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie clé est :
Cette méthode permet de réaliser "l'appel autorisé basé sur le comportement + la vérification d'appartenance" sans coût de ré-encryptage.
)## Cadre de validation des modèles et d'exécution sécurisée
Sentient utilise actuellement la sécurité mixte Melange : combinant la vérification par empreinte digitale, l'exécution TEE et le partage des profits des contrats off-chain. La méthode d'empreinte digitale est mise en œuvre par OML 1.0, soulignant la pensée "sécurité optimiste (Optimistic Security)", c'est-à-dire que la conformité est par défaut, et les violations peuvent être détectées et punies.
Le mécanisme d'empreinte digitale est une réalisation clé d'OML, il permet, par l'intégration de paires de "questions-réponses" spécifiques, de générer des signatures uniques lors de la phase d'entraînement du modèle. Grâce à ces signatures, les propriétaires du modèle peuvent vérifier l'appartenance, empêchant ainsi les copies et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable off-chain des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant un environnement d'exécution de confiance ### tel que AWS Nitro Enclaves ( pour garantir que le modèle ne répond qu'aux demandes autorisées, empêchant ainsi l'accès et l'utilisation non autorisés. Bien que TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de performances élevées et de temps réel en font la technologie centrale pour le déploiement des modèles actuels.
Dans le futur, Sentient prévoit d'introduire des preuves à divulgation nulle de connaissance )ZK( et des technologies de chiffrement homomorphe )FHE( pour renforcer davantage la protection de la vie privée et la vérifiabilité, offrant des solutions plus matures pour le déploiement décentralisé des modèles d'IA.
) couche d'application
Actuellement, les produits de Sentient comprennent principalement la plateforme de chat décentralisée Sentient Chat et le modèle open source Dobby.