Rapport de recherche sur l'IA Layer 1 : Explorer l'infrastructure de l'IA Décentralisation
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta continuent de promouvoir le développement rapide des modèles de langage de grande taille (LLM). Les LLM montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humaine et montrant même, dans certains cas, un potentiel pour remplacer le travail humain. Cependant, le cœur de ces technologies est entre les mains d'un petit nombre de géants technologiques centralisés. Grâce à un capital solide et au contrôle de ressources informatiques coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant la concurrence difficile pour la grande majorité des développeurs et des équipes d'innovation.
Dans le même temps, au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention portée aux questions fondamentales telles que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces questions ne sont pas résolues de manière appropriée, le débat sur le fait que l'IA soit "bienveillante" ou "malveillante" deviendra de plus en plus marqué, et les géants centralisés, poussés par leur instinct de profit, manquent souvent de motivation suffisante pour faire face à ces défis de manière proactive.
La technologie blockchain, grâce à ses caractéristiques de Décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont déjà émergé sur certaines blockchains mainstream. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les éléments clés et les infrastructures dépendent encore des services cloud centralisés, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits IA du monde Web2, l'IA sur blockchain reste limitée en termes de capacités de modèle, d'utilisation des données et de scénarios d'application, et la profondeur et la largeur de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision de l'IA décentralisée, permettant à la blockchain de supporter des applications d'IA à grande échelle de manière sécurisée, efficace et démocratique, et de rivaliser en termes de performance avec les solutions centralisées, nous devons concevoir une blockchain Layer 1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la démocratie de gouvernance et la sécurité des données, favorisant le développement prospère de l'écosystème d'IA décentralisée.
Les caractéristiques essentielles de l'IA Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a une architecture sous-jacente et un design de performance étroitement alignés sur les besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème d'IA sur la chaîne. Plus précisément, AI Layer 1 devrait posséder les capacités fondamentales suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace
Le cœur d'AI Layer 1 réside dans la construction d'un réseau partagé ouvert de ressources telles que la puissance de calcul, le stockage, etc. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la tenue de livres, les nœuds d'AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, réaliser l'entraînement et l'inférence de modèles AI, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données, la bande passante, afin de briser le monopole des géants centralisés sur l'infrastructure AI. Cela impose des exigences plus élevées en matière de consensus et de mécanismes d'incitation sous-jacents : AI Layer 1 doit être capable d'évaluer, d'inciter et de valider avec précision la contribution réelle des nœuds dans des tâches telles que l'inférence et l'entraînement AI, réalisant ainsi la sécurité du réseau et une allocation efficace des ressources. Ce n'est qu'ainsi que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente haute performance et support des tâches hétérogènes
Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, posent des exigences très élevées en matière de performance de calcul et de capacité de traitement parallèle. De plus, l'écosystème d'IA sur la chaîne doit souvent prendre en charge une diversité de types de tâches hétérogènes, y compris différentes structures de modèles, traitement des données, inférence, stockage et autres scénarios variés. La couche d'IA de niveau 1 doit être profondément optimisée au niveau de l'architecture sous-jacente pour répondre aux besoins de haut débit, de faible latence et de parallélisme élastique, tout en prévoyant une capacité de prise en charge native des ressources de calcul hétérogènes, afin de garantir que toutes les tâches d'IA puissent fonctionner efficacement et permettre une extension fluide de "tâches uniques" à "écosystèmes complexes et variés".
Vérifiabilité et garantie de sortie fiable
AI Layer 1 doit non seulement prévenir les malveillances des modèles, la falsification des données et d'autres risques de sécurité, mais aussi garantir la vérifiabilité et l'alignement des résultats produits par l'IA dès les mécanismes de base. En intégrant des technologies de pointe telles que l'environnement d'exécution fiable (TEE), la preuve à connaissance nulle (ZK) et le calcul sécurisé multipartite (MPC), la plateforme permet à chaque processus d'inférence, d'entraînement et de traitement des données du modèle d'être vérifié de manière indépendante, assurant ainsi l'équité et la transparence du système d'IA. En outre, cette vérifiabilité aide les utilisateurs à comprendre clairement la logique et les fondements des sorties de l'IA, réalisant ainsi "ce que l'on obtient est ce que l'on désire", augmentant la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données
Les applications d'IA impliquent souvent des données sensibles des utilisateurs. Dans les domaines financier, médical et social, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 doit garantir la vérifiabilité tout en adoptant des technologies de traitement des données basées sur le cryptage, des protocoles de calcul de la vie privée et des méthodes de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, prévenant efficacement les fuites et les abus de données, et éliminant les préoccupations des utilisateurs concernant la sécurité des données.
Puissante capacité de soutien au développement et d'hébergement de l'écosystème
En tant qu'infrastructure de couche 1 native à l'IA, la plateforme doit non seulement posséder un leadership technique, mais aussi fournir aux développeurs, aux opérateurs de nœuds, aux fournisseurs de services d'IA et à d'autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, elle favorise la mise en œuvre d'applications AI natives riches et variées, réalisant ainsi la prospérité continue d'un écosystème AI décentralisé.
Sur la base du contexte et des attentes ci-dessus, cet article présentera en détail six projets représentatifs de l'IA Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en systématisant les derniers développements du secteur, en analysant l'état actuel du développement des projets et en explorant les tendances futures.
Sentient : Construire des modèles d'IA décentralisés open source fidèles
Aperçu du projet
Sentient est une plateforme de protocole open source qui construit une blockchain AI Layer1 ( à ses débuts en tant que Layer 2, puis migrera vers Layer 1). En combinant AI Pipeline et technologie blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de traçabilité des appels et de répartition de la valeur dans le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant aux modèles d'IA de réaliser une structure de propriété en chaîne, une transparence des appels et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, de collaborer, de posséder et de monétiser des produits d'IA, favorisant ainsi un écosystème de réseau d'agents d'IA équitable et ouvert.
L'équipe de Sentient Foundation regroupe des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, s'engageant à construire une plateforme AGI décentralisée, open source et vérifiable, pilotée par la communauté. Les membres clés comprennent Pramod Viswanath, professeur à l'Université de Princeton, et Himanshu Tyagi, professeur à l'Institut indien de science, responsables respectivement de la sécurité et de la protection de la vie privée de l'IA, tandis que la stratégie blockchain et l'écosystème sont dirigés par Sandeep Nailwal, cofondateur d'un projet multi-chaînes connu. Les membres de l'équipe ont des antécédents dans certaines entreprises renommées ainsi que dans des institutions de premier plan comme l'Université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP et la vision par ordinateur, collaborant pour faire avancer le projet.
En tant que projet de deuxième entreprise de Sandeep Nailwal, Sentient a dès ses débuts bénéficié d'un halo, possédant des ressources, des connexions et une reconnaissance sur le marché, ce qui a fourni un puissant soutien au développement du projet. Au milieu de 2024, Sentient a terminé un tour de financement de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, avec d'autres investisseurs comprenant des dizaines de VC renommés tels que Delphi, Hashkey et Spartan.
conception de l'architecture et couche d'application
Couche d'infrastructure
Architecture de base
L'architecture de base de Sentient est composée de deux parties : le pipeline AI (AI Pipeline) et le système de blockchain.
Le pipeline AI est la base du développement et de l'entraînement des artefacts "AI loyal", comprenant deux processus clés :
Planification des données (Data Curation) : un processus de sélection de données piloté par la communauté, utilisé pour l'alignement des modèles.
Formation à la fidélité (Loyalty Training) : s'assurer que le modèle maintient un processus de formation cohérent avec les intentions de la communauté.
Le système blockchain offre transparence et contrôle décentralisé pour les protocoles, garantissant la propriété des artefacts d'IA, le suivi de leur utilisation, la distribution des revenus et une gouvernance équitable. L'architecture spécifique se divise en quatre couches :
Couche de stockage : stocker les poids du modèle et les informations d'enregistrement des empreintes digitales ;
Couche de distribution : le contrat d'autorisation contrôle le point d'entrée de l'appel du modèle ;
Couche d'accès : vérifie si l'utilisateur est autorisé via la preuve de permission ;
Couche d'incitation : le contrat de routage des revenus attribue chaque appel de paiement aux formateurs, déployeurs et validateurs.
Cadre du modèle OML
Le cadre OML (Ouvert, Monétisable, Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie blockchain et la cryptographie native de l'IA, il présente les caractéristiques suivantes :
Ouverture : Le modèle doit être open source, avec un code et une structure de données transparents, facilitant la reproduction, l'audit et l'amélioration par la communauté.
Monétisation : Chaque appel au modèle déclenche un flux de revenus, le contrat sur la chaîne distribuera les revenus aux formateurs, déployeurs et validateurs.
Fidélité : Le modèle appartient à la communauté des contributeurs, la direction des mises à jour et la gouvernance sont décidées par le DAO, et son utilisation et ses modifications sont contrôlées par des mécanismes cryptographiques.
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure de variétés de faible dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non supprimable". Sa technologie clé est :
Empreinte digitale intégrée : insérer un ensemble de paires clé-valeur query-response cachées lors de l'entraînement pour former une signature unique du modèle ;
Protocole de vérification de propriété : vérifier si l'empreinte digitale est conservée via un détecteur tiers (Prover) sous forme de requête.
Mécanisme d'appel autorisé : avant l'appel, il est nécessaire d'obtenir le "certificat d'autorisation" délivré par le propriétaire du modèle, le système accorde ensuite l'autorisation au modèle de décoder cette entrée et de renvoyer une réponse précise.
Cette méthode permet d'implémenter "appels d'autorisation basés sur le comportement + validation d'appartenance" sans coût de recryptage.
Cadre d'exécution sécurisé et de validation des modèles
Sentient utilise actuellement la sécurité hybride Melange : combinant l'authentification par empreinte digitale, l'exécution TEE et le partage des bénéfices des contrats sur la chaîne. La méthode d'empreinte digitale est implémentée par OML 1.0 comme ligne principale, mettant l'accent sur la pensée de "sécurité optimiste (Optimistic Security)", c'est-à-dire conformité par défaut, détection et punition en cas de violation.
Le mécanisme d'empreinte digitale est une mise en œuvre clé d'OML, qui permet au modèle de générer une signature unique pendant la phase d'entraînement en intégrant des paires de "questions-réponses" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant les copies et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable sur la chaîne des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant un environnement d'exécution de confiance (comme AWS Nitro Enclaves) pour s'assurer que les modèles ne répondent qu'aux demandes autorisées, empêchant ainsi tout accès et utilisation non autorisés. Bien que le TEE repose sur du matériel et présente certains risques de sécurité, ses avantages en termes de performances élevées et de réactivité en font la technologie centrale du déploiement actuel des modèles.
À l'avenir, Sentient prévoit d'introduire des preuves à divulgation nulle de connaissance (
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
12 J'aime
Récompense
12
4
Reposter
Partager
Commentaire
0/400
WalletDoomsDay
· Il y a 15h
La technologie a libéré l'humanité tout en l'enfermant.
Voir l'originalRépondre0
DeFiChef
· Il y a 15h
L'IA monopolistique devrait vraiment être décentralisée.
Voir l'originalRépondre0
AirdropBlackHole
· Il y a 15h
Décentralisation aussi c'est assez difficile, non ?
Tendances émergentes de la Blockchain native à l'IA : Explorer l'infrastructure d'intelligence artificielle décentralisée
Rapport de recherche sur l'IA Layer 1 : Explorer l'infrastructure de l'IA Décentralisation
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta continuent de promouvoir le développement rapide des modèles de langage de grande taille (LLM). Les LLM montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humaine et montrant même, dans certains cas, un potentiel pour remplacer le travail humain. Cependant, le cœur de ces technologies est entre les mains d'un petit nombre de géants technologiques centralisés. Grâce à un capital solide et au contrôle de ressources informatiques coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant la concurrence difficile pour la grande majorité des développeurs et des équipes d'innovation.
Dans le même temps, au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention portée aux questions fondamentales telles que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces questions ne sont pas résolues de manière appropriée, le débat sur le fait que l'IA soit "bienveillante" ou "malveillante" deviendra de plus en plus marqué, et les géants centralisés, poussés par leur instinct de profit, manquent souvent de motivation suffisante pour faire face à ces défis de manière proactive.
La technologie blockchain, grâce à ses caractéristiques de Décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont déjà émergé sur certaines blockchains mainstream. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les éléments clés et les infrastructures dépendent encore des services cloud centralisés, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits IA du monde Web2, l'IA sur blockchain reste limitée en termes de capacités de modèle, d'utilisation des données et de scénarios d'application, et la profondeur et la largeur de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision de l'IA décentralisée, permettant à la blockchain de supporter des applications d'IA à grande échelle de manière sécurisée, efficace et démocratique, et de rivaliser en termes de performance avec les solutions centralisées, nous devons concevoir une blockchain Layer 1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la démocratie de gouvernance et la sécurité des données, favorisant le développement prospère de l'écosystème d'IA décentralisée.
Les caractéristiques essentielles de l'IA Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a une architecture sous-jacente et un design de performance étroitement alignés sur les besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème d'IA sur la chaîne. Plus précisément, AI Layer 1 devrait posséder les capacités fondamentales suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace Le cœur d'AI Layer 1 réside dans la construction d'un réseau partagé ouvert de ressources telles que la puissance de calcul, le stockage, etc. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la tenue de livres, les nœuds d'AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, réaliser l'entraînement et l'inférence de modèles AI, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données, la bande passante, afin de briser le monopole des géants centralisés sur l'infrastructure AI. Cela impose des exigences plus élevées en matière de consensus et de mécanismes d'incitation sous-jacents : AI Layer 1 doit être capable d'évaluer, d'inciter et de valider avec précision la contribution réelle des nœuds dans des tâches telles que l'inférence et l'entraînement AI, réalisant ainsi la sécurité du réseau et une allocation efficace des ressources. Ce n'est qu'ainsi que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente haute performance et support des tâches hétérogènes Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, posent des exigences très élevées en matière de performance de calcul et de capacité de traitement parallèle. De plus, l'écosystème d'IA sur la chaîne doit souvent prendre en charge une diversité de types de tâches hétérogènes, y compris différentes structures de modèles, traitement des données, inférence, stockage et autres scénarios variés. La couche d'IA de niveau 1 doit être profondément optimisée au niveau de l'architecture sous-jacente pour répondre aux besoins de haut débit, de faible latence et de parallélisme élastique, tout en prévoyant une capacité de prise en charge native des ressources de calcul hétérogènes, afin de garantir que toutes les tâches d'IA puissent fonctionner efficacement et permettre une extension fluide de "tâches uniques" à "écosystèmes complexes et variés".
Vérifiabilité et garantie de sortie fiable AI Layer 1 doit non seulement prévenir les malveillances des modèles, la falsification des données et d'autres risques de sécurité, mais aussi garantir la vérifiabilité et l'alignement des résultats produits par l'IA dès les mécanismes de base. En intégrant des technologies de pointe telles que l'environnement d'exécution fiable (TEE), la preuve à connaissance nulle (ZK) et le calcul sécurisé multipartite (MPC), la plateforme permet à chaque processus d'inférence, d'entraînement et de traitement des données du modèle d'être vérifié de manière indépendante, assurant ainsi l'équité et la transparence du système d'IA. En outre, cette vérifiabilité aide les utilisateurs à comprendre clairement la logique et les fondements des sorties de l'IA, réalisant ainsi "ce que l'on obtient est ce que l'on désire", augmentant la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs. Dans les domaines financier, médical et social, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 doit garantir la vérifiabilité tout en adoptant des technologies de traitement des données basées sur le cryptage, des protocoles de calcul de la vie privée et des méthodes de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, prévenant efficacement les fuites et les abus de données, et éliminant les préoccupations des utilisateurs concernant la sécurité des données.
Puissante capacité de soutien au développement et d'hébergement de l'écosystème En tant qu'infrastructure de couche 1 native à l'IA, la plateforme doit non seulement posséder un leadership technique, mais aussi fournir aux développeurs, aux opérateurs de nœuds, aux fournisseurs de services d'IA et à d'autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, elle favorise la mise en œuvre d'applications AI natives riches et variées, réalisant ainsi la prospérité continue d'un écosystème AI décentralisé.
Sur la base du contexte et des attentes ci-dessus, cet article présentera en détail six projets représentatifs de l'IA Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en systématisant les derniers développements du secteur, en analysant l'état actuel du développement des projets et en explorant les tendances futures.
Sentient : Construire des modèles d'IA décentralisés open source fidèles
Aperçu du projet
Sentient est une plateforme de protocole open source qui construit une blockchain AI Layer1 ( à ses débuts en tant que Layer 2, puis migrera vers Layer 1). En combinant AI Pipeline et technologie blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de traçabilité des appels et de répartition de la valeur dans le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant aux modèles d'IA de réaliser une structure de propriété en chaîne, une transparence des appels et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, de collaborer, de posséder et de monétiser des produits d'IA, favorisant ainsi un écosystème de réseau d'agents d'IA équitable et ouvert.
L'équipe de Sentient Foundation regroupe des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, s'engageant à construire une plateforme AGI décentralisée, open source et vérifiable, pilotée par la communauté. Les membres clés comprennent Pramod Viswanath, professeur à l'Université de Princeton, et Himanshu Tyagi, professeur à l'Institut indien de science, responsables respectivement de la sécurité et de la protection de la vie privée de l'IA, tandis que la stratégie blockchain et l'écosystème sont dirigés par Sandeep Nailwal, cofondateur d'un projet multi-chaînes connu. Les membres de l'équipe ont des antécédents dans certaines entreprises renommées ainsi que dans des institutions de premier plan comme l'Université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP et la vision par ordinateur, collaborant pour faire avancer le projet.
En tant que projet de deuxième entreprise de Sandeep Nailwal, Sentient a dès ses débuts bénéficié d'un halo, possédant des ressources, des connexions et une reconnaissance sur le marché, ce qui a fourni un puissant soutien au développement du projet. Au milieu de 2024, Sentient a terminé un tour de financement de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, avec d'autres investisseurs comprenant des dizaines de VC renommés tels que Delphi, Hashkey et Spartan.
conception de l'architecture et couche d'application
Couche d'infrastructure
Architecture de base
L'architecture de base de Sentient est composée de deux parties : le pipeline AI (AI Pipeline) et le système de blockchain.
Le pipeline AI est la base du développement et de l'entraînement des artefacts "AI loyal", comprenant deux processus clés :
Le système blockchain offre transparence et contrôle décentralisé pour les protocoles, garantissant la propriété des artefacts d'IA, le suivi de leur utilisation, la distribution des revenus et une gouvernance équitable. L'architecture spécifique se divise en quatre couches :
Cadre du modèle OML
Le cadre OML (Ouvert, Monétisable, Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie blockchain et la cryptographie native de l'IA, il présente les caractéristiques suivantes :
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure de variétés de faible dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non supprimable". Sa technologie clé est :
Cette méthode permet d'implémenter "appels d'autorisation basés sur le comportement + validation d'appartenance" sans coût de recryptage.
Cadre d'exécution sécurisé et de validation des modèles
Sentient utilise actuellement la sécurité hybride Melange : combinant l'authentification par empreinte digitale, l'exécution TEE et le partage des bénéfices des contrats sur la chaîne. La méthode d'empreinte digitale est implémentée par OML 1.0 comme ligne principale, mettant l'accent sur la pensée de "sécurité optimiste (Optimistic Security)", c'est-à-dire conformité par défaut, détection et punition en cas de violation.
Le mécanisme d'empreinte digitale est une mise en œuvre clé d'OML, qui permet au modèle de générer une signature unique pendant la phase d'entraînement en intégrant des paires de "questions-réponses" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant les copies et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable sur la chaîne des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant un environnement d'exécution de confiance (comme AWS Nitro Enclaves) pour s'assurer que les modèles ne répondent qu'aux demandes autorisées, empêchant ainsi tout accès et utilisation non autorisés. Bien que le TEE repose sur du matériel et présente certains risques de sécurité, ses avantages en termes de performances élevées et de réactivité en font la technologie centrale du déploiement actuel des modèles.
À l'avenir, Sentient prévoit d'introduire des preuves à divulgation nulle de connaissance (