Trusta.AI : Combler le fossé de confiance à l'ère de l'homme et de la machine
1. Introduction
Avec le développement rapide des infrastructures d'intelligence artificielle et l'émergence de cadres de collaboration multi-agents tels que LangGraph et CrewAI, les agents autonomes alimentés par l'IA deviennent rapidement les principaux acteurs des interactions Web3. Dans les 2 à 3 prochaines années, ces agents IA dotés de capacités de prise de décision autonome pourraient remplacer 80 % des comportements humains sur la chaîne, devenant de véritables "utilisateurs" sur la chaîne.
Cependant, l'essor rapide des agents d'IA a également entraîné des défis sans précédent : comment identifier et authentifier l'identité de ces agents intelligents ? Comment évaluer la fiabilité de leurs comportements ? Dans un réseau décentralisé et sans autorisation, comment garantir que ces agents ne soient pas abusés, manipulés ou utilisés pour des attaques ?
Par conséquent, établir une infrastructure on-chain capable de vérifier l'identité et la réputation des agents IA est devenu un enjeu central de la prochaine étape de l'évolution de Web3. La conception de l'identification, des mécanismes de réputation et des cadres de confiance déterminera si les agents IA peuvent réellement réaliser une collaboration transparente avec les humains et les plateformes, et jouer un rôle durable dans l'écosystème futur.
2. Analyse du projet
2.1 Introduction au projet
Trusta.AI s'engage à construire une infrastructure d'identité et de réputation Web3 grâce à l'IA.
Trusta.AI a lancé le premier système d'évaluation de la valeur des utilisateurs Web3 - le score de réputation MEDIA, construisant le plus grand protocole de certification réelle et de réputation sur la chaîne de Web3. Il fournit des analyses de données sur la chaîne et des services de certification réelle pour plusieurs blockchains de premier plan, échanges et protocoles de premier plan. Plus de 2,5 millions de certifications sur la chaîne ont été réalisées sur plusieurs chaînes majeures, devenant le plus grand protocole d'identité du secteur.
Trusta s'étend de la Proof of Humanity à la Proof of AI Agent, réalisant trois mécanismes d'établissement, de quantification et de protection de l'identité pour des services financiers et sociaux basés sur la blockchain pour les agents AI, construisant ainsi une base de confiance fiable à l'ère de l'intelligence artificielle.
2.2 Infrastructure de confiance - Agent IA DID
Dans l'écosystème Web3 futur, les agents IA joueront un rôle crucial, car ils pourront non seulement réaliser des interactions et des transactions sur la chaîne, mais également effectuer des opérations complexes hors chaîne. Cependant, la distinction entre un véritable agent IA et des opérations manipulées par l'homme est essentielle pour le cœur de la confiance décentralisée ------ sans un mécanisme d'authentification fiable, ces agents seront facilement manipulables, victimes de fraudes ou d'abus. C'est pourquoi les multiples applications des agents IA dans les domaines social, financier et de gouvernance doivent être fondées sur une base d'authentification solide.
Les scénarios d'application des agents d'IA deviennent de plus en plus riches, couvrant de nombreux domaines tels que l'interaction sociale, la gestion financière et la prise de décision gouvernementale, avec un niveau d'autonomie et d'intelligence en constante amélioration. C'est pourquoi il est crucial de garantir que chaque agent intelligent dispose d'une identité unique et fiable (DID). En l'absence d'une vérification d'identité efficace, les agents d'IA pourraient être usurpés ou manipulés, entraînant un effondrement de la confiance et des risques pour la sécurité.
Dans un écosystème Web3 entièrement piloté par des agents intelligents à l'avenir, l'authentification des identités n'est pas seulement la pierre angulaire de la sécurité, mais également une ligne de défense nécessaire pour maintenir le bon fonctionnement de l'ensemble de l'écosystème.
En tant que pionnier dans ce domaine, Trusta.AI, grâce à sa puissance technologique de pointe et à son système de réputation rigoureux, a été le premier à établir un mécanisme complet de certification DID pour les agents AI, fournissant une solide garantie pour le fonctionnement fiable des agents intelligents, prévenant efficacement les risques potentiels et favorisant le développement stable de l'économie intelligente Web3.
2.3 Aperçu du projet
2.3.1 Situation de financement
Janvier 2023 : Levée de fonds de 3 millions de dollars lors d'un tour de financement par étapes, dirigée par SevenX Ventures et Vision Plus Capital, avec d'autres participants tels que HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, etc.
Juin 2025 : Achèvement d'un nouveau tour de financement, les investisseurs incluent ConsenSys, Starknet, GSR, UFLY Labs, etc.
2.3.2 Situation de l'équipe
Peet Chen : co-fondateur et PDG, ancien vice-président du groupe Ant Digital Technology, ancien directeur de produit en chef d'Ant Security Technology, ancien directeur général de la plateforme d'identité numérique mondiale ZOLOZ.
Simon : Co-fondateur et CTO, ancien responsable du laboratoire de sécurité AI d'Ant Group, avec quinze ans d'expérience dans l'application de la technologie de l'intelligence artificielle à la sécurité et à la gestion des risques.
L'équipe dispose d'une solide accumulation de technologies et d'une expérience pratique dans les domaines de l'intelligence artificielle et de la gestion des risques de sécurité, de l'architecture des systèmes de paiement et des mécanismes d'authentification. Elle se consacre depuis longtemps à l'application approfondie des grandes données et des algorithmes intelligents dans la gestion des risques de sécurité, ainsi qu'à l'optimisation de la sécurité dans la conception de protocoles sous-jacents et dans des environnements de transactions à haute concurrence, possédant des capacités d'ingénierie solides et des capacités de mise en œuvre de solutions innovantes.
3. Architecture technique
3.1 Analyse technique
3.1.1 Établissement d'identité - DID + TEE
Grâce à un plugin dédié, chaque agent IA obtient un identifiant décentralisé unique sur la chaîne (DID), qui est ensuite stocké en toute sécurité dans un environnement d'exécution de confiance (TEE). Dans cet environnement en boîte noire, les données clés et les processus de calcul sont totalement cachés, les opérations sensibles restent toujours privées, et l'extérieur ne peut pas espionner les détails internes du fonctionnement, créant ainsi une barrière solide pour la sécurité des informations de l'agent IA.
Pour les agents générés avant l'intégration du plugin, nous nous appuyons sur le mécanisme de notation global sur la chaîne pour l'identification; tandis que les agents qui intègrent le nouveau plugin peuvent directement obtenir le "certificat d'identité" délivré par le DID, établissant ainsi un système d'identité d'agent AI autonome, authentique et infalsifiable.
3.1.2 Quantification de l'identité - Cadre SIGMA innovant
L'équipe Trusta s'engage toujours à respecter des principes d'évaluation rigoureuse et d'analyse quantitative, dédiée à créer un système de certification d'identité professionnel et fiable.
L'équipe Trusta a d'abord construit et validé l'efficacité du modèle MEDIA Score dans le cadre de la "preuve humaine". Ce modèle quantifie de manière exhaustive le profil des utilisateurs sur la chaîne selon cinq dimensions, à savoir : montant des interactions (Monétaire), engagement (Engagement), diversité (Diversité), identité (Identité) et âge (Âge).
Le score MEDIA est un système d'évaluation de la valeur des utilisateurs sur la chaîne qui est équitable, objectif et quantifiable. Grâce à ses dimensions d'évaluation complètes et à sa méthodologie rigoureuse, il a été largement adopté par plusieurs grandes chaînes publiques comme référence importante pour le filtrage des qualifications d'airdrop. Il ne se concentre pas uniquement sur le montant des interactions, mais couvre également des indicateurs multidimensionnels tels que l'activité, la diversité des contrats, les caractéristiques d'identité et l'âge des comptes, aidant ainsi les équipes de projet à identifier avec précision les utilisateurs de grande valeur, à améliorer l'efficacité et l'équité de la distribution des incitations, et à refléter pleinement son autorité et sa reconnaissance dans l'industrie.
Sur la base de la construction réussie d'un système d'évaluation des utilisateurs humains, Trusta a transféré et amélioré l'expérience du MEDIA Score vers le scénario AI Agent, établissant un système d'évaluation Sigma plus adapté à la logique comportementale des agents intelligents.
Spécialisation de la spécification : connaissances et degré de spécialisation des agents.
Influence: influence sociale et numérique des agents.
Engagement : la cohérence et la fiabilité de ses interactions en ligne et hors ligne.
Monétaire: La santé financière et la stabilité de l'écosystème des jetons d'agence.
Taux d'adoption : Fréquence et efficacité de l'utilisation des agents AI.
Le mécanisme de notation Sigma construit un système d'évaluation en boucle logique allant de "capacité" à "valeur" basé sur cinq dimensions. MEDIA se concentre sur l'évaluation du niveau d'engagement multifacette des utilisateurs humains, tandis que Sigma s'intéresse davantage à la spécialisation et à la stabilité des agents AI dans des domaines spécifiques, reflétant un changement de la largeur à la profondeur, ce qui correspond mieux aux besoins des agents AI.
Ce système est structuré de manière claire et progressive, capable de refléter pleinement la qualité globale et la valeur écologique des agents IA, permettant ainsi une évaluation quantitative des performances et de la valeur de l'IA, transformant des abstractions de qualité en un système de notation concret et mesurable.
Actuellement, le cadre SIGMA a avancé dans l'établissement de collaborations avec des réseaux d'agents IA réputés tels que Virtual, Elisa OS et Swarm, montrant ainsi son immense potentiel d'application dans la gestion des identités des agents IA et la construction de systèmes de réputation, devenant progressivement le moteur central de la construction d'infrastructures IA fiables.
3.1.3 Protection de l'identité - Mécanisme d'évaluation de la confiance
Dans un système d'IA véritablement résilient et de haute confiance, le plus crucial n'est pas seulement l'établissement de l'identité, mais aussi la vérification continue de l'identité. Trusta.AI introduit un mécanisme d'évaluation de la confiance continue, capable de surveiller en temps réel les agents intelligents certifiés pour déterminer s'ils sont sous contrôle illégal, s'ils subissent une attaque ou s'ils sont soumis à des interventions humaines non autorisées. Le système identifie les écarts potentiels survenant pendant le fonctionnement de l'agent par le biais de l'analyse des comportements et de l'apprentissage automatique, garantissant que chaque action de l'agent reste dans les limites des politiques et cadres établis. Cette approche proactive permet de détecter immédiatement toute déviation par rapport au comportement attendu et de déclencher des mesures de protection automatiques pour maintenir l'intégrité de l'agent.
Trusta.AI a mis en place un mécanisme de garde de sécurité toujours en ligne, examinant en temps réel chaque interaction, garantissant que toutes les opérations sont conformes aux normes du système et aux attentes établies.
3.2 Introduction du produit
3.2.1 AgentGo
Trusta.AI attribue une identité décentralisée à chaque agent AI sur la chaîne (DID), et évalue et indexe sa fiabilité sur la base des données de comportement sur la chaîne, construisant ainsi un système de confiance vérifiable et traçable pour les agents AI. Grâce à ce système, les utilisateurs peuvent identifier et filtrer efficacement les agents intelligents de qualité, améliorant ainsi l'expérience d'utilisation. Actuellement, Trusta a achevé la collecte et l'identification de tous les agents AI du réseau, leur délivrant des identifiants décentralisés et établissant une plateforme de résumé indexée unifiée ------ AgentGo, promouvant ainsi le développement sain de l'écosystème des agents intelligents.
Vérification et validation de l'identité des utilisateurs humains :
Grâce au tableau de bord fourni par Trusta.AI, les utilisateurs humains peuvent facilement rechercher l'identité et la note de confiance d'un agent IA pour évaluer sa fiabilité.
2.Agents AI appel automatique d'index et de validation:
Les IA peuvent lire directement l'interface d'index, permettant une confirmation rapide de l'identité et de la réputation de l'autre, garantissant ainsi la sécurité de la collaboration et des échanges d'informations.
L'Agent IA DID n'est plus seulement une "identité", mais constitue également le soutien de base pour la construction de fonctions clés telles que la collaboration de confiance, la conformité financière et la gouvernance communautaire, devenant ainsi une infrastructure essentielle pour le développement de l'écosystème natif de l'IA. Avec la mise en place de ce système, tous les nœuds confirmés comme sûrs et fiables forment un réseau étroitement interconnecté, réalisant une collaboration efficace et une interconnexion des fonctions entre les Agents IA.
Basé sur la loi de Metcalfe, la valeur du réseau connaîtra une croissance exponentielle, ce qui favorisera la construction d'un écosystème d'agents AI plus efficace, plus fiable et plus collaboratif, permettant le partage de ressources, la réutilisation des capacités et l'augmentation continue de la valeur entre les agents.
AgentGo, en tant que première infrastructure d'identité fiable pour les agents d'IA, fournit un soutien central indispensable à la construction d'un écosystème intelligent hautement sécurisé et collaboratif.
3.2.2 TrustGo
TrustGo est un outil de gestion d'identité en chaîne développé par Trusta. Il fournit des scores en fonction des informations sur cette interaction, l'"âge" du portefeuille, le volume des transactions et le montant des transactions. De plus, TrustGo propose des paramètres liés au classement de la valeur en chaîne, permettant aux utilisateurs de rechercher activement des airdrops et d'améliorer leur capacité à obtenir des airdrops/retours.
La présence du MEDIA Score dans le mécanisme d'évaluation TrustGo est cruciale, car elle offre aux utilisateurs la capacité d'évaluer eux-mêmes leurs activités. Le système d'évaluation du MEDIA Score inclut non seulement des indicateurs simples tels que le nombre et le montant des interactions des utilisateurs avec des contrats intelligents, des protocoles et des dApps, mais se concentre également sur le comportement des utilisateurs. Grâce au MEDIA Score, les utilisateurs peuvent mieux comprendre leurs activités et leur valeur sur la blockchain, tandis que les équipes de projet peuvent attribuer avec précision des ressources et des incitations aux utilisateurs qui contribuent réellement.
TrustGo passe progressivement du mécanisme MEDIA orienté vers l'identité humaine au cadre de confiance SIGMA orienté vers les agents AI, afin de s'adapter aux besoins de vérification d'identité et d'évaluation de la réputation à l'ère des agents.
3.2.3 TrustScan
Le système TrustScan est une solution d'authentification destinée à la nouvelle ère Web3, dont l'objectif principal est d'identifier avec précision si l'entité sur la chaîne est un humain, un agent IA ou une sorcière. Il adopte un mécanisme de double vérification basé sur la connaissance et l'analyse comportementale, mettant l'accent sur l'utilisateur.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
7 J'aime
Récompense
7
4
Reposter
Partager
Commentaire
0/400
ExpectationFarmer
· 07-24 03:36
80 ne quitte pas 20, n'est-ce pas ?
Voir l'originalRépondre0
AirdropHarvester
· 07-21 19:54
c'est l'IA, parlons-en quand ça chauffera
Voir l'originalRépondre0
DAOplomacy
· 07-21 19:43
sans doute une autre solution sous-optimale à des primitives de gouvernance inexistantes...
Voir l'originalRépondre0
CoffeeNFTrader
· 07-21 19:27
La compétition entre l'homme et la machine est vraiment intense 8
Trusta.AI : Créer une infrastructure de confiance pour l'identification et la réputation des agents AI à l'ère du Web3
Trusta.AI : Combler le fossé de confiance à l'ère de l'homme et de la machine
1. Introduction
Avec le développement rapide des infrastructures d'intelligence artificielle et l'émergence de cadres de collaboration multi-agents tels que LangGraph et CrewAI, les agents autonomes alimentés par l'IA deviennent rapidement les principaux acteurs des interactions Web3. Dans les 2 à 3 prochaines années, ces agents IA dotés de capacités de prise de décision autonome pourraient remplacer 80 % des comportements humains sur la chaîne, devenant de véritables "utilisateurs" sur la chaîne.
Cependant, l'essor rapide des agents d'IA a également entraîné des défis sans précédent : comment identifier et authentifier l'identité de ces agents intelligents ? Comment évaluer la fiabilité de leurs comportements ? Dans un réseau décentralisé et sans autorisation, comment garantir que ces agents ne soient pas abusés, manipulés ou utilisés pour des attaques ?
Par conséquent, établir une infrastructure on-chain capable de vérifier l'identité et la réputation des agents IA est devenu un enjeu central de la prochaine étape de l'évolution de Web3. La conception de l'identification, des mécanismes de réputation et des cadres de confiance déterminera si les agents IA peuvent réellement réaliser une collaboration transparente avec les humains et les plateformes, et jouer un rôle durable dans l'écosystème futur.
2. Analyse du projet
2.1 Introduction au projet
Trusta.AI s'engage à construire une infrastructure d'identité et de réputation Web3 grâce à l'IA.
Trusta.AI a lancé le premier système d'évaluation de la valeur des utilisateurs Web3 - le score de réputation MEDIA, construisant le plus grand protocole de certification réelle et de réputation sur la chaîne de Web3. Il fournit des analyses de données sur la chaîne et des services de certification réelle pour plusieurs blockchains de premier plan, échanges et protocoles de premier plan. Plus de 2,5 millions de certifications sur la chaîne ont été réalisées sur plusieurs chaînes majeures, devenant le plus grand protocole d'identité du secteur.
Trusta s'étend de la Proof of Humanity à la Proof of AI Agent, réalisant trois mécanismes d'établissement, de quantification et de protection de l'identité pour des services financiers et sociaux basés sur la blockchain pour les agents AI, construisant ainsi une base de confiance fiable à l'ère de l'intelligence artificielle.
2.2 Infrastructure de confiance - Agent IA DID
Dans l'écosystème Web3 futur, les agents IA joueront un rôle crucial, car ils pourront non seulement réaliser des interactions et des transactions sur la chaîne, mais également effectuer des opérations complexes hors chaîne. Cependant, la distinction entre un véritable agent IA et des opérations manipulées par l'homme est essentielle pour le cœur de la confiance décentralisée ------ sans un mécanisme d'authentification fiable, ces agents seront facilement manipulables, victimes de fraudes ou d'abus. C'est pourquoi les multiples applications des agents IA dans les domaines social, financier et de gouvernance doivent être fondées sur une base d'authentification solide.
Les scénarios d'application des agents d'IA deviennent de plus en plus riches, couvrant de nombreux domaines tels que l'interaction sociale, la gestion financière et la prise de décision gouvernementale, avec un niveau d'autonomie et d'intelligence en constante amélioration. C'est pourquoi il est crucial de garantir que chaque agent intelligent dispose d'une identité unique et fiable (DID). En l'absence d'une vérification d'identité efficace, les agents d'IA pourraient être usurpés ou manipulés, entraînant un effondrement de la confiance et des risques pour la sécurité.
Dans un écosystème Web3 entièrement piloté par des agents intelligents à l'avenir, l'authentification des identités n'est pas seulement la pierre angulaire de la sécurité, mais également une ligne de défense nécessaire pour maintenir le bon fonctionnement de l'ensemble de l'écosystème.
En tant que pionnier dans ce domaine, Trusta.AI, grâce à sa puissance technologique de pointe et à son système de réputation rigoureux, a été le premier à établir un mécanisme complet de certification DID pour les agents AI, fournissant une solide garantie pour le fonctionnement fiable des agents intelligents, prévenant efficacement les risques potentiels et favorisant le développement stable de l'économie intelligente Web3.
2.3 Aperçu du projet
2.3.1 Situation de financement
Janvier 2023 : Levée de fonds de 3 millions de dollars lors d'un tour de financement par étapes, dirigée par SevenX Ventures et Vision Plus Capital, avec d'autres participants tels que HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, etc.
Juin 2025 : Achèvement d'un nouveau tour de financement, les investisseurs incluent ConsenSys, Starknet, GSR, UFLY Labs, etc.
2.3.2 Situation de l'équipe
Peet Chen : co-fondateur et PDG, ancien vice-président du groupe Ant Digital Technology, ancien directeur de produit en chef d'Ant Security Technology, ancien directeur général de la plateforme d'identité numérique mondiale ZOLOZ.
Simon : Co-fondateur et CTO, ancien responsable du laboratoire de sécurité AI d'Ant Group, avec quinze ans d'expérience dans l'application de la technologie de l'intelligence artificielle à la sécurité et à la gestion des risques.
L'équipe dispose d'une solide accumulation de technologies et d'une expérience pratique dans les domaines de l'intelligence artificielle et de la gestion des risques de sécurité, de l'architecture des systèmes de paiement et des mécanismes d'authentification. Elle se consacre depuis longtemps à l'application approfondie des grandes données et des algorithmes intelligents dans la gestion des risques de sécurité, ainsi qu'à l'optimisation de la sécurité dans la conception de protocoles sous-jacents et dans des environnements de transactions à haute concurrence, possédant des capacités d'ingénierie solides et des capacités de mise en œuvre de solutions innovantes.
3. Architecture technique
3.1 Analyse technique
3.1.1 Établissement d'identité - DID + TEE
Grâce à un plugin dédié, chaque agent IA obtient un identifiant décentralisé unique sur la chaîne (DID), qui est ensuite stocké en toute sécurité dans un environnement d'exécution de confiance (TEE). Dans cet environnement en boîte noire, les données clés et les processus de calcul sont totalement cachés, les opérations sensibles restent toujours privées, et l'extérieur ne peut pas espionner les détails internes du fonctionnement, créant ainsi une barrière solide pour la sécurité des informations de l'agent IA.
Pour les agents générés avant l'intégration du plugin, nous nous appuyons sur le mécanisme de notation global sur la chaîne pour l'identification; tandis que les agents qui intègrent le nouveau plugin peuvent directement obtenir le "certificat d'identité" délivré par le DID, établissant ainsi un système d'identité d'agent AI autonome, authentique et infalsifiable.
3.1.2 Quantification de l'identité - Cadre SIGMA innovant
L'équipe Trusta s'engage toujours à respecter des principes d'évaluation rigoureuse et d'analyse quantitative, dédiée à créer un système de certification d'identité professionnel et fiable.
L'équipe Trusta a d'abord construit et validé l'efficacité du modèle MEDIA Score dans le cadre de la "preuve humaine". Ce modèle quantifie de manière exhaustive le profil des utilisateurs sur la chaîne selon cinq dimensions, à savoir : montant des interactions (Monétaire), engagement (Engagement), diversité (Diversité), identité (Identité) et âge (Âge).
Le score MEDIA est un système d'évaluation de la valeur des utilisateurs sur la chaîne qui est équitable, objectif et quantifiable. Grâce à ses dimensions d'évaluation complètes et à sa méthodologie rigoureuse, il a été largement adopté par plusieurs grandes chaînes publiques comme référence importante pour le filtrage des qualifications d'airdrop. Il ne se concentre pas uniquement sur le montant des interactions, mais couvre également des indicateurs multidimensionnels tels que l'activité, la diversité des contrats, les caractéristiques d'identité et l'âge des comptes, aidant ainsi les équipes de projet à identifier avec précision les utilisateurs de grande valeur, à améliorer l'efficacité et l'équité de la distribution des incitations, et à refléter pleinement son autorité et sa reconnaissance dans l'industrie.
Sur la base de la construction réussie d'un système d'évaluation des utilisateurs humains, Trusta a transféré et amélioré l'expérience du MEDIA Score vers le scénario AI Agent, établissant un système d'évaluation Sigma plus adapté à la logique comportementale des agents intelligents.
Le mécanisme de notation Sigma construit un système d'évaluation en boucle logique allant de "capacité" à "valeur" basé sur cinq dimensions. MEDIA se concentre sur l'évaluation du niveau d'engagement multifacette des utilisateurs humains, tandis que Sigma s'intéresse davantage à la spécialisation et à la stabilité des agents AI dans des domaines spécifiques, reflétant un changement de la largeur à la profondeur, ce qui correspond mieux aux besoins des agents AI.
Ce système est structuré de manière claire et progressive, capable de refléter pleinement la qualité globale et la valeur écologique des agents IA, permettant ainsi une évaluation quantitative des performances et de la valeur de l'IA, transformant des abstractions de qualité en un système de notation concret et mesurable.
Actuellement, le cadre SIGMA a avancé dans l'établissement de collaborations avec des réseaux d'agents IA réputés tels que Virtual, Elisa OS et Swarm, montrant ainsi son immense potentiel d'application dans la gestion des identités des agents IA et la construction de systèmes de réputation, devenant progressivement le moteur central de la construction d'infrastructures IA fiables.
3.1.3 Protection de l'identité - Mécanisme d'évaluation de la confiance
Dans un système d'IA véritablement résilient et de haute confiance, le plus crucial n'est pas seulement l'établissement de l'identité, mais aussi la vérification continue de l'identité. Trusta.AI introduit un mécanisme d'évaluation de la confiance continue, capable de surveiller en temps réel les agents intelligents certifiés pour déterminer s'ils sont sous contrôle illégal, s'ils subissent une attaque ou s'ils sont soumis à des interventions humaines non autorisées. Le système identifie les écarts potentiels survenant pendant le fonctionnement de l'agent par le biais de l'analyse des comportements et de l'apprentissage automatique, garantissant que chaque action de l'agent reste dans les limites des politiques et cadres établis. Cette approche proactive permet de détecter immédiatement toute déviation par rapport au comportement attendu et de déclencher des mesures de protection automatiques pour maintenir l'intégrité de l'agent.
Trusta.AI a mis en place un mécanisme de garde de sécurité toujours en ligne, examinant en temps réel chaque interaction, garantissant que toutes les opérations sont conformes aux normes du système et aux attentes établies.
3.2 Introduction du produit
3.2.1 AgentGo
Trusta.AI attribue une identité décentralisée à chaque agent AI sur la chaîne (DID), et évalue et indexe sa fiabilité sur la base des données de comportement sur la chaîne, construisant ainsi un système de confiance vérifiable et traçable pour les agents AI. Grâce à ce système, les utilisateurs peuvent identifier et filtrer efficacement les agents intelligents de qualité, améliorant ainsi l'expérience d'utilisation. Actuellement, Trusta a achevé la collecte et l'identification de tous les agents AI du réseau, leur délivrant des identifiants décentralisés et établissant une plateforme de résumé indexée unifiée ------ AgentGo, promouvant ainsi le développement sain de l'écosystème des agents intelligents.
Grâce au tableau de bord fourni par Trusta.AI, les utilisateurs humains peuvent facilement rechercher l'identité et la note de confiance d'un agent IA pour évaluer sa fiabilité.
2.Agents AI appel automatique d'index et de validation:
Les IA peuvent lire directement l'interface d'index, permettant une confirmation rapide de l'identité et de la réputation de l'autre, garantissant ainsi la sécurité de la collaboration et des échanges d'informations.
L'Agent IA DID n'est plus seulement une "identité", mais constitue également le soutien de base pour la construction de fonctions clés telles que la collaboration de confiance, la conformité financière et la gouvernance communautaire, devenant ainsi une infrastructure essentielle pour le développement de l'écosystème natif de l'IA. Avec la mise en place de ce système, tous les nœuds confirmés comme sûrs et fiables forment un réseau étroitement interconnecté, réalisant une collaboration efficace et une interconnexion des fonctions entre les Agents IA.
Basé sur la loi de Metcalfe, la valeur du réseau connaîtra une croissance exponentielle, ce qui favorisera la construction d'un écosystème d'agents AI plus efficace, plus fiable et plus collaboratif, permettant le partage de ressources, la réutilisation des capacités et l'augmentation continue de la valeur entre les agents.
AgentGo, en tant que première infrastructure d'identité fiable pour les agents d'IA, fournit un soutien central indispensable à la construction d'un écosystème intelligent hautement sécurisé et collaboratif.
3.2.2 TrustGo
TrustGo est un outil de gestion d'identité en chaîne développé par Trusta. Il fournit des scores en fonction des informations sur cette interaction, l'"âge" du portefeuille, le volume des transactions et le montant des transactions. De plus, TrustGo propose des paramètres liés au classement de la valeur en chaîne, permettant aux utilisateurs de rechercher activement des airdrops et d'améliorer leur capacité à obtenir des airdrops/retours.
La présence du MEDIA Score dans le mécanisme d'évaluation TrustGo est cruciale, car elle offre aux utilisateurs la capacité d'évaluer eux-mêmes leurs activités. Le système d'évaluation du MEDIA Score inclut non seulement des indicateurs simples tels que le nombre et le montant des interactions des utilisateurs avec des contrats intelligents, des protocoles et des dApps, mais se concentre également sur le comportement des utilisateurs. Grâce au MEDIA Score, les utilisateurs peuvent mieux comprendre leurs activités et leur valeur sur la blockchain, tandis que les équipes de projet peuvent attribuer avec précision des ressources et des incitations aux utilisateurs qui contribuent réellement.
TrustGo passe progressivement du mécanisme MEDIA orienté vers l'identité humaine au cadre de confiance SIGMA orienté vers les agents AI, afin de s'adapter aux besoins de vérification d'identité et d'évaluation de la réputation à l'ère des agents.
3.2.3 TrustScan
Le système TrustScan est une solution d'authentification destinée à la nouvelle ère Web3, dont l'objectif principal est d'identifier avec précision si l'entité sur la chaîne est un humain, un agent IA ou une sorcière. Il adopte un mécanisme de double vérification basé sur la connaissance et l'analyse comportementale, mettant l'accent sur l'utilisateur.