مع التطور السريع للبنية التحتية للذكاء الاصطناعي، وظهور أطر التعاون متعددة العملاء مثل LangGraph و CrewAI، فإن الوكلاء المدعومين بالذكاء الاصطناعي على السلسلة أصبحوا بسرعة القوة الرئيسية للتفاعل في Web3. في غضون 2-3 سنوات القادمة، قد تحل هذه الوكلاء المدعومين بالذكاء الاصطناعي القادرين على اتخاذ قرارات مستقلة محل 80% من السلوك البشري على السلسلة، لتصبح "المستخدمين" الحقيقيين على السلسلة.
ومع ذلك، فإن الصعود السريع لوكيل الذكاء الاصطناعي قد جلب أيضًا تحديات غير مسبوقة: كيف يمكن التعرف على هوية هؤلاء الوكلاء والمصادقة عليها؟ كيف يمكن الحكم على مصداقية سلوكهم؟ في شبكة غير مركزية وغير مصرح بها، كيف يمكن ضمان عدم إساءة استخدام هؤلاء الوكلاء أو التلاعب بهم أو استخدامهم في الهجمات؟
لذلك، أصبح إنشاء بنية تحتية قائمة على سلسلة الكتل يمكنها التحقق من هوية وسمعة وكيل الذكاء الاصطناعي، هو المسألة المركزية في المرحلة التالية من تطور Web3. ستحدد تصميم آليات التعرف على الهوية وآليات السمعة وإطارات الثقة ما إذا كان بإمكان وكيل الذكاء الاصطناعي تحقيق تعاون سلس حقًا مع البشر والمنصات، وأن يلعب دورًا مستدامًا في النظام البيئي المستقبلي.
تسعى Trusta.AI إلى بناء بنية تحتية للهوية والسمعة في Web3 من خلال الذكاء الاصطناعي.
طرحت Trusta.AI أول نظام تقييم لقيمة مستخدمي Web3 - نظام تقييم سمعة MEDIA، وأنشأت أكبر بروتوكول مصداقية حقيقية على السلسلة في Web3. توفر تحليلات البيانات على السلسلة وخدمات المصادقة الحقيقية للعديد من سلاسل الكتل الرئيسية، والبورصات، والبروتوكولات الرائدة. تم إجراء أكثر من 2.5 مليون مصادقة على السلسلة عبر عدة سلاسل رئيسية، مما جعلها أكبر بروتوكول هوية في الصناعة.
تقوم Trusta بالتوسع من إثبات الإنسانية إلى إثبات وكيل الذكاء الاصطناعي، حيث حققت إنشاء الهوية وتQuantification الهوية وحماية الهوية من خلال آلية ثلاثية لتحقيق الخدمات المالية على سلسلة وكيل الذكاء الاصطناعي والتواصل الاجتماعي على السلسلة، مما يساهم في بناء أساس موثوق للثقة في عصر الذكاء الاصطناعي.
2.2 بنية الثقة - وكيل الذكاء الاصطناعي DID
في البيئة المستقبلية لـ Web3، سيلعب وكلاء الذكاء الاصطناعي دورًا حاسمًا، حيث يمكنهم تنفيذ التفاعلات والمعاملات على السلسلة، وكذلك القيام بعمليات معقدة خارج السلسلة. ومع ذلك، فإن كيفية التمييز بين وكلاء الذكاء الاصطناعي الحقيقيين والتدخل البشري في العمليات هي مسألة تتعلق بجوهر الثقة اللامركزية - إذا لم يكن هناك آلية موثوقة للتحقق من الهوية، فإن هذه الوكلاء ستكون عرضة للتلاعب أو الاحتيال أو الإساءة. وهذا هو السبب في أن الخصائص المتعددة لوكلاء الذكاء الاصطناعي في مجالات مثل الشبكات الاجتماعية والمالية والحوكمة يجب أن تقوم على أساس قوي من التحقق من الهوية.
تزداد مشاهد تطبيقات وكيل الذكاء الاصطناعي تنوعًا، حيث تشمل التفاعل الاجتماعي وإدارة المالية واتخاذ القرارات الحكومية في مجالات متعددة، وتستمر مستويات استقلاليتها وذكائها في الارتفاع. ومن هنا، فإن ضمان أن يمتلك كل وكيل هوية فريدة وموثوقة (DID) أمر بالغ الأهمية. في غياب تحقق فعال من الهوية، قد يتعرض وكيل الذكاء الاصطناعي للاستخدام غير المشروع أو التحكم، مما يؤدي إلى انهيار الثقة ومخاطر أمنية.
في نظام Web3 البيئي المدفوع بالكامل من قبل الوكلاء في المستقبل، فإن التحقق من الهوية ليس فقط حجر الزاوية لضمان الأمان، بل هو أيضًا خط الدفاع الضروري للحفاظ على التشغيل الصحي للنظام البيئي بأكمله.
باعتبارها رائدة في هذا المجال، قامت Trusta.AI، بفضل قوتها التقنية الرائدة ونظام الائتمان الصارم، ببناء آلية مصادقة AI Agent DID بشكل كامل، مما يوفر ضمانًا قويًا للتشغيل الموثوق للوكلاء الذكيين، ويعمل على الوقاية بشكل فعال من المخاطر المحتملة، ويدفع التنمية المستدامة للاقتصاد الذكي في Web3.
يناير 2023: إكمال جولة تمويل بذور بقيمة 3 ملايين دولار، بقيادة SevenX Ventures و Vision Plus Capital، وشارك في الجولة كل من HashKey Capital و Redpoint Ventures و GGV Capital و SNZ Holding وغيرها.
يونيو 2025: إتمام جولة تمويل جديدة، تشمل المستثمرين ConsenSys و Starknet و GSR و UFLY Labs وغيرها.
2.3.2 حالة الفريق
بيت تشين: المؤسس المشارك والرئيس التنفيذي، نائب الرئيس السابق لمجموعة أنتي الرقمية، رئيس المنتجات في أنتي للأمن التكنولوجي، المدير العام السابق لمنصة زولوز العالمية للهوية الرقمية.
سايمون: المؤسس المشارك ورئيس قسم التكنولوجيا، المدير السابق لمختبر أمان الذكاء الاصطناعي في مجموعة علي بابا، لديه خمسة عشر عاماً من الخبرة في تطبيق تقنيات الذكاء الاصطناعي في الأمان وإدارة المخاطر.
يمتلك الفريق خبرة تقنية عميقة وتجارب عملية في الذكاء الاصطناعي وإدارة المخاطر الأمنية، وهيكل أنظمة الدفع وآليات التحقق من الهوية. يكرس الفريق جهوده منذ فترة طويلة لتطبيق البيانات الضخمة والخوارزميات الذكية في إدارة المخاطر الأمنية، بالإضافة إلى تصميم البروتوكولات الأساسية وتحسين الأمان في بيئات المعاملات عالية التردد. يمتلك الفريق قدرات هندسية قوية وقدرة على تنفيذ حلول مبتكرة.
3. الهيكل الفني
3.1 تحليل تقني
3.1.1 إنشاء الهوية - DID + TEE
من خلال المكونات الإضافية المخصصة، يحصل كل وكيل AI على معرف لامركزي فريد على السلسلة (DID)، ويتم تخزينه بأمان في بيئة تنفيذ موثوقة (TEE). في هذه البيئة الصندوقية، يتم إخفاء البيانات الأساسية وعملية الحساب تمامًا، وتظل العمليات الحساسة خاصة دائمًا، ولا يمكن للجهات الخارجية التطفل على تفاصيل التشغيل الداخلية، مما يبني بشكل فعال حاجزًا قويًا لأمان معلومات وكيل AI.
بالنسبة للوسطاء الذين تم إنشاؤهم قبل دمج المكون الإضافي، نعتمد على آلية التقييم الشاملة على السلسلة للتعرف على الهوية؛ بينما يمكن للوسطاء الذين تم دمجهم حديثًا الحصول مباشرةً على "شهادة الهوية" التي تصدرها DID، مما يؤدي إلى إنشاء نظام هوية لوكيل الذكاء الاصطناعي يتمتع بالتحكم الذاتي والموثوقية وعدم القابلية للتغيير.
تتمسك فريق Trusta دائمًا بمبادئ التقييم الدقيق والتحليل الكمي، وتكرس جهودها لبناء نظام موثوق للمصادقة على الهوية.
بنى فريق Trusta وقام بالتحقق من فعالية نموذج MEDIA Score في سيناريو "إثبات الإنسان" في وقت مبكر. يقوم هذا النموذج بتكميم صورة المستخدمين على السلسلة من خمسة أبعاد، وهي: مقدار التفاعل (Monetary)، مستوى المشاركة (Engagement)، التنوع (Diversity)، الهوية (Identity) والعمر (Age).
تScore MEDIA هو نظام تقييم قيمة المستخدمين على السلسلة بشكل عادل وموضوعي وقابل للقياس، بفضل أبعاده التقييمية الشاملة ومنهجه الصارم، تم اعتماده على نطاق واسع من قبل العديد من سلاسل الكتل الرائدة، كمعيار مرجعي مهم لتصفية مؤهلات الاستثمارات. إنه لا يركز فقط على قيمة التفاعل، بل يشمل أيضًا مؤشرات متعددة الأبعاد مثل النشاط، تنوع العقود، الخصائص الهوية وعمر الحساب، مما يساعد فرق المشاريع في التعرف بدقة على المستخدمين ذوي القيمة العالية، وزيادة كفاءة وعدالة توزيع الحوافز، مما يعكس تمامًا سلطته واعترافه الواسع في الصناعة.
بناءً على النجاح في بناء نظام تقييم المستخدمين البشريين، قامت Trusta بنقل وتجديد خبرة MEDIA Score إلى سيناريو AI Agent، وأنشأت نظام تقييم Sigma الذي يتناسب بشكل أفضل مع منطق سلوك الوكلاء الذكيين.
التخصص: المعرفة المهنية ودرجة التخصص للوكيل.
التأثير: التأثير الاجتماعي والرقمي للوكيل.
مستوى المشاركة: اتساق وموثوقية التفاعلات على السلسلة وخارج السلسلة.
النقدية: صحة واستقرار النظام البيئي للتوكنات الوكيلة.
معدل الاعتماد: تردد وكفاءة استخدام وكيل الذكاء الاصطناعي.
تقوم آلية تقييم Sigma ببناء نظام تقييم منطقي مغلق من "القدرة" إلى "القيمة" عبر خمسة أبعاد. تركز MEDIA على تقييم مدى مشاركة المستخدمين البشريين من زوايا متعددة، بينما يركز Sigma أكثر على احترافية واستقرار الوكلاء الذكاء الاصطناعي في مجالات معينة، مما يعكس التحول من الشمولية إلى العمق، وهو ما يتماشى بشكل أفضل مع احتياجات وكيل الذكاء الاصطناعي.
هذا النظام يتقدم خطوة بخطوة، وهيكلها واضح، قادر على عكس الجودة الشاملة والقيمة البيئية لوكيل الذكاء الاصطناعي بشكل كامل، وبالتالي تحقيق تقييم كمي للأداء والقيمة للذكاء الاصطناعي، وتحويل المزايا والعيوب المجردة إلى نظام تقييم ملموس وقابل للقياس.
حاليًا، تم推进 إطار SIGMA بالتعاون مع الشبكات المعروفة لوكلاء الذكاء الاصطناعي مثل Virtual وElisa OS وSwarm، مما يظهر إمكانياته الكبيرة في إدارة هوية وكلاء الذكاء الاصطناعي وبناء أنظمة السمعة، وهو أصبح تدريجياً المحرك الرئيسي لتعزيز بناء بنية تحتية موثوقة للذكاء الاصطناعي.
3.1.3 حماية الهوية - آلية تقييم الثقة
في نظام ذكاء اصطناعي يتمتع بمرونة عالية وموثوقية كبيرة، فإن الأمر الأكثر أهمية ليس مجرد إنشاء الهوية، بل هو التحقق المستمر من الهوية. تقدم Trusta.AI مجموعة من آليات تقييم الثقة المستمرة، والتي يمكن أن تراقب الوكلاء الذكيين المعتمدين في الوقت الفعلي، لتحديد ما إذا كانوا تحت السيطرة غير القانونية، أو تعرضوا لهجوم، أو تأثروا بتدخل بشري غير مصرح به. يقوم النظام بتحديد الانحرافات المحتملة خلال تشغيل الوكيل من خلال تحليل السلوك وتعلم الآلة، لضمان بقاء كل تصرف للوكيل ضمن السياسات والأطر المحددة. تضمن هذه الطريقة الاستباقية اكتشاف أي انحراف عن السلوك المتوقع على الفور، وتفعيل تدابير الحماية التلقائية للحفاظ على سلامة الوكيل.
أنشأت Trusta.AI آلية حراسة أمان متصلة دائمًا، تراجع في الوقت الحقيقي كل تفاعل، لضمان توافق جميع العمليات مع معايير النظام والتوقعات المحددة.
3.2 مقدمة المنتج
3.2.1 AgentGo
تقوم Trusta.AI بتخصيص هويات لامركزية لكل وكيل ذكاء اصطناعي على السلسلة (DID)، وتقوم بتصنيفه وفهرسته بناءً على بيانات السلوك على السلسلة، مما ينشئ نظام ثقة قابل للتحقق وقابل للتتبع لوكلاء الذكاء الاصطناعي. من خلال هذا النظام، يمكن للمستخدمين التعرف بكفاءة على وكلاء ذكيين ذوي جودة عالية واختيارهم، مما يعزز تجربة الاستخدام. حتى الآن، أكملت Trusta جمع وتحديد وكلاء الذكاء الاصطناعي على الشبكة بالكامل، ومنحتهم معرفات لامركزية، وأقامت منصة موحدة لفهرسة التجميع ------ AgentGo، مما يعزز التطور الصحي لبيئة الوكلاء الذكيين.
استعلام والتحقق من هوية المستخدم البشري:
من خلال لوحة المعلومات التي تقدمها Trusta.AI، يمكن للمستخدمين البشريين البحث بسهولة عن هوية وكيل الذكاء الاصطناعي وتقييم موثوقيته، لتحديد ما إذا كان يمكن الوثوق به.
يمكن للذكاء الاصطناعي قراءة واجهة الفهرس مباشرة بينهما، مما يحقق التأكيد السريع على هوية الآخر وسمعته، ويضمن أمان التعاون وتبادل المعلومات.
لم يعد DID لوكيل الذكاء الاصطناعي مجرد "هوية"، بل أصبح دعماً أساسياً لبناء التعاون الموثوق والامتثال المالي وحوكمة المجتمع وغيرها من الوظائف الأساسية، ليصبح البنية التحتية الضرورية لتطور النظام البيئي الأصلي للذكاء الاصطناعي. مع بناء هذا النظام، تشكلت شبكة مترابطة بإحكام من جميع النقاط المعتمدة الآمنة والموثوقة، مما حقق تعاوناً فعالاً وترابطاً وظيفياً بين وكلاء الذكاء الاصطناعي.
استنادًا إلى قانون ميتكالف، ستشهد قيمة الشبكة نموًا أسيًا، مما سيدفع لبناء نظام بيئي لوكلاء الذكاء الاصطناعي أكثر كفاءة، مع أساس موثوق وقدرة على التعاون، لتحقيق مشاركة الموارد بين الوكلاء، وإعادة استخدام القدرات، وزيادة القيمة المستمرة.
تعتبر AgentGo كأول بنية تحتية موثوقة للهوية موجهة لوكلاء الذكاء الاصطناعي، وهي تقدم دعماً أساسياً لا غنى عنه لبناء نظام ذكي عالي الأمان وعالي التعاون.
TrustGo هو أداة لإدارة الهوية على السلسلة تم تطويرها بواسطة Trusta، حيث تقدم تقييمًا بناءً على التفاعل الحالي، "عمر" المحفظة، وحجم المعاملات والمبلغ المتداول. بالإضافة إلى ذلك، يوفر TrustGo معلمات متعلقة بتصنيف القيمة على السلسلة، مما يسهل على المستخدمين البحث بنشاط عن الإصدارات المجانية، وزيادة قدرتهم على الحصول على الإصدارات المجانية / الرجوع.
وجود MEDIA Score في آلية تقييم TrustGo أمر بالغ الأهمية، حيث يوفر للمستخدمين القدرة على تقييم أنشطتهم بأنفسهم. نظام تقييم MEDIA Score لا يشمل فقط مؤشرات بسيطة مثل عدد وقيمة التفاعلات بين المستخدم والعقود الذكية والبروتوكولات وdApp، بل يركز أيضًا على سلوك المستخدمين. من خلال MEDIA Score، يمكن للمستخدمين فهم أنشطتهم وقيمتهم على السلسلة بشكل أعمق، بينما يمكن لفرق المشاريع توزيع الموارد والحوافز بدقة على المستخدمين الذين يقدمون مساهمات حقيقية.
تنتقل TrustGo تدريجياً من آلية MEDIA الموجهة نحو الهوية البشرية إلى إطار الثقة SIGMA الموجه نحو وكيل الذكاء الاصطناعي، لتلبية احتياجات التحقق من الهوية وتقييم السمعة في عصر الوكلاء.
3.2.3 TrustScan
نظام TrustScan هو حل للتحقق من الهوية موجه نحو عصر Web3 الجديد، والهدف الأساسي منه هو التعرف بدقة على الكيانات على السلسلة سواء كانت بشرية، أو وكلاء ذكاء اصطناعي، أو ساحرات. يعتمد على آلية تحقق مزدوجة تعتمد على المعرفة + تحليل السلوك، مع التأكيد على المستخدم.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 7
أعجبني
7
4
إعادة النشر
مشاركة
تعليق
0/400
ExpectationFarmer
· 07-24 03:36
80 لا تترك 20
شاهد النسخة الأصليةرد0
AirdropHarvester
· 07-21 19:54
هل هو الذكاء الاصطناعي؟ دعنا نتحدث عن التداول لاحقًا.
شاهد النسخة الأصليةرد0
DAOplomacy
· 07-21 19:43
من المحتمل أنها حل آخر دون المستوى الأمثل للمبادئ التوجيهية غير الموجودة...
Trusta.AI: بناء بنية تحتية موثوقة للهوية والسمعة لوكلاء الذكاء الاصطناعي في عصر Web3
Trusta.AI: جسر الثقة عبر عصر الإنسان والآلة
1. المقدمة
مع التطور السريع للبنية التحتية للذكاء الاصطناعي، وظهور أطر التعاون متعددة العملاء مثل LangGraph و CrewAI، فإن الوكلاء المدعومين بالذكاء الاصطناعي على السلسلة أصبحوا بسرعة القوة الرئيسية للتفاعل في Web3. في غضون 2-3 سنوات القادمة، قد تحل هذه الوكلاء المدعومين بالذكاء الاصطناعي القادرين على اتخاذ قرارات مستقلة محل 80% من السلوك البشري على السلسلة، لتصبح "المستخدمين" الحقيقيين على السلسلة.
ومع ذلك، فإن الصعود السريع لوكيل الذكاء الاصطناعي قد جلب أيضًا تحديات غير مسبوقة: كيف يمكن التعرف على هوية هؤلاء الوكلاء والمصادقة عليها؟ كيف يمكن الحكم على مصداقية سلوكهم؟ في شبكة غير مركزية وغير مصرح بها، كيف يمكن ضمان عدم إساءة استخدام هؤلاء الوكلاء أو التلاعب بهم أو استخدامهم في الهجمات؟
لذلك، أصبح إنشاء بنية تحتية قائمة على سلسلة الكتل يمكنها التحقق من هوية وسمعة وكيل الذكاء الاصطناعي، هو المسألة المركزية في المرحلة التالية من تطور Web3. ستحدد تصميم آليات التعرف على الهوية وآليات السمعة وإطارات الثقة ما إذا كان بإمكان وكيل الذكاء الاصطناعي تحقيق تعاون سلس حقًا مع البشر والمنصات، وأن يلعب دورًا مستدامًا في النظام البيئي المستقبلي.
! Trusta.AI: عبور فجوة الثقة في عصر الإنسان والآلة
2. تحليل المشروع
2.1 مقدمة المشروع
تسعى Trusta.AI إلى بناء بنية تحتية للهوية والسمعة في Web3 من خلال الذكاء الاصطناعي.
طرحت Trusta.AI أول نظام تقييم لقيمة مستخدمي Web3 - نظام تقييم سمعة MEDIA، وأنشأت أكبر بروتوكول مصداقية حقيقية على السلسلة في Web3. توفر تحليلات البيانات على السلسلة وخدمات المصادقة الحقيقية للعديد من سلاسل الكتل الرئيسية، والبورصات، والبروتوكولات الرائدة. تم إجراء أكثر من 2.5 مليون مصادقة على السلسلة عبر عدة سلاسل رئيسية، مما جعلها أكبر بروتوكول هوية في الصناعة.
تقوم Trusta بالتوسع من إثبات الإنسانية إلى إثبات وكيل الذكاء الاصطناعي، حيث حققت إنشاء الهوية وتQuantification الهوية وحماية الهوية من خلال آلية ثلاثية لتحقيق الخدمات المالية على سلسلة وكيل الذكاء الاصطناعي والتواصل الاجتماعي على السلسلة، مما يساهم في بناء أساس موثوق للثقة في عصر الذكاء الاصطناعي.
2.2 بنية الثقة - وكيل الذكاء الاصطناعي DID
في البيئة المستقبلية لـ Web3، سيلعب وكلاء الذكاء الاصطناعي دورًا حاسمًا، حيث يمكنهم تنفيذ التفاعلات والمعاملات على السلسلة، وكذلك القيام بعمليات معقدة خارج السلسلة. ومع ذلك، فإن كيفية التمييز بين وكلاء الذكاء الاصطناعي الحقيقيين والتدخل البشري في العمليات هي مسألة تتعلق بجوهر الثقة اللامركزية - إذا لم يكن هناك آلية موثوقة للتحقق من الهوية، فإن هذه الوكلاء ستكون عرضة للتلاعب أو الاحتيال أو الإساءة. وهذا هو السبب في أن الخصائص المتعددة لوكلاء الذكاء الاصطناعي في مجالات مثل الشبكات الاجتماعية والمالية والحوكمة يجب أن تقوم على أساس قوي من التحقق من الهوية.
تزداد مشاهد تطبيقات وكيل الذكاء الاصطناعي تنوعًا، حيث تشمل التفاعل الاجتماعي وإدارة المالية واتخاذ القرارات الحكومية في مجالات متعددة، وتستمر مستويات استقلاليتها وذكائها في الارتفاع. ومن هنا، فإن ضمان أن يمتلك كل وكيل هوية فريدة وموثوقة (DID) أمر بالغ الأهمية. في غياب تحقق فعال من الهوية، قد يتعرض وكيل الذكاء الاصطناعي للاستخدام غير المشروع أو التحكم، مما يؤدي إلى انهيار الثقة ومخاطر أمنية.
في نظام Web3 البيئي المدفوع بالكامل من قبل الوكلاء في المستقبل، فإن التحقق من الهوية ليس فقط حجر الزاوية لضمان الأمان، بل هو أيضًا خط الدفاع الضروري للحفاظ على التشغيل الصحي للنظام البيئي بأكمله.
باعتبارها رائدة في هذا المجال، قامت Trusta.AI، بفضل قوتها التقنية الرائدة ونظام الائتمان الصارم، ببناء آلية مصادقة AI Agent DID بشكل كامل، مما يوفر ضمانًا قويًا للتشغيل الموثوق للوكلاء الذكيين، ويعمل على الوقاية بشكل فعال من المخاطر المحتملة، ويدفع التنمية المستدامة للاقتصاد الذكي في Web3.
! Trusta.AI: عبور فجوة الثقة في عصر الإنسان والآلة
2.3 نظرة عامة على المشروع
2.3.1 وضع التمويل
يناير 2023: إكمال جولة تمويل بذور بقيمة 3 ملايين دولار، بقيادة SevenX Ventures و Vision Plus Capital، وشارك في الجولة كل من HashKey Capital و Redpoint Ventures و GGV Capital و SNZ Holding وغيرها.
يونيو 2025: إتمام جولة تمويل جديدة، تشمل المستثمرين ConsenSys و Starknet و GSR و UFLY Labs وغيرها.
2.3.2 حالة الفريق
بيت تشين: المؤسس المشارك والرئيس التنفيذي، نائب الرئيس السابق لمجموعة أنتي الرقمية، رئيس المنتجات في أنتي للأمن التكنولوجي، المدير العام السابق لمنصة زولوز العالمية للهوية الرقمية.
سايمون: المؤسس المشارك ورئيس قسم التكنولوجيا، المدير السابق لمختبر أمان الذكاء الاصطناعي في مجموعة علي بابا، لديه خمسة عشر عاماً من الخبرة في تطبيق تقنيات الذكاء الاصطناعي في الأمان وإدارة المخاطر.
يمتلك الفريق خبرة تقنية عميقة وتجارب عملية في الذكاء الاصطناعي وإدارة المخاطر الأمنية، وهيكل أنظمة الدفع وآليات التحقق من الهوية. يكرس الفريق جهوده منذ فترة طويلة لتطبيق البيانات الضخمة والخوارزميات الذكية في إدارة المخاطر الأمنية، بالإضافة إلى تصميم البروتوكولات الأساسية وتحسين الأمان في بيئات المعاملات عالية التردد. يمتلك الفريق قدرات هندسية قوية وقدرة على تنفيذ حلول مبتكرة.
3. الهيكل الفني
3.1 تحليل تقني
3.1.1 إنشاء الهوية - DID + TEE
من خلال المكونات الإضافية المخصصة، يحصل كل وكيل AI على معرف لامركزي فريد على السلسلة (DID)، ويتم تخزينه بأمان في بيئة تنفيذ موثوقة (TEE). في هذه البيئة الصندوقية، يتم إخفاء البيانات الأساسية وعملية الحساب تمامًا، وتظل العمليات الحساسة خاصة دائمًا، ولا يمكن للجهات الخارجية التطفل على تفاصيل التشغيل الداخلية، مما يبني بشكل فعال حاجزًا قويًا لأمان معلومات وكيل AI.
بالنسبة للوسطاء الذين تم إنشاؤهم قبل دمج المكون الإضافي، نعتمد على آلية التقييم الشاملة على السلسلة للتعرف على الهوية؛ بينما يمكن للوسطاء الذين تم دمجهم حديثًا الحصول مباشرةً على "شهادة الهوية" التي تصدرها DID، مما يؤدي إلى إنشاء نظام هوية لوكيل الذكاء الاصطناعي يتمتع بالتحكم الذاتي والموثوقية وعدم القابلية للتغيير.
! Trusta.AI: عبور فجوة الثقة في عصر الإنسان والآلة
3.1.2 قياس الهوية - إطار SIGMA الرائد
تتمسك فريق Trusta دائمًا بمبادئ التقييم الدقيق والتحليل الكمي، وتكرس جهودها لبناء نظام موثوق للمصادقة على الهوية.
بنى فريق Trusta وقام بالتحقق من فعالية نموذج MEDIA Score في سيناريو "إثبات الإنسان" في وقت مبكر. يقوم هذا النموذج بتكميم صورة المستخدمين على السلسلة من خمسة أبعاد، وهي: مقدار التفاعل (Monetary)، مستوى المشاركة (Engagement)، التنوع (Diversity)، الهوية (Identity) والعمر (Age).
تScore MEDIA هو نظام تقييم قيمة المستخدمين على السلسلة بشكل عادل وموضوعي وقابل للقياس، بفضل أبعاده التقييمية الشاملة ومنهجه الصارم، تم اعتماده على نطاق واسع من قبل العديد من سلاسل الكتل الرائدة، كمعيار مرجعي مهم لتصفية مؤهلات الاستثمارات. إنه لا يركز فقط على قيمة التفاعل، بل يشمل أيضًا مؤشرات متعددة الأبعاد مثل النشاط، تنوع العقود، الخصائص الهوية وعمر الحساب، مما يساعد فرق المشاريع في التعرف بدقة على المستخدمين ذوي القيمة العالية، وزيادة كفاءة وعدالة توزيع الحوافز، مما يعكس تمامًا سلطته واعترافه الواسع في الصناعة.
بناءً على النجاح في بناء نظام تقييم المستخدمين البشريين، قامت Trusta بنقل وتجديد خبرة MEDIA Score إلى سيناريو AI Agent، وأنشأت نظام تقييم Sigma الذي يتناسب بشكل أفضل مع منطق سلوك الوكلاء الذكيين.
تقوم آلية تقييم Sigma ببناء نظام تقييم منطقي مغلق من "القدرة" إلى "القيمة" عبر خمسة أبعاد. تركز MEDIA على تقييم مدى مشاركة المستخدمين البشريين من زوايا متعددة، بينما يركز Sigma أكثر على احترافية واستقرار الوكلاء الذكاء الاصطناعي في مجالات معينة، مما يعكس التحول من الشمولية إلى العمق، وهو ما يتماشى بشكل أفضل مع احتياجات وكيل الذكاء الاصطناعي.
هذا النظام يتقدم خطوة بخطوة، وهيكلها واضح، قادر على عكس الجودة الشاملة والقيمة البيئية لوكيل الذكاء الاصطناعي بشكل كامل، وبالتالي تحقيق تقييم كمي للأداء والقيمة للذكاء الاصطناعي، وتحويل المزايا والعيوب المجردة إلى نظام تقييم ملموس وقابل للقياس.
حاليًا، تم推进 إطار SIGMA بالتعاون مع الشبكات المعروفة لوكلاء الذكاء الاصطناعي مثل Virtual وElisa OS وSwarm، مما يظهر إمكانياته الكبيرة في إدارة هوية وكلاء الذكاء الاصطناعي وبناء أنظمة السمعة، وهو أصبح تدريجياً المحرك الرئيسي لتعزيز بناء بنية تحتية موثوقة للذكاء الاصطناعي.
3.1.3 حماية الهوية - آلية تقييم الثقة
في نظام ذكاء اصطناعي يتمتع بمرونة عالية وموثوقية كبيرة، فإن الأمر الأكثر أهمية ليس مجرد إنشاء الهوية، بل هو التحقق المستمر من الهوية. تقدم Trusta.AI مجموعة من آليات تقييم الثقة المستمرة، والتي يمكن أن تراقب الوكلاء الذكيين المعتمدين في الوقت الفعلي، لتحديد ما إذا كانوا تحت السيطرة غير القانونية، أو تعرضوا لهجوم، أو تأثروا بتدخل بشري غير مصرح به. يقوم النظام بتحديد الانحرافات المحتملة خلال تشغيل الوكيل من خلال تحليل السلوك وتعلم الآلة، لضمان بقاء كل تصرف للوكيل ضمن السياسات والأطر المحددة. تضمن هذه الطريقة الاستباقية اكتشاف أي انحراف عن السلوك المتوقع على الفور، وتفعيل تدابير الحماية التلقائية للحفاظ على سلامة الوكيل.
أنشأت Trusta.AI آلية حراسة أمان متصلة دائمًا، تراجع في الوقت الحقيقي كل تفاعل، لضمان توافق جميع العمليات مع معايير النظام والتوقعات المحددة.
3.2 مقدمة المنتج
3.2.1 AgentGo
تقوم Trusta.AI بتخصيص هويات لامركزية لكل وكيل ذكاء اصطناعي على السلسلة (DID)، وتقوم بتصنيفه وفهرسته بناءً على بيانات السلوك على السلسلة، مما ينشئ نظام ثقة قابل للتحقق وقابل للتتبع لوكلاء الذكاء الاصطناعي. من خلال هذا النظام، يمكن للمستخدمين التعرف بكفاءة على وكلاء ذكيين ذوي جودة عالية واختيارهم، مما يعزز تجربة الاستخدام. حتى الآن، أكملت Trusta جمع وتحديد وكلاء الذكاء الاصطناعي على الشبكة بالكامل، ومنحتهم معرفات لامركزية، وأقامت منصة موحدة لفهرسة التجميع ------ AgentGo، مما يعزز التطور الصحي لبيئة الوكلاء الذكيين.
من خلال لوحة المعلومات التي تقدمها Trusta.AI، يمكن للمستخدمين البشريين البحث بسهولة عن هوية وكيل الذكاء الاصطناعي وتقييم موثوقيته، لتحديد ما إذا كان يمكن الوثوق به.
يمكن للذكاء الاصطناعي قراءة واجهة الفهرس مباشرة بينهما، مما يحقق التأكيد السريع على هوية الآخر وسمعته، ويضمن أمان التعاون وتبادل المعلومات.
لم يعد DID لوكيل الذكاء الاصطناعي مجرد "هوية"، بل أصبح دعماً أساسياً لبناء التعاون الموثوق والامتثال المالي وحوكمة المجتمع وغيرها من الوظائف الأساسية، ليصبح البنية التحتية الضرورية لتطور النظام البيئي الأصلي للذكاء الاصطناعي. مع بناء هذا النظام، تشكلت شبكة مترابطة بإحكام من جميع النقاط المعتمدة الآمنة والموثوقة، مما حقق تعاوناً فعالاً وترابطاً وظيفياً بين وكلاء الذكاء الاصطناعي.
استنادًا إلى قانون ميتكالف، ستشهد قيمة الشبكة نموًا أسيًا، مما سيدفع لبناء نظام بيئي لوكلاء الذكاء الاصطناعي أكثر كفاءة، مع أساس موثوق وقدرة على التعاون، لتحقيق مشاركة الموارد بين الوكلاء، وإعادة استخدام القدرات، وزيادة القيمة المستمرة.
تعتبر AgentGo كأول بنية تحتية موثوقة للهوية موجهة لوكلاء الذكاء الاصطناعي، وهي تقدم دعماً أساسياً لا غنى عنه لبناء نظام ذكي عالي الأمان وعالي التعاون.
! Trusta.AI: عبور فجوة الثقة في عصر الإنسان والآلة
3.2.2 TrustGo
TrustGo هو أداة لإدارة الهوية على السلسلة تم تطويرها بواسطة Trusta، حيث تقدم تقييمًا بناءً على التفاعل الحالي، "عمر" المحفظة، وحجم المعاملات والمبلغ المتداول. بالإضافة إلى ذلك، يوفر TrustGo معلمات متعلقة بتصنيف القيمة على السلسلة، مما يسهل على المستخدمين البحث بنشاط عن الإصدارات المجانية، وزيادة قدرتهم على الحصول على الإصدارات المجانية / الرجوع.
وجود MEDIA Score في آلية تقييم TrustGo أمر بالغ الأهمية، حيث يوفر للمستخدمين القدرة على تقييم أنشطتهم بأنفسهم. نظام تقييم MEDIA Score لا يشمل فقط مؤشرات بسيطة مثل عدد وقيمة التفاعلات بين المستخدم والعقود الذكية والبروتوكولات وdApp، بل يركز أيضًا على سلوك المستخدمين. من خلال MEDIA Score، يمكن للمستخدمين فهم أنشطتهم وقيمتهم على السلسلة بشكل أعمق، بينما يمكن لفرق المشاريع توزيع الموارد والحوافز بدقة على المستخدمين الذين يقدمون مساهمات حقيقية.
تنتقل TrustGo تدريجياً من آلية MEDIA الموجهة نحو الهوية البشرية إلى إطار الثقة SIGMA الموجه نحو وكيل الذكاء الاصطناعي، لتلبية احتياجات التحقق من الهوية وتقييم السمعة في عصر الوكلاء.
3.2.3 TrustScan
نظام TrustScan هو حل للتحقق من الهوية موجه نحو عصر Web3 الجديد، والهدف الأساسي منه هو التعرف بدقة على الكيانات على السلسلة سواء كانت بشرية، أو وكلاء ذكاء اصطناعي، أو ساحرات. يعتمد على آلية تحقق مزدوجة تعتمد على المعرفة + تحليل السلوك، مع التأكيد على المستخدم.