من الظاهر، يبدو أن مثل هذه المشاريع للتحقق من الذكاء الاصطناعي لا تملك أفكارًا سريعة للتداول. لكن المشكلة وراء ذلك حادة بما يكفي: عندما يبدأ الذكاء الاصطناعي في اتخاذ القرارات نيابة عنا، كيف نضمن أنه لا يخطئ أو يتلاعب؟
فكرة مشروع واحد بسيطة جدًا — التخلي عن آلية الثقة، والتحول إلى إثباتات قابلة للتحقق. خطتهم هي كتابة عملية استنتاج الذكاء الاصطناعي على سلسلة الكتل، ثم استخدام تقنية الإثبات بصفر معرفة لتأمين كل خطوة من الحساب. هذا ليس من أجل الظهور بمظهر جيد، بل لجعل كل قرار يتخذه الذكاء الاصطناعي قابلًا للتتبع والتحقق.
بعبارة أخرى، بدلاً من جعل المستخدمين يثقون بشكل أعمى في أمانة الذكاء الاصطناعي، من الأفضل أن تضمن ذلك الرياضيات وعلم التشفير. هذا النهج يلامس أكثر مشكلة الثقة الجوهرية في تطبيقات الذكاء الاصطناعي.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 8
أعجبني
8
4
إعادة النشر
مشاركة
تعليق
0/400
NftDeepBreather
· 01-13 16:58
آه، هذا هو الطريق الصحيح، الرياضيات لا تخدع أبداً
---
هل إثبات المعرفة الصفرية يقفل كل خطوة؟ شيء جيد، أخيراً أحد يأخذ الأمر بجدية
---
بدلاً من الثقة في الذكاء الاصطناعي الصندوق الأسود، من الأفضل الثقة في علم التشفير، أحب سماع هذا الكلام
---
يبدو كأنه جعل عملية اتخاذ قرار الذكاء الاصطناعي شفافة، أخيراً لن أضطر للتخمين بلا دليل
---
انتظر، إذا أصبح هذا الشيء واقعاً، ماذا عن مشاريع الذكاء الاصطناعي التي تعمل في الظلام؟
---
التحقق من الصحة، هذا مطلب على مستوى البنية التحتية، كان من المفترض أن يتم ذلك منذ زمن
---
من الثقة إلى الإثبات، أخيراً هناك تطبيق ذو جودة في Web3
---
رائع، استبدال الثقة بالرياضيات، أريد فقط أن أرى من لا يزال يجرؤ على الغش
---
هذا هو الحل الحقيقي للمشكلة، وليس مجرد ترويج لمفهوم جديد
---
تحويل سلسلة قرارات الذكاء الاصطناعي إلى سلسلة قابلة للتحقق، فكر في الأمر، إنه محفز حقاً
الضمان الرياضي، أنا أحب هذه الفكرة، وأثق بها أكثر من أي شيء آخر، "سوف نكون منضبطين ذاتيًا" أقوى مائة مرة... هل يمكن لنظام إثبات المعرفة الصفرية حقًا أن يكشف عن صندوق القرار الأسود الخاص بالذكاء الاصطناعي؟
شاهد النسخة الأصليةرد0
BlockchainBard
· 01-13 16:39
يا صاح، هذه الفكرة رائعة جدًا، أضعاف موثوقية أي آلية ثقة أخرى
من الظاهر، يبدو أن مثل هذه المشاريع للتحقق من الذكاء الاصطناعي لا تملك أفكارًا سريعة للتداول. لكن المشكلة وراء ذلك حادة بما يكفي: عندما يبدأ الذكاء الاصطناعي في اتخاذ القرارات نيابة عنا، كيف نضمن أنه لا يخطئ أو يتلاعب؟
فكرة مشروع واحد بسيطة جدًا — التخلي عن آلية الثقة، والتحول إلى إثباتات قابلة للتحقق. خطتهم هي كتابة عملية استنتاج الذكاء الاصطناعي على سلسلة الكتل، ثم استخدام تقنية الإثبات بصفر معرفة لتأمين كل خطوة من الحساب. هذا ليس من أجل الظهور بمظهر جيد، بل لجعل كل قرار يتخذه الذكاء الاصطناعي قابلًا للتتبع والتحقق.
بعبارة أخرى، بدلاً من جعل المستخدمين يثقون بشكل أعمى في أمانة الذكاء الاصطناعي، من الأفضل أن تضمن ذلك الرياضيات وعلم التشفير. هذا النهج يلامس أكثر مشكلة الثقة الجوهرية في تطبيقات الذكاء الاصطناعي.