يعتمد الناس بشكل متزايد على الذكاء الاصطناعي لاتخاذ القرارات، ولكن عندما يقوم النموذج بالحساب والحكم واتخاذ الإجراءات في زوايا لا يمكننا رؤيتها، يصبح من الصعب بناء الثقة. وتأتي Inference Labs استجابة لهذا الشعور بعدم الارتياح.



النقطة الأساسية التي تطرحها @inference_labs بسيطة جداً: إذا كان على المجتمع في المستقبل أن يتعايش مع الذكاء الاصطناعي، فلا بد أن تكون عملية الاستدلال قابلة للإثبات، والتحقق، والمسائلة.

وبناءً على هذا المفهوم، قاموا ببناء Inference Network، بحيث يمكن لكل عملية استدلال خارج السلسلة أن تولد إثباتاً يمكن التحقق منه على السلسلة.

وبالاستفادة من أدوات المصدر المفتوح JSTprove والمخطط المصمم لدارات zkML، لم تعد عملية الاستدلال صندوقاً أسود، بل أصبحت سلوكاً قابلاً للتدقيق.

من التداول الآلي إلى التعاون بين الوكلاء المتعددين، وصولاً إلى أي سيناريو يعتمد على حكم النماذج، تجعل الاستدلالات القابلة للتحقق التعاون بين الإنسان والآلة أكثر متانة وشفافية.

#KaitoYap @KaitoAI #Yap @easydotfunX
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت