يمنع أخطاء وكيل الذكاء الاصطناعي… فيكتارا تطلق 'مُحقق الأدوات'

robot
إنشاء الملخص قيد التقدم

المصدر: TokenPost العنوان الأصلي: AI 에이전트 오류 막는다…벡타라, ‘툴 밸리데이터’ 출시 الرابط الأصلي: بينما تتسارع تقنية الذكاء الاصطناعي في استبدال عمليات الأعمال في الشركات، زادت مخاطر الحوادث الناتجة عن أخطاء تخطيط وكلاء الذكاء الاصطناعي، وظهرت تقنيات جديدة لمواجهتها. شركة ستارتوب فيكتارا(Vectara) أطلقت حديثًا ‘مدقق الأدوات(Tool Validator)’ الذي يلعب دورًا في تحديد الطلبات غير الضرورية أو الخاطئة لاستخدام الأدوات ضمن خطة العمل التي ينفذها وكيل الذكاء الاصطناعي، مما يوقف الأخطاء مسبقًا.

مدقق الأدوات هو الحل الثاني من منتجات ‘وكيل الحارس(Guardian Agent)’ التي طورتها فيكتارا، وتركز على تطبيق الحوكمة والسياسات الأمنية في الوقت الحقيقي في أنظمة الذكاء الاصطناعي للشركات، مع منع الأخطاء. مؤسس مشارك ومدير تنفيذي لشركة فيكتارا، عمرو عواد الله(Amr Awadallah)، قال: “في أوائل عام 2025، كانت العديد من الشركات تتوقع إمكانيات وكيل الذكاء الاصطناعي بشكل كبير، لكن محدودية الثقة والأخطاء في التخطيط والنتائج غير المتسقة أدت إلى فشل في تحقيق الأرباح الفعلية”، مؤكدًا على الحاجة إلى هذا الحل.

هناك حالات مباشرة أيضًا. في أحد الأمثلة، قام مطور باستخدام بيئة التطوير المتكاملة ‘أنتيغراديفيتي(Antigravity)’ التي قدمتها جوجل، بتنفيذ أمر خطير بحذف كامل وحدة التخزين بدلاً من مسح الذاكرة المؤقتة، مما أدى إلى فقدان البيانات. ويُعتقد أن السبب هو أن الوكيل المعطوب استخدم أداة خاطئة خلال مرحلة التخطيط. وأوضحت فيكتارا أن وجود مدقق الأدوات كان يمكن أن يمنع حدوث ذلك مسبقًا.

هذه الأداة مبنية على بنية ‘نظام تشغيل الوكيل(Agent Operating System)’ التي طورتها فيكتارا، وتقوم بمراجعة تلقائية لقائمة الأدوات المقترحة من قبل الذكاء الاصطناعي خلال مرحلة التخطيط، مع إزالة العناصر غير ذات الصلة واقتراح أدوات بديلة. كما تمنع الوكيل من استدعاء الموارد الأساسية مثل متصفح الويب، قواعد البيانات، ونظام الملفات بشكل غير ضروري، مما يعزز الاستقرار والثقة بشكل عام.

تم تصميم مدقق الأدوات للعمل جنبًا إلى جنب مع ‘وكيل تصحيح الهلوسة(Hallucination Corrector)’ الذي أُطلق سابقًا، والذي يهدف إلى تصفية الأخطاء الناتجة عن توليد معلومات غير دقيقة أو استدعاء موارد غير ضرورية في نتائج الذكاء الاصطناعي أثناء عملية الاستنتاج.

لكي تكتسب أنظمة الذكاء الاصطناعي المعتمدة على الوكيل مكانة أدوات بديلة للمهام التقليدية، فإن الثقة والسيطرة ضروريان. وتأمل فيكتارا أن تساهم منتجاتها الجديدة في تحقيق حوكمة فعالة وتقليل مخاطر التشغيل أثناء اعتماد الشركات على الذكاء الاصطناعي.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 5
  • إعادة النشر
  • مشاركة
تعليق
0/400
MoodFollowsPricevip
· 12-15 00:02
لم تعد أخطاء الذكاء الاصطناعي تخرج عن السيطرة الآن، مما يضيف حماية أخرى لخدمات الشركات.
شاهد النسخة الأصليةرد0
StableBoivip
· 12-13 13:41
يبدو الأمر عمليًا جدًا، لو كانت هذه الصناديق السوداء مثل AI بدون من يحميها، فستحدث مشكلات حقًا
شاهد النسخة الأصليةرد0
DegenDreamervip
· 12-12 02:04
ماذا تفعل عندما يواجه وكيل الذكاء الاصطناعي خطأ؟ الآن لديك فرصة لإنقاذه، ها ها
شاهد النسخة الأصليةرد0
TxFailedvip
· 12-12 01:57
بالنسبة لي، أخيرًا يوجد شخص يبني حواجز أمان لهذا الفوضى. كانت استدعاءات الوظائف العشوائية لوكلاء الذكاء الاصطناعي كارثة في الانتظار، بصراحة... تعلمت ذلك بالطريقة الصعبة مع بعض المعاملات المعطوبة بالفعل lol
شاهد النسخة الأصليةرد0
FantasyGuardianvip
· 12-12 01:43
هل معدل التحمل للعميل الذكي بهذا الشكل... لا بد من الاعتماد على المدقق لإنقاذ الموقف
شاهد النسخة الأصليةرد0
  • Gate Fun الساخنعرض المزيد
  • القيمة السوقية:$3.51Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.51Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.55Kعدد الحائزين:2
    0.00%
  • القيمة السوقية:$3.56Kعدد الحائزين:2
    0.00%
  • القيمة السوقية:$3.61Kعدد الحائزين:3
    0.53%
  • تثبيت