تزعم شركة Microsoft أن أداة أمان الذكاء الاصطناعي الخاصة بها لا تكتشف الأخطاء فحسب، بل تعمل أيضًا على إصلاحها
أطلقت شركة مايكروسوفت ميزة جديدة تسمى “التصحيح” والتي تعتمد على جهود الشركة لمكافحة عدم دقة الذكاء الاصطناعي. يمكن للعملاء الذين يستخدمون Microsoft Azure لتشغيل أنظمة الذكاء الاصطناعي الخاصة بهم الآن استخدام القدرة على الكشف تلقائيًا عن المحتوى غير الصحيح وإعادة كتابته في مخرجات الذكاء الاصطناعي. تتوفر ميزة التصحيح في المعاينة كـ جزء من Azure AI Studio – مجموعة من أدوات الأمان المصممة للكشف عن نقاط الضعف، والعثور على “الهلوسة”، وحظر المطالبات الضارة. بمجرد تمكينها، سيقوم نظام التصحيح بمسح وتحديد الأخطاء في مخرجات الذكاء الاصطناعي من خلال مقارنتها بالمواد المصدرية للعميل. ومن هناك، سيسلط الضوء على الخطأ، ويوفر معلومات حول سبب عدم صحته، ويعيد كتابة المحتوى المعني – كل ذلك “قبل أن يتمكن المستخدم من رؤية” عدم الدقة. في حين يبدو هذا وكأنه طريقة مفيدة لمعالجة المشكلة، إلا أنه لا يزال من الممكن أن يكون مفيدًا. هراء غالبًا ما تتبناه نماذج الذكاء الاصطناعيقد لا يكون هذا حلاً موثوقًا به تمامًا. تتمتع Vertex AI، وهي منصة سحابية من Google للشركات التي تعمل على تطوير أنظمة الذكاء الاصطناعي، الميزة التي “تؤسس” نماذج الذكاء الاصطناعي من خلال التحقق من النتائج مقابل بحث Google، وبيانات الشركة الخاصة، و(قريبًا) مجموعات البيانات التابعة لجهات خارجية.في تصريح لموقع TechCrunchقال متحدث باسم Microsoft إن نظام “التصحيح” يستخدم “نماذج لغوية صغيرة ونماذج لغوية كبيرة لمواءمة المخرجات مع المستندات الأساسية”، مما يعني أنه ليس محصنًا ضد ارتكاب الأخطاء أيضًا. وقالت Microsoft لـ TechCrunch: “من المهم ملاحظة أن اكتشاف التأريض لا يحل مشكلة “الدقة”، ولكنه يساعد في مواءمة مخرجات الذكاء الاصطناعي التوليدي مع المستندات الأساسية”.
المصدر