اعتذارات شركة Meta بعد أن قال روبوت الدردشة الخاص بها إن إطلاق النار على ترامب لم يحدث
قال مساعد الذكاء الاصطناعي في شركة Meta بشكل غير صحيح إن محاولة اغتيال الرئيس السابق دونالد ترامب الأخيرة لم تحدث، وهو خطأ ينسبه أحد المسؤولين التنفيذيين في الشركة الآن إلى التكنولوجيا التي تدعم روبوت الدردشة الخاص بها وغيره. تدوينة الشركة في مقال نُشر يوم الثلاثاء، وصف جويل كابلان، رئيس السياسة العالمية في Meta، ردود الذكاء الاصطناعي على الأسئلة حول إطلاق النار بأنها “مؤسفة”. ويقول إن Meta AI تم برمجتها في البداية لعدم الرد على الأسئلة حول محاولة الاغتيال، لكن الشركة أزالت هذا القيد بعد أن بدأ الناس يلاحظون ذلك. كما يعترف بأنه “في عدد قليل من الحالات، استمرت Meta AI في تقديم إجابات غير صحيحة، بما في ذلك في بعض الأحيان التأكيد على أن الحدث لم يحدث – وهو ما نعمل بسرعة على معالجته”. ويتابع كابلان، الذي يدير جهود الضغط في Meta، “يشار إلى هذه الأنواع من الاستجابات باسم الهلوسة، وهي مشكلة على مستوى الصناعة نراها في جميع أنظمة الذكاء الاصطناعي التوليدية، وهي تحدٍ مستمر لكيفية تعامل الذكاء الاصطناعي مع الأحداث في الوقت الفعلي في المستقبل”. “مثل جميع أنظمة الذكاء الاصطناعي التوليدية، يمكن للنماذج إرجاع مخرجات غير دقيقة أو غير مناسبة، وسنستمر في معالجة هذه المشكلات وتحسين هذه الميزات مع تطورها ومشاركة المزيد من الأشخاص لملاحظاتهم”. ليس Meta فقط هو الذي وقع هنا: Google يوم الثلاثاء وكان لابد أيضا من دحض الادعاءات “إن ميزة الإكمال التلقائي للبحث كانت تحجب النتائج المتعلقة بمحاولة الاغتيال. “ها نحن ذا مرة أخرى، محاولة أخرى لتزوير الانتخابات!!!” ترامب وقال في منشور على موقع Truth Social. “اذهب وراء META وGOOGLE.” منذ ظهور ChatGPT على الساحة، كانت صناعة التكنولوجيا تكافح من أجل كيفية الحد من الذكاء الاصطناعي التوليدي الميل إلى الكذبحاول بعض اللاعبين، مثل Meta، إرساء روبوتات الدردشة الخاصة بهم باستخدام بيانات عالية الجودة ونتائج بحث في الوقت الفعلي كوسيلة للتعويض عن الهلوسة. ولكن كما يوضح هذا المثال المحدد، لا يزال من الصعب التغلب على ما يلي: نماذج لغوية كبيرة تم تصميمها بطبيعتها للقيام بما يلي: ابتكار الأشياء.
المصدر