25.7 C
Riyadh
الإثنين, أكتوبر 7, 2024

الكاتب

عمر عبدالله
عمر عبدالله
كاتب يعمل بالذكاء الاصطناعي

إقرأ أيضا

تقول شركة OpenAI أن أحدث نموذج GPT-4o الخاص بها “متوسط” الخطورة

تقول شركة OpenAI أن أحدث نموذج GPT-4o الخاص بها “متوسط” الخطورة

أصدرت شركة OpenAI بطاقة نظام GPT-4o، وهي وثيقة بحثية توضح تدابير السلامة وتقييمات المخاطر التي أجرتها الشركة الناشئة قبل إطلاق أحدث طراز لها. GPT-4o تم إطلاقه علنًا في مايو قبل ظهوره لأول مرة، استخدم OpenAI مجموعة خارجية من أعضاء الفريق الأحمر، أو خبراء الأمن الذين يحاولون العثور على نقاط ضعف في النظام، للعثور على المخاطر الرئيسية في النموذج (وهي ممارسة قياسية إلى حد ما). لقد فحصوا مخاطر مثل احتمالية قيام GPT-4o بإنشاء نسخ غير مصرح بها من صوت شخص ما، أو محتوى إباحي وعنيف، أو أجزاء من الصوت المحمي بحقوق الطبع والنشر. الآن، يتم إصدار النتائج. وفقًا لإطار عمل OpenAI الخاص، وجد الباحثون أن GPT-4o “متوسط” الخطورة. تم أخذ مستوى المخاطر الإجمالي من أعلى تصنيف للمخاطر من أربع فئات إجمالية: الأمن السيبراني، التهديدات البيولوجيةوالإقناع واستقلالية النموذج. وقد اعتُبرت كل هذه منخفضة المخاطر باستثناء الإقناع، حيث وجد الباحثون أن بعض عينات الكتابة من GPT-4o يمكن أن تكون أفضل في التأثير على آراء القراء من النص المكتوب بواسطة الإنسان – على الرغم من أن عينات النموذج لم تكن أكثر إقناعًا بشكل عام. قال متحدث باسم OpenAI، ليندسي ماكالوم ريمي، لموقع The Verge أن بطاقة النظام تتضمن تقييمات الاستعداد التي أنشأها فريق داخلي، إلى جانب مختبرين خارجيين مُدرج على موقع OpenAI الإلكتروني كما أن هناك العديد من الشركات التي تعمل على بناء تقييمات لأنظمة الذكاء الاصطناعي، مثل مركز تقييم النماذج وأبحاث التهديدات (METR) ومركز أبحاث أبولو، وكلاهما يبني تقييمات لأنظمة الذكاء الاصطناعي. وعلاوة على ذلك، تطلق الشركة نموذجًا متعدد الوسائط عالي الكفاءة قبل الانتخابات الرئاسية الأمريكية مباشرة. هناك خطر محتمل واضح من أن النموذج ينشر معلومات مضللة عن طريق الخطأ أو يتعرض للاختطاف من قبل جهات ضارة – حتى لو كانت OpenAI تأمل في تسليط الضوء على أن الشركة تختبر سيناريوهات العالم الحقيقي لمنع سوء الاستخدام. كانت هناك الكثير من الدعوات إلى أن تكون OpenAI أكثر شفافية، ليس فقط مع بيانات تدريب النموذج (هل تم تدريبه على اليوتيوب؟)، ولكن مع اختبارات السلامة الخاصة بها. في كاليفورنيا، حيث يوجد مقر OpenAI والعديد من مختبرات الذكاء الاصطناعي الرائدة الأخرى، يعمل عضو مجلس الشيوخ سكوت وينر على تمرير مشروع قانون لتنظيم نماذج اللغة الكبيرة، بما في ذلك القيود التي من شأنها أن تجعل الشركات مسؤولة قانونًا إذا تم استخدام الذكاء الاصطناعي الخاص بها بطرق ضارة. إذا تم تمرير هذا القانون، فسيتعين على نماذج OpenAI الرائدة الامتثال لتقييمات المخاطر التي فرضتها الدولة قبل جعل النماذج متاحة للاستخدام العام. لكن أكبر ما يمكن تعلمه من بطاقة نظام GPT-4o هو أنه على الرغم من مجموعة من أعضاء الفريق الأحمر والمختبرين الخارجيين، فإن الكثير من هذا يعتمد على OpenAI لتقييم نفسه.

المصدر

ترك الرد

من فضلك ادخل تعليقك
من فضلك ادخل اسمك هنا

CAPTCHA


إقرأ أيضاً

أفضل 10 هواتف رائجة للأسبوع 39

أفضل 10 هواتف رائجة للأسبوع 39 تم طرح هاتف Galaxy S24 FE من سامسونج للبيع هذا الأسبوع وتصدر على الفور مخطط الاتجاهات لدينا، متغلبًا...

تمت الموافقة على خدمة الأقمار الصناعية المباشرة إلى الخلية من Starlink للمناطق التي ضربها إعصار هيلين

تمت الموافقة على خدمة الأقمار الصناعية المباشرة إلى الخلية من Starlink للمناطق التي ضربها إعصار هيلين تم بالفعل تفعيل الأقمار الصناعية وبدأت في بث...

مراجعة سماعات سوني MDR-M1 Studio

مراجعة سماعات سوني MDR-M1 Studio يعد MDR-M1 زوجًا آخر من سماعات الرأس الاستوديو من سوني. ربما يتذكر البعض منكم سماعات الرأس MDR-MV1 Studio التي...