OpenAI وAnthropic يتفقان على السماح لمعهد سلامة الذكاء الاصطناعي الأمريكي باختبار النماذج
وافقت شركتا OpenAI وAnthropic، وهما الشركتان الناشئتان الأكثر قيمة في مجال الذكاء الاصطناعي، على السماح لمعهد سلامة الذكاء الاصطناعي الأمريكي باختبار نماذجهما الجديدة قبل إصدارها للجمهور، في أعقاب المخاوف المتزايدة في الصناعة بشأن السلامة والأخلاق في مجال الذكاء الاصطناعي. وقال المعهد، الذي يقع داخل وزارة التجارة في المعهد الوطني للمعايير والتكنولوجيا (NIST)، في بيان: “إننا نتطلع إلى أن يتمكن معهد سلامة الذكاء الاصطناعي الأمريكي من اختبار نماذجه الجديدة قبل إصدارها للجمهور”. بيان صحفي أنها ستحصل على “الوصول إلى النماذج الرئيسية الجديدة من كل شركة قبل وبعد إصدارها للجمهور”. تأسست المجموعة بعد أن أصدرت إدارة بايدن-هاريس ترخيص الحكومة الأمريكية أول أمر تنفيذي على الإطلاق على الذكاء الاصطناعي في أكتوبر 2023، يتطلب الأمر تقييمات سلامة جديدة، وإرشادات حول المساواة والحقوق المدنية، وأبحاث حول تأثير الذكاء الاصطناعي على سوق العمل. كتب الرئيس التنفيذي لشركة OpenAI سام ألتمان في رسالة: “نحن سعداء بالتوصل إلى اتفاق مع معهد سلامة الذكاء الاصطناعي الأمريكي لاختبار نماذجنا المستقبلية قبل الإصدار”. بريد وأكدت شركة OpenAI أيضًا لشبكة CNBC يوم الخميس أنه في العام الماضي، ضاعفت الشركة عدد مستخدميها النشطين أسبوعيًا إلى 200 مليون. أكسيوس كانت أول من أبلغ عن هذا الرقم. تأتي هذه الأخبار بعد يوم من ظهور تقارير تفيد بأن OpenAI تجري محادثات لجمع جولة تمويلية لتقييم الشركة عند أكثر من 100 مليار دولاروتقود شركة Thrive Capital الجولة وستستثمر مليار دولار، وفقًا لمصدر مطلع على الأمر طلب عدم ذكر اسمه لأن التفاصيل سرية. وقد تم تقييم شركة Anthropic، التي أسسها مسؤولون تنفيذيون وموظفون سابقون في شركة OpenAI للأبحاث، مؤخرًا بمبلغ 18.4 مليار دولار. أمازون باعتبارها مستثمرًا رائدًا، في حين تحظى OpenAI بدعم كبير من مايكروسوفتوبحسب بيان صحفي صدر يوم الخميس، فإن الاتفاقيات بين الحكومة وOpenAI وAnthropic “ستمكن من إجراء أبحاث تعاونية حول كيفية تقييم القدرات ومخاطر السلامة، بالإضافة إلى طرق التخفيف من تلك المخاطر”. يطلقصرح جيسون كوون، كبير مسؤولي الاستراتيجية في شركة OpenAI، لشبكة CNBC في بيان قائلًا: “نحن ندعم بقوة مهمة معهد سلامة الذكاء الاصطناعي الأمريكي ونتطلع إلى العمل معًا لإعلام أفضل ممارسات ومعايير السلامة لنماذج الذكاء الاصطناعي”. قال جاك كلارك، المؤسس المشارك لشركة Anthropic، إن “تعاون الشركة مع معهد سلامة الذكاء الاصطناعي الأمريكي يستفيد من خبرتهم الواسعة لاختبار نماذجنا بدقة قبل النشر على نطاق واسع” و”يعزز قدرتنا على تحديد المخاطر والتخفيف منها، وتعزيز تطوير الذكاء الاصطناعي المسؤول”. وقد أعربوا عن مخاوفهم حول السلامة والأخلاقيات في صناعة الذكاء الاصطناعي التي تسعى إلى الربح بشكل متزايد. الموظفون الحاليون والسابقون في OpenAI نشر رسالة مفتوحة في الرابع من يونيو، وصفت لجنة التجارة الفيدرالية ووزارة العدل المشاكل المحتملة مع التقدم السريع الذي يحدث في مجال الذكاء الاصطناعي ونقص الرقابة وحماية المبلغين عن المخالفات. وكتبوا: “تتمتع شركات الذكاء الاصطناعي بحوافز مالية قوية لتجنب الرقابة الفعالة، ولا نعتقد أن الهياكل المصممة خصيصًا للحوكمة المؤسسية كافية لتغيير هذا”. وأضافوا أن شركات الذكاء الاصطناعي “لديها حاليًا التزامات ضعيفة فقط لمشاركة بعض هذه المعلومات مع الحكومات، ولا يوجد أي التزام مع المجتمع المدني”، ولا يمكن “الاعتماد عليها لمشاركتها طواعية”. بعد أيام من نشر الرسالة، أكد مصدر مطلع على الموضوع لشبكة CNBC أن لجنة التجارة الفيدرالية ووزارة العدل كانتا من المقرر أن تفتح تحقيقات مكافحة الاحتكار إلى OpenAI وMicrosoft و نفيديا. رئيسة لجنة التجارة الفيدرالية لينا خان موصوف ووصفت وكالتها عملها بأنه “تحقيق في السوق في الاستثمارات والشراكات التي يتم تشكيلها بين مطوري الذكاء الاصطناعي ومقدمي خدمات السحابة الرئيسيين”. وفي يوم الأربعاء، ناقش المشرعون في كاليفورنيا اجتاز مشروع قانون سلامة الذكاء الاصطناعي، الذي تم إرساله إلى مكتب الحاكم جافين نيوسوم. سيقرر نيوسوم، وهو ديمقراطي، إما الاعتراض على التشريع أو التوقيع عليه ليصبح قانونًا بحلول 30 سبتمبر. وقد اعترضت بعض شركات التكنولوجيا على مشروع القانون، الذي من شأنه أن يجعل اختبارات السلامة وغيرها من الضمانات إلزامية لنماذج الذكاء الاصطناعي بتكلفة أو قوة حوسبة معينة، بسبب إمكاناته في إبطاء الابتكار. شاهد: جوجل وOpenAI وآخرون يعارضون مشروع قانون سلامة الذكاء الاصطناعي في كاليفورنيا
المصدر