تقوم شركة OpenAI بحل فريق سلامة آخر، واستقالة المستشار الرئيسي
تقوم OpenAI بحل فريق “AGI Readiness” الخاص بها، والذي قدم المشورة للشركة بشأن قدرة OpenAI الخاصة على التعامل مع الذكاء الاصطناعي القوي بشكل متزايد واستعداد العالم لإدارة تلك التكنولوجيا، وفقًا لرئيس الفريق. يوم الأربعاء، مايلز بروندج، كبير مستشاري AGI أعلن جاهزية رحيله عن الشركة عبر أ مشاركة المكدس الفرعي. لقد كتب أن أسبابه الرئيسية كانت أن تكلفة الفرصة البديلة أصبحت مرتفعة للغاية، واعتقد أن بحثه سيكون أكثر تأثيرًا على المستوى الخارجي، وأنه أراد أن يكون أقل تحيزًا، وأنه أنجز ما كان ينوي تحقيقه في OpenAI. وكتب بروندج أيضًا أن وبقدر ما تفعل OpenAI والعالم فيما يتعلق بجاهزية الذكاء الاصطناعي العام، “لا OpenAI ولا أي مختبر حدودي آخر جاهز، والعالم ليس جاهزًا أيضًا.” يخطط بروندج لبدء مؤسسته غير الربحية، أو الانضمام إلى منظمة حالية، للتركيز على أبحاث سياسات الذكاء الاصطناعي والدعوة لها. وأضاف أنه “من غير المرجح أن يكون الذكاء الاصطناعي آمنًا ومفيدًا قدر الإمكان دون بذل جهد متضافر لتحقيق ذلك”. وسيتم إعادة تعيين أعضاء فريق جاهزية AGI السابقين إلى فرق أخرى، وفقًا للمنشور. وقال متحدث باسم OpenAI لـ CNBC: “تابع أبحاثه المتعلقة بالسياسات خارج الصناعة، ونحن ممتنون للغاية لمساهماته”. “إن خطته لإجراء بحث مستقل حول سياسة الذكاء الاصطناعي تمنحه الفرصة لإحداث تأثير على نطاق أوسع، ونحن متحمسون للتعلم من عمله ومتابعة تأثيره. ونحن واثقون من أنه في دوره الجديد ، سيستمر مايلز في رفع مستوى جودة صنع السياسات في الصناعة والحكومة.” في مايو، قررت OpenAI حل فريق Superalignment الخاص به، والتي ركزت على المخاطر طويلة المدى للذكاء الاصطناعي، بعد عام واحد فقط من إعلانها عن المجموعة، أكد شخص مطلع على الوضع لـ CNBC في ذلك الوقت. وتأتي أخبار حل فريق استعداد AGI في أعقاب الخطط المحتملة لمجلس إدارة OpenAI لإعادة هيكلة شركة إلى شركة هادفة للربح، وبعد أن أعلن ثلاثة مديرين تنفيذيين – مدير التكنولوجيا التنفيذي ميرا موراتي، ورئيس الأبحاث بوب ماكجرو، ونائب رئيس الأبحاث باريت زوف – عن رحيلهم في نفس اليوم من الشهر الماضي.في وقت سابق من شهر أكتوبر، أنهت OpenAI جولتها التمويلية الصاخبة بتقييم قدره 157 مليار دولار، بما في ذلك 6.6 مليار دولار جمعتها الشركة من قائمة واسعة من شركات الاستثمار وشركات التكنولوجيا الكبرى. كما حصلت أ 4 مليار دولار خط ائتمان متجدد، ليصل إجمالي سيولته إلى أكثر من 10 مليارات دولار. وتتوقع الشركة حوالي 5 مليارات دولار وأكدت CNBC مع مصدر مطلع الشهر الماضي، خسائر بقيمة 3.7 مليار دولار من الإيرادات هذا العام. وفي سبتمبر، أعلن OpenAI أن لجنة السلامة والأمن، التي أنشأتها الشركة في شهر مايو أثناء تعاملها مع الجدل الدائر حول العمليات الأمنية، ستصبح لجنة إشراف مستقلة تابعة لمجلس الإدارة. وقد أنهت مؤخرًا مراجعتها التي استمرت 90 يومًا لتقييم عمليات OpenAI والضمانات ثم قدمت توصيات إلى مجلس الإدارة، مع نشر النتائج أيضًا في منشور عام. مشاركة مدونةتأتي أخبار مغادرة المسؤولين التنفيذيين وتغييرات مجلس الإدارة أيضًا في أعقاب صيف مليء بالمخاوف والخلافات المتزايدة المتعلقة بالسلامة المحيطة بـ OpenAI، والتي جنبًا إلى جنب مع جوجل, مايكروسوفت, ميتا وشركات أخرى على رأس أ الذكاء الاصطناعي التوليدي سباق التسلح — السوق الذي من المتوقع أن أعلى 1 تريليون دولار في الإيرادات في غضون عقد من الزمن – حيث تسارع الشركات في كل صناعة على ما يبدو إلى إضافة روبوتات الدردشة والوكلاء الذين يعملون بالذكاء الاصطناعي لتجنب ذلك يتم تركها وراءها من قبل المنافسين. في يوليو، OpenAI أعيد تعيين ألكسندر مادري، أحد كبار المسؤولين التنفيذيين في مجال السلامة في OpenAI، إلى وظيفة تركز على استدلال الذكاء الاصطناعي بدلاً من ذلك، حسبما أكدت مصادر مطلعة على الوضع لـ CNBC في ذلك الوقت. كان مادري رئيسًا للتأهب في OpenAI، وهو فريق “مكلف بالتتبع والتقييم والتنبؤ والرصد”. المساعدة في الحماية من المخاطر الكارثية المتعلقة بنماذج الذكاء الاصطناعي الحدودية،” وفقًا لسيرة ذاتية لمادري على موقع مبادرة الذكاء الاصطناعي بجامعة برينستون. سيظل مادري يعمل على الأعمال الأساسية المتعلقة بسلامة الذكاء الاصطناعي في دوره الجديد، حسبما صرح OpenAI لـ CNBC في ذلك الوقت. وجاء قرار إعادة تعيين مادري في نفس الوقت تقريبًا الذي أرسل فيه أعضاء مجلس الشيوخ الديمقراطيون رسالة إلى الرئيس التنفيذي لشركة OpenAI، سام ألتمان، بخصوص “أسئلة حول كيفية معالجة OpenAI”. مخاوف تتعلق بالسلامة الناشئة.” وجاء في الرسالة، التي اطلعت عليها CNBC، أيضًا: “نسعى للحصول على معلومات إضافية من OpenAI حول الخطوات التي تتخذها الشركة للوفاء بالتزاماتها العامة بشأن السلامة، وكيف تقوم الشركة بتقييم تقدمها داخليًا بشأن تلك التزاماتها، وعلى تحديد الشركة لتهديدات الأمن السيبراني والتخفيف من آثارها.”مايكروسوفت تخلى عنها مقعد مراقب في مجلس إدارة OpenAI في يوليو/تموز، ذكرت في رسالة اطلعت عليها CNBC أنه يمكنها الآن التنحي لأنها راضية عن تشكيل مجلس إدارة الشركة الناشئة، والذي تم تجديده منذ الانتفاضة التي أدت إلى طرد قصير ألتمان وهدد استثمار مايكروسوفت الضخم في الشركة.ولكن في يونيو، قامت مجموعة من موظفي OpenAI الحاليين والسابقين بنشر تقرير رسالة مفتوحة واصفا المخاوف بشأن الذكاء الاصطناعي التقدم السريع للصناعة على الرغم من الافتقار إلى الرقابة وغياب حماية المبلغين عن المخالفات لأولئك الذين يرغبون في التحدث. “تمتلك شركات الذكاء الاصطناعي حوافز مالية قوية لتجنب الرقابة الفعالة، ونحن لا نعتقد أن الهياكل المخصصة لحوكمة الشركات كافية لتغيير هذا، “كتب الموظفون في ذلك الوقت. وبعد أيام من نشر الرسالة، أكد مصدر مطلع على الأمر لـ CNBC أن لجنة التجارة الفيدرالية ووزارة العدل من المقرر فتح تحقيقات مكافحة الاحتكار في OpenAI وMicrosoft و نفيديا، مع التركيز على سلوك الشركات. رئيسة لجنة التجارة الفيدرالية لينا خان الموصوفة تصرف وكالتها هو بمثابة “تحقيق سوقي في الاستثمارات والشراكات التي يتم تشكيلها بين مطوري الذكاء الاصطناعي ومقدمي الخدمات السحابية الرئيسيين”. وكتبوا “إننا نتفهم أيضًا المخاطر الجسيمة التي تشكلها هذه التقنيات”، مضيفين أن الشركات “لديها حاليًا فقط التزامات ضعيفة بمشاركة بعض هذه المعلومات مع الحكومات، ولا شيء مع المجتمع المدني، ولا نعتقد أنه يمكن الاعتماد عليهم جميعًا لمشاركتها طوعًا. أعلن العام الماضي وتم حلها في مايو، ركزت على “الاكتشافات العلمية والتقنية لتوجيه أنظمة الذكاء الاصطناعي والتحكم فيها بشكل أكثر ذكاءً منا”. في ذلك الوقت، قالت OpenAI إنها ستخصص 20% من قوتها الحاسوبية للمبادرة على مدار أربع سنوات. وتم حل الفريق بعد أن قام قادته، المؤسس المشارك لـ OpenAI، إيليا سوتسكيفر وجان ليك، وأعلنوا رحيلهم منذ بدء التشغيل في مايو. كتب Leike في منشور على X أن “ثقافة وعمليات السلامة في OpenAI قد تراجعت عن المنتجات اللامعة”.قال التمان في ذلك الوقت على X، كان حزينًا لرؤية Leike يغادر وأن OpenAI كان لديه المزيد من العمل للقيام به. وبعد ذلك بوقت قصير، المؤسس المشارك جريج بروكمان نشر بيان منسوب إلى Brockman والرئيس التنفيذي لشركة X، يؤكد أن الشركة “رفعت الوعي بمخاطر وفرص AGI حتى يتمكن العالم من الاستعداد لها بشكل أفضل.” “لقد انضممت لأنني اعتقدت أن OpenAI سيكون أفضل مكان في العالم”. العالم للقيام بهذا البحث،” ليك كتب على X في ذلك الوقت. “ومع ذلك، فقد كنت أختلف مع قيادة OpenAI حول الأولويات الأساسية للشركة لبعض الوقت، حتى وصلنا أخيرًا إلى نقطة الانهيار”. وكتب في ذلك الوقت: “السلامة والتأثير المجتمعي: “من الصعب جدًا حل هذه المشكلات، وأنا قلق من أننا لسنا على المسار الصحيح للوصول إلى هناك”. “على مدى الأشهر القليلة الماضية، كان فريقي يبحر ضد الريح. في بعض الأحيان كنا نكافح من أجل (موارد الحوسبة) وكان إنجاز هذا البحث المهم يزداد صعوبة.” وأضاف ليك أن OpenAI يجب أن يصبح “السلامة أولاً”. شركة AGI.” “إن بناء آلات أكثر ذكاءً من الإنسان هو مسعى خطير بطبيعته،” كتب على X. “تتحمل OpenAI مسؤولية هائلة نيابة عن البشرية جمعاء، ولكن على مدى السنوات الماضية، اتخذت ثقافة وعمليات السلامة المقعد الخلفي للمنتجات اللامعة.” (العلامات للترجمة) شركة مايكروسوفت (ر) سام التمان (ر) التكنولوجيا (ر) الأخبار العاجلة: التكنولوجيا (ر) الذكاء الاصطناعي (ر) الذكاء الاصطناعي التوليدي (ر) أخبار الأعمال
المصدر