لا أحد مستعد للذكاء الاصطناعي العام، ولا حتى OpenAI
وجه مايلز بروندج، كبير مستشاري OpenAI لاستعداد الذكاء الاصطناعي العام (المعروف أيضًا باسم الذكاء الاصطناعي على المستوى البشري)، تحذيرًا صارخًا عندما أعلن رحيله يوم الأربعاء: لا أحد مستعد للذكاء العام الاصطناعي، بما في ذلك OpenAI نفسها. كتب بروندج، الذي قضى ست سنوات في المساعدة في تشكيل مبادرات الشركة الخاصة بالسلامة في مجال الذكاء الاصطناعي: “هناك مختبر حدودي آخر جاهز (للذكاء الاصطناعي العام)، والعالم ليس جاهزًا أيضًا”. “لكي أكون واضحًا، لا أعتقد أن هذا بيان مثير للجدل بين قيادة OpenAI، وعلى وجه الخصوص، هذا سؤال مختلف عما إذا كانت الشركة والعالم يسيران على الطريق الصحيح ليكونا جاهزين في الوقت المناسب.” في سلسلة من عمليات المغادرة رفيعة المستوى من فرق السلامة في OpenAI. جان ليك، باحث بارز، غادر بعد المطالبة أن “ثقافة وعمليات السلامة قد تراجعت أمام المنتجات اللامعة.” كما غادر المؤسس المشارك إيليا سوتسكيفر أيضًا لإطلاق شركته الناشئة الخاصة بالذكاء الاصطناعي والتي تركز على تطوير الذكاء الاصطناعي العام الآمن. ويأتي حل فريق “جاهزية الذكاء الاصطناعي العام” التابع لشركة بروندج، بعد أشهر قليلة من تأسيس الشركة. قامت بحل فريق “Superalignment” الخاص بها المخصص للتخفيف من مخاطر الذكاء الاصطناعي على المدى الطويل، يسلط الضوء على التوترات المتزايدة بين مهمة OpenAI الأصلية وطموحاتها التجارية. الشركة ويقال أنه يواجه ضغوطا للانتقال من مؤسسة غير ربحية إلى شركة ذات منفعة عامة هادفة للربح في غضون عامين – أو المخاطرة بإعادة الأموال من جولتها الاستثمارية الأخيرة البالغة 6.6 مليار دولار. لطالما أثار هذا التحول نحو التسويق قلق بروندج، الذي أعرب عن تحفظاته في عام 2019 عندما أنشأت OpenAI قسمها الربحي لأول مرةوفي تفسيره لرحيله، أشار بروندج إلى القيود المتزايدة المفروضة على حرية البحث والنشر في الشركة رفيعة المستوى. وشدد على الحاجة إلى أصوات مستقلة في المناقشات المتعلقة بسياسة الذكاء الاصطناعي، خالية من التحيزات الصناعية وتضارب المصالح. بعد أن قدم المشورة لقيادة OpenAI بشأن الاستعداد الداخلي، يعتقد أنه يستطيع الآن إحداث تأثير أكبر على حوكمة الذكاء الاصطناعي العالمية من خارج المنظمة. وقد يعكس هذا الرحيل أيضًا انقسامًا ثقافيًا أعمق داخل OpenAI. العديد من الباحثين انضمت لتعزيز أبحاث الذكاء الاصطناعي ويجدون أنفسهم الآن في بيئة تعتمد على المنتج بشكل متزايد. لقد أصبح تخصيص الموارد الداخلية نقطة اشتعال – تشير التقارير أن فريق Leike قد حُرم من القدرة الحاسوبية لأبحاث السلامة قبل حله في نهاية المطاف. وعلى الرغم من هذه الاحتكاكات، أشار بروندج إلى أن OpenAI عرضت دعم عمله المستقبلي من خلال التمويل، وائتمانات واجهة برمجة التطبيقات، والوصول المبكر للنموذج، دون أي قيود.
المصدر