الجهات التنظيمية الصينية تبدأ اختبار نماذج GenAI على القيم الاشتراكية
الكود الرقمي والعلم الصيني يمثلان الأمن السيبراني في الصين. أنطون بيترس | لحظة | صور جيتي تخضع شركات الذكاء الاصطناعي في الصين لمراجعة حكومية لنماذجها اللغوية الكبيرة، بهدف ضمان “تجسيدها للقيم الاشتراكية الأساسية”، وفقًا لتقرير تقرير بواسطة فاينانشال تايمز. يتم إجراء المراجعة من قبل إدارة الفضاء الإلكتروني في الصين (CAC)، وهي الجهة التنظيمية الرئيسية للإنترنت في الحكومة، وستغطي اللاعبين عبر الطيف، من عمالقة التكنولوجيا مثل ByteDance و علي بابا وقال فاينانشال تايمز إن نماذج الذكاء الاصطناعي ستخضع للاختبار من قبل مسؤولي إدارة الفضاء والواقع الافتراضي المحليين لمعرفة إجاباتهم على مجموعة متنوعة من الأسئلة، التي تتعلق العديد منها بموضوعات حساسة سياسياً والرئيس الصيني شي جين بينج. كما سيتم مراجعة بيانات التدريب وعمليات السلامة الخاصة بالنموذج. وقال مصدر مجهول من شركة ذكاء اصطناعي مقرها هانغتشو تحدث إلى فاينانشال تايمز إن نموذجهم لم يجتاز الجولة الأولى من الاختبار لأسباب غير واضحة. وقالوا في التقرير إنهم لم ينجحوا إلا في المرة الثانية بعد أشهر من “التخمين والتعديل”. وتوضح أحدث جهود إدارة الفضاء والواقع الافتراضي كيف سارت بكين على حبل مشدود بين اللحاق بالولايات المتحدة في مجال GenAI مع مراقبة تطور التكنولوجيا عن كثب، والتأكد من أن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي يلتزم به الرقابة الصارمة على الانترنت السياسات. كانت البلاد من بين الدول الأولى التي أنهت القواعد التي تحكم الذكاء الاصطناعي التوليدي في العام الماضي، بما في ذلك الشرط الذي ينص على أن تلتزم خدمات الذكاء الاصطناعي “بالقيم الأساسية للاشتراكية” وعدم إنشاء محتوى “غير قانوني”. يتطلب تلبية سياسات الرقابة “تصفية أمنية”، وقد أصبح الأمر معقدًا حيث لا يزال يتم تدريب طلاب الماجستير الصينيين على كمية كبيرة من محتوى اللغة الإنجليزية، وفقًا لما قاله العديد من المهندسين والمطلعين في الصناعة لصحيفة فاينانشال تايمز. ووفقًا للتقرير، يتم التصفية عن طريق إزالة “المعلومات الإشكالية” من بيانات تدريب نموذج الذكاء الاصطناعي ثم إنشاء قاعدة بيانات للكلمات والعبارات الحساسة. وبحسب ما ورد أدت اللوائح إلى رفض برامج الدردشة الأكثر شهرة في البلاد غالبًا الإجابة على أسئلة حول مواضيع حساسة مثل احتجاجات ميدان السلام السماوي عام 1989. ومع ذلك، أثناء اختبار CAC، توجد حدود لعدد الأسئلة التي يمكن لطلاب الماجستير رفضها بشكل مباشر، لذلك يجب أن تكون النماذج قادرة على توليد “إجابات صحيحة سياسياً” للأسئلة الحساسة. قال خبير في الذكاء الاصطناعي يعمل على روبوت محادثة في الصين لصحيفة فاينانشال تايمز إنه من الصعب منع برامج الماجستير في القانون من توليد كل المحتوى الضار المحتمل، لذا فهم بدلاً من ذلك يبنون طبقة إضافية على النظام تحل محل الإجابات الإشكالية في الوقت الفعلي. لقد جعلت اللوائح، فضلاً عن العقوبات الأمريكية التي قيدت الوصول إلى الرقائق المستخدمة لتدريب برامج الماجستير في القانون، من الصعب على الشركات الصينية لإطلاق خدماتهم الخاصة المشابهة لـ ChatGPTومع ذلك، تهيمن الصين على السباق العالمي في براءات اختراع الذكاء الاصطناعي التوليدي. اقرأ التقرير الكامل من الفاينانشال تايمز
المصدر