إليكم ما يعنيه ذلك لشركات التكنولوجيا الأمريكية
يدخل قانون الذكاء الاصطناعي التاريخي للاتحاد الأوروبي حيز التنفيذ رسميًا يوم الخميس – وهذا يعني تغييرات صعبة لشركات التكنولوجيا العملاقة الأمريكية. قانون الذكاء الاصطناعي، وهو قاعدة تاريخية تهدف إلى تنظيم الطريقة التي تطور بها الشركات الذكاء الاصطناعي وتستخدمه وتطبقه، كان حصل على الموافقة النهائية من الدول الأعضاء في الاتحاد الأوروبي والمشرعين والمفوضية الأوروبية – الهيئة التنفيذية للاتحاد الأوروبي – في مايو. استعرضت CNBC كل ما تحتاج إلى معرفته حول قانون الذكاء الاصطناعي – وكيف سيؤثر على أكبر شركات التكنولوجيا العالمية.ما هو قانون الذكاء الاصطناعي؟ قانون الذكاء الاصطناعي هو جزء من تشريعات الاتحاد الأوروبي التي تحكم الذكاء الاصطناعي. اقترحت المفوضية الأوروبية القانون لأول مرة في عام 2020، ويهدف إلى معالجة التأثيرات السلبية للذكاء الاصطناعي. تحدد اللائحة إطارًا تنظيميًا شاملاً ومتناغمًا للذكاء الاصطناعي في جميع أنحاء الاتحاد الأوروبي. ستستهدف في المقام الأول شركات التكنولوجيا الأمريكية الكبرى، والتي تعد حاليًا البناة والمطورين الأساسيين لأنظمة الذكاء الاصطناعي الأكثر تقدمًا. ومع ذلك، فإن العديد من الشركات الأخرى ستخضع لنطاق القواعد – حتى الشركات غير التقنية. قال تانجوي فان أوفرستراتين، رئيس قسم التكنولوجيا والإعلام والتكنولوجيا في شركة المحاماة لينكليترز في بروكسل، إن قانون الذكاء الاصطناعي في الاتحاد الأوروبي هو “الأول من نوعه في العالم”. “من المرجح أن يؤثر على العديد من الشركات، وخاصة تلك التي تطور أنظمة الذكاء الاصطناعي ولكن أيضًا تلك التي تنشرها أو تستخدمها فقط في ظروف معينة”. يطبق التشريع نهجًا قائمًا على المخاطر لتنظيم الذكاء الاصطناعي مما يعني أن التطبيقات المختلفة للتكنولوجيا يتم تنظيمها بشكل مختلف اعتمادًا على مستوى المخاطر التي تشكلها على المجتمع. بالنسبة لتطبيقات الذكاء الاصطناعي التي تعتبر “عالية المخاطر”، على سبيل المثال، سيتم تقديم التزامات صارمة بموجب قانون الذكاء الاصطناعي. وتشمل هذه الالتزامات أنظمة تقييم المخاطر والتخفيف المناسبة، ومجموعات بيانات التدريب عالية الجودة لتقليل مخاطر التحيز، والتسجيل الروتيني للنشاط، والمشاركة الإلزامية للوثائق التفصيلية حول النماذج مع السلطات لتقييم الامتثال. وتشمل أمثلة أنظمة الذكاء الاصطناعي عالية المخاطر المركبات ذاتية القيادة، والأجهزة الطبية، وأنظمة اتخاذ القرارات بشأن القروض، والتسجيل التعليمي، وأنظمة التعريف البيومترية عن بعد. ويفرض القانون أيضًا حظرًا شاملاً على أي تطبيقات للذكاء الاصطناعي تعتبر “غير مقبولة” من حيث مستوى المخاطر. وتشمل تطبيقات الذكاء الاصطناعي غير المقبولة أنظمة “التسجيل الاجتماعي” التي تصنف المواطنين على أساس تجميع وتحليل بياناتهم، والشرطة التنبؤية، واستخدام تكنولوجيا التعرف العاطفي في مكان العمل أو المدارس.ماذا يعني ذلك بالنسبة لشركات التكنولوجيا الأمريكية؟ مثل الشركات العملاقة الأمريكية مايكروسوفت, جوجل, أمازون, تفاحة، و ميتا وقال تشارلي طومسون، نائب الرئيس الأول لمنطقة أوروبا والشرق الأوسط وأفريقيا وأمريكا اللاتينية لشركة البرمجيات المؤسسية Appian، لشبكة CNBC عبر البريد الإلكتروني: “إن قانون الذكاء الاصطناعي له آثار تتجاوز الاتحاد الأوروبي. فهو ينطبق على أي منظمة لديها أي عملية أو تأثير في الاتحاد الأوروبي، مما يعني أن قانون الذكاء الاصطناعي من المرجح أن ينطبق عليك بغض النظر عن مكان وجودك”. وأضاف طومسون: “سيؤدي هذا إلى مزيد من التدقيق على شركات التكنولوجيا العملاقة عندما يتعلق الأمر بعملياتها في سوق الاتحاد الأوروبي واستخدامها لبيانات مواطني الاتحاد الأوروبي”. وقد قيدت Meta بالفعل توافر نموذج الذكاء الاصطناعي الخاص بها في أوروبا بسبب المخاوف التنظيمية – على الرغم من أن هذه الخطوة لم تكن بالضرورة بسبب قانون الذكاء الاصطناعي في الاتحاد الأوروبي. قالت شركة فيسبوك إنها لن تجعل نماذج LLaMa الخاصة بها متاحة في الاتحاد الأوروبي، مشيرة إلى عدم اليقين بشأن ما إذا كانت تمتثل للوائح حماية البيانات العامة للاتحاد الأوروبي، أو GDPR. وقد صدرت أوامر للشركة سابقًا بالتوقف عن تدريب نماذجها على المنشورات من Facebook و Instagram في الاتحاد الأوروبي بسبب المخاوف من أنها قد تنتهك GDPR.تم تصنيف الذكاء الاصطناعي التوليدي في قانون الذكاء الاصطناعي للاتحاد الأوروبي كمثال على الذكاء الاصطناعي “للأغراض العامة”. يشير هذا التصنيف إلى الأدوات التي من المفترض أن تكون قادرة على إنجاز مجموعة واسعة من المهام على مستوى مماثل – إن لم يكن أفضل من – الإنسان. تشمل نماذج الذكاء الاصطناعي للأغراض العامة، على سبيل المثال لا الحصر، GPT من OpenAI، وGemini من Google، وClaude من Anthropic. بالنسبة لهذه الأنظمة، يفرض قانون الذكاء الاصطناعي متطلبات صارمة مثل احترام قانون حقوق النشر في الاتحاد الأوروبي، وإصدار إفصاحات الشفافية حول كيفية تدريب النماذج، وإجراء اختبارات روتينية وحماية كافية للأمن السيبراني. ومع ذلك، لا يتم التعامل مع جميع نماذج الذكاء الاصطناعي على قدم المساواة. قال مطورو الذكاء الاصطناعي إن الاتحاد الأوروبي بحاجة إلى ضمان عدم تنظيم النماذج مفتوحة المصدر – والتي تكون مجانية للجمهور ويمكن استخدامها لبناء تطبيقات الذكاء الاصطناعي المخصصة – بشكل صارم للغاية. تشمل أمثلة النماذج مفتوحة المصدر LLaMa من Meta و Stable Diffusion من Stability AI و 7B من Mistral. يحدد الاتحاد الأوروبي بعض الاستثناءات لنماذج الذكاء الاصطناعي التوليدية مفتوحة المصدر. ولكن للتأهل للإعفاء من القواعد، يجب على مقدمي الخدمات مفتوحة المصدر جعل معاييرهم، بما في ذلك الأوزان وهندسة النموذج واستخدام النموذج، متاحة للجمهور وتمكين “الوصول إلى النموذج واستخدامه وتعديله وتوزيعه”. لن يتم احتساب النماذج مفتوحة المصدر التي تشكل مخاطر “نظامية” للإعفاء، وفقًا لقانون الذكاء الاصطناعي. وقال فان أوفرستراتن “من الضروري تقييم متى يتم تشغيل القواعد ودور أصحاب المصلحة المعنيين بعناية”.ماذا يحدث إذا انتهكت شركة القواعد؟الشركات التي تنتهك قانون الذكاء الاصطناعي للاتحاد الأوروبي يمكن تغريمه تتراوح العقوبات المفروضة على الشركات بين 35 مليون يورو (41 مليون دولار) أو 7% من إيراداتها السنوية العالمية – أيهما أعلى – إلى 7.5 مليون يورو أو 1.5% من إيراداتها السنوية العالمية. وسيعتمد حجم العقوبات على الانتهاك وحجم الشركة التي تم تغريمها. وهذا أعلى من الغرامات الممكنة بموجب اللائحة العامة لحماية البيانات، قانون الخصوصية الرقمية الصارم في أوروبا. وتواجه الشركات غرامات تصل إلى 20 مليون يورو أو 4٪ من إجمالي المبيعات السنوية العالمية لانتهاكات اللائحة العامة لحماية البيانات. وستخضع جميع نماذج الذكاء الاصطناعي التي تندرج ضمن نطاق القانون – بما في ذلك أنظمة الذكاء الاصطناعي للأغراض العامة – لمكتب الذكاء الاصطناعي الأوروبي، وهو هيئة تنظيمية أنشأتها المفوضية في فبراير 2024. وقال جميل جيفا، رئيس إدارة الأصول العالمية في شركة Linedata للتكنولوجيا المالية، لشبكة CNBC إن الاتحاد الأوروبي “يفهم أنه بحاجة إلى فرض غرامات كبيرة على الشركات المخالفة إذا كان يريد أن يكون للوائح تأثير”. وعلى غرار الطريقة التي أظهر بها اللائحة العامة لحماية البيانات الطريقة التي يمكن بها للاتحاد الأوروبي “مرونته في التأثير التنظيمي لإلزام أفضل ممارسات خصوصية البيانات” على المستوى العالمي، فإن الكتلة تحاول مرة أخرى تكرار ذلك من خلال قانون الذكاء الاصطناعي، ولكن بالنسبة للذكاء الاصطناعي، كما أضاف جيفا. ومع ذلك، تجدر الإشارة إلى أنه على الرغم من دخول قانون الذكاء الاصطناعي حيز التنفيذ أخيرًا، فإن معظم الأحكام بموجب القانون لن تدخل حيز التنفيذ فعليًا حتى عام 2026 على الأقل. لن تبدأ القيود المفروضة على الأنظمة للأغراض العامة حتى بعد 12 شهرًا من دخول قانون الذكاء الاصطناعي حيز التنفيذ. دخول القانون حيز التنفيذ. كما يتم منح أنظمة الذكاء الاصطناعي التوليدي المتاحة تجاريًا حاليًا – مثل ChatGPT من OpenAI و Gemini من Google – “فترة انتقالية” مدتها 36 شهرًا لجعل أنظمتها متوافقة.
المصدر