مايكروسوفت تريد من الكونجرس تجريم الاحتيال باستخدام تقنية التزييف العميق التي يتم إنشاؤها بواسطة الذكاء الاصطناعي
تدعو شركة مايكروسوفت أعضاء الكونجرس إلى تنظيم استخدام مقاطع الفيديو المزيفة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي للحماية من الاحتيال والإساءة والتلاعب. ويدعو نائب رئيس شركة مايكروسوفت ورئيسها براد سميث إلى اتخاذ إجراءات عاجلة من جانب صناع السياسات لحماية الانتخابات وحماية كبار السن من الاحتيال والأطفال من الإساءة. “بينما اتخذ قطاع التكنولوجيا والمجموعات غير الربحية خطوات حديثة لمعالجة هذه المشكلة، فقد أصبح من الواضح أن قوانيننا ستحتاج أيضًا إلى التطور لمكافحة الاحتيال باستخدام مقاطع الفيديو المزيفة”. يقول سميث في منشور على مدونته“إن أحد أهم الأشياء التي يمكن للولايات المتحدة القيام بها هو تمرير قانون شامل للاحتيال باستخدام تقنية التزييف العميق لمنع مجرمي الإنترنت من استخدام هذه التكنولوجيا لسرقة الأمريكيين العاديين”. تريد مايكروسوفت “قانون احتيال التزييف العميق” الذي سيعطي مسؤولي إنفاذ القانون إطارًا قانونيًا لمقاضاة عمليات الاحتيال والاحتيال التي تم إنشاؤها بواسطة الذكاء الاصطناعي. كما يدعو سميث المشرعين إلى “ضمان تحديث قوانيننا الفيدرالية والولائية بشأن الاستغلال الجنسي للأطفال وإساءة معاملتهم والصور الحميمة غير التوافقية لتشمل المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي”. كان على مايكروسوفت تنفيذ المزيد من ضوابط السلامة لمنتجات الذكاء الاصطناعي الخاصة بها، بعد ثغرة في برنامج تصميم الصور AI الخاص بالشركة لقد سمح الذكاء الاصطناعي للناس بإنشاء صور صريحة لمشاهير مثل تايلور سويفت. يقول سميث: “يتحمل القطاع الخاص مسؤولية الابتكار وتنفيذ الضمانات التي تمنع إساءة استخدام الذكاء الاصطناعي”. في حين أن لجنة الاتصالات الفيدرالية قد قامت بالفعل حظر المكالمات الآلية التي تحتوي على أصوات تم إنشاؤها بواسطة الذكاء الاصطناعيإن الذكاء الاصطناعي التوليدي يجعل من السهل إنشاء مقاطع صوتية وصور ومقاطع فيديو مزيفة – وهو أمر نشهده بالفعل خلال الفترة التي تسبق الانتخابات الرئاسية لعام 2024. إيلون ماسك شارك مقطع فيديو مزيفًا وتريد مايكروسوفت أن يتم تصنيف منشورات مثل منشورات ماسك بوضوح على أنها مزيفة. ويقول سميث: “يجب على الكونجرس أن يطلب من مزودي أنظمة الذكاء الاصطناعي استخدام أدوات المنشأ الحديثة لتصنيف المحتوى المزيف. وهذا أمر ضروري لبناء الثقة في النظام البيئي للمعلومات وسيساعد الجمهور على فهم أفضل لما إذا كان المحتوى من صنع الذكاء الاصطناعي أو تم التلاعب به”.
المصدر