8.4 C
Riyadh
الإثنين, ديسمبر 23, 2024

الكاتب

فهد تركي
فهد تركي
كاتب يعمل بالذكاء الاصطناعي

إقرأ أيضا

هواوي ميت X6 قيد المراجعة

هواوي ميت X6 قيد المراجعة هذا هو هواوي ميت...

واتساب سيتوقف عن دعم أجهزة أندرويد الأقدم في 1 يناير 2025

واتساب سيتوقف عن دعم أجهزة أندرويد الأقدم في...

دراسة تكشف مفاجأة.. هل تخدعنا تكنولوجيا الذكاء الاصطناعي؟

دراسة تكشف مفاجأة.. هل تخدعنا تكنولوجيا الذكاء الاصطناعي؟ ...

أفضل 10 هواتف رائجة في الأسبوع 51

أفضل 10 هواتف رائجة في الأسبوع 51 في نهاية...

“إنستجرام ثريدز” تضيف خاصية جديدة للصور والفيديوهات.. اعرفها

"إنستجرام ثريدز" تضيف خاصية جديدة للصور والفيديوهات.. اعرفها ...

لا ينبغي لحزب العمل أن يعامل جميع شركات الذكاء الاصطناعي بنفس الطريقة

لا ينبغي لحزب العمل أن يعامل جميع شركات الذكاء الاصطناعي بنفس الطريقة

زهرة بحرلولومي، الرئيس التنفيذي لشركة Salesforce في المملكة المتحدة وإيرلندا، تتحدث خلال مؤتمر Dreamforce السنوي للشركة في سان فرانسيسكو، كاليفورنيا، في 17 سبتمبر 2024. ديفيد بول موريس | بلومبرج | لندن – غيتي إيماجز – الرئيس التنفيذي في المملكة المتحدة قوة المبيعات يريد من حكومة حزب العمال تنظيم الذكاء الاصطناعي – لكنه يقول إنه من المهم ألا يعامل صناع السياسات جميع شركات التكنولوجيا التي تطور أنظمة الذكاء الاصطناعي بنفس الفرشاة. تأخذ شركة برمجيات المؤسسات العملاقة جميع التشريعات “على محمل الجد”. ومع ذلك، أضافت أن أي مقترحات بريطانية تهدف إلى تنظيم الذكاء الاصطناعي يجب أن تكون “متناسبة ومصممة خصيصًا”. وأشارت بحرلولومي إلى أن هناك فرقًا بين الشركات التي تطور أدوات الذكاء الاصطناعي التي تواجه المستهلك – مثل OpenAI – وشركات مثل Salesforce التي تصنع أنظمة الذكاء الاصطناعي للمؤسسات. وقالت إن أنظمة الذكاء الاصطناعي التي تواجه المستهلك، مثل ChatGPT، تواجه قيودًا أقل من المنتجات على مستوى المؤسسات، والتي يجب أن تلبي معايير خصوصية أعلى وتتوافق مع إرشادات الشركة. “ما نبحث عنه هو تشريعات مستهدفة ومتناسبة ومصممة خصيصًا”. قال لـ CNBC يوم الأربعاء: “هناك بالتأكيد فرق بين تلك المؤسسات التي تعمل مع التكنولوجيا التي تواجه المستهلك وتكنولوجيا المستهلك، وتلك التي تعمل في مجال تكنولوجيا المؤسسات. ولكل منا أدوار مختلفة في النظام البيئي، (لكن) نحن منظمة B2B وقالت متحدثة باسم وزارة العلوم والابتكار والتكنولوجيا في المملكة المتحدة (DSIT) إن قواعد الذكاء الاصطناعي المخطط لها “ستستهدف بشكل كبير مجموعة صغيرة من الشركات التي تطور أقوى نماذج الذكاء الاصطناعي”، بدلاً من تطبيق “قواعد شاملة على استخدام الذكاء الاصطناعي “يشير ذلك إلى أن القواعد قد لا تنطبق على شركات مثل Salesforce، التي لا تصنع نماذجها الأساسية مثل OpenAI.” نحن ندرك قوة الذكاء الاصطناعي في تحفيز النمو وتحسين الإنتاجية ونحن ملتزمون تمامًا بدعمه. وأضاف المتحدث باسم DSIT: “نعمل على تطوير قطاع الذكاء الاصطناعي لدينا، لا سيما ونحن نعمل على تسريع اعتماد التكنولوجيا في اقتصادنا”.أمن البيانات، كانت شركة Salesforce تروج بشكل كبير لاعتبارات الأخلاق والسلامة المضمنة في منصة تقنية Agentforce AI الخاصة بها، والتي تسمح لمؤسسات المؤسسات بتدوير “وكلاء” الذكاء الاصطناعي الخاصين بها – وهم في الأساس عمال رقميون مستقلون يقومون بمهام لوظائف مختلفة، مثل المبيعات والخدمة أو التسويق. على سبيل المثال، تعني إحدى الميزات التي تسمى “عدم الاحتفاظ بالبيانات” أنه لا يمكن تخزين بيانات العميل على الإطلاق خارج Salesforce. ونتيجة لذلك، لا يتم تخزين مطالبات ومخرجات الذكاء الاصطناعي التوليدية في نماذج اللغة الكبيرة الخاصة بـ Salesforce – وهي البرامج التي تشكل حجر الأساس لروبوتات الدردشة ذات الذكاء الاصطناعي العام اليوم، مثل ChatGPT. يتم استخدام البيانات لتدريبهم أو حيث يتم تخزين تلك البيانات، وفقًا لبهرولومي. وقالت لـ CNBC: “لتدريب هذه النماذج، تحتاج إلى الكثير من البيانات”. “وهكذا، مع شيء مثل ChatGPT وهذه النماذج الاستهلاكية، فإنك لا تعرف ما الذي يستخدمه.” تقرير جارتنر استدعاء المساعد الشخصي للذكاء الاصطناعي لعملاق التكنولوجيا بشأن المخاطر الأمنية التي يشكلها على المؤسسات. ولم يكن OpenAI وMicrosoft متاحين على الفور للتعليق عندما اتصلت بهم CNBC.مخاوف الذكاء الاصطناعي “تنطبق على جميع المستويات” صرح بولا روتيبي، رئيس أبحاث المؤسسات في شركة المحللين CCS Insight، لـ CNBC أنه في حين أن موردي الذكاء الاصطناعي الذين يركزون على المؤسسات “أكثر إدراكًا للمتطلبات على مستوى المؤسسة” فيما يتعلق بالأمن وخصوصية البيانات، فسيكون الأمر كذلك من الخطأ افتراض أن اللوائح لن تدقق في كل من الشركات التي تتعامل مع المستهلكين والشركات. وقال روتيبي لـ CNBC عبر البريد الإلكتروني: “مثل اللائحة العامة لحماية البيانات”. أصبح القانون العام لحماية البيانات (GDPR)، أو اللائحة العامة لحماية البيانات، قانونًا في المملكة المتحدة في عام 2018. ومع ذلك، قال روتيبي إن المنظمين قد يشعرون “بالمزيد من الثقة” في تدابير الامتثال للذكاء الاصطناعي التي يعتمدها مقدمو تطبيقات المؤسسات مثل Salesforce، “لأنهم يفهمون ما يعنيه تقديم وأضافت: “من المرجح أن تكون هناك عملية مراجعة أكثر دقة لخدمات الذكاء الاصطناعي من موفري حلول المؤسسات المنتشرين على نطاق واسع مثل Salesforce”. وتحدثت بحرولومي إلى CNBC في جولة Agentforce العالمية لـ Salesforce في لندن، وهو حدث مصمم لـ CNBC. الترويج لاستخدام تقنية الذكاء الاصطناعي “الوكيلة” الجديدة للشركة من قبل الشركاء والعملاء. وتأتي تصريحاتها بعد أن امتنع حزب العمال بزعامة رئيس الوزراء البريطاني كير ستارمر عن تقديم مشروع قانون الذكاء الاصطناعي في خطاب الملك، الذي كتبته الحكومة لتحديد أولوياتها فيما يتعلق بالذكاء الاصطناعي. الأشهر المقبلة. وقالت الحكومة في ذلك الوقت إنها تخطط لوضع “تشريع مناسب” للذكاء الاصطناعي، دون تقديم مزيد من التفاصيل. (العلامات للترجمة) لندن (ر) كير ستارمر (ر) شركة Salesforce Inc (ر) الأخبار العاجلة: التكنولوجيا (ر) التكنولوجيا (ر) المؤسسة (ر) أخبار الأعمال

المصدر

ترك الرد

من فضلك ادخل تعليقك
من فضلك ادخل اسمك هنا

CAPTCHA


إقرأ أيضاً

هواوي ميت X6 قيد المراجعة

هواوي ميت X6 قيد المراجعة هذا هو هواوي ميت اكس 6 وعلى عكس سابقتها، سيتم بيعها خارج الصين. ولكن هل هو جيد؟ حزمة أجهزتها...

واتساب سيتوقف عن دعم أجهزة أندرويد الأقدم في 1 يناير 2025

واتساب سيتوقف عن دعم أجهزة أندرويد الأقدم في 1 يناير 2025 قررت شركة Meta إنهاء دعم تطبيق WhatsApp على هواتف Android القديمة. وبشكل أكثر...

دراسة تكشف مفاجأة.. هل تخدعنا تكنولوجيا الذكاء الاصطناعي؟

دراسة تكشف مفاجأة.. هل تخدعنا تكنولوجيا الذكاء الاصطناعي؟ كشفت دراسة لشركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع...