16 C
Riyadh
الأربعاء, يناير 15, 2025

الكاتب

فهد تركي
فهد تركي
كاتب يعمل بالذكاء الاصطناعي

إقرأ أيضا

يصل دعم Nest Protect إلى تطبيق Google Home

يصل دعم Nest Protect إلى تطبيق Google Home إدارة...

زوكربيرج سيستضيف حفل تنصيب ترامب

زوكربيرج سيستضيف حفل تنصيب ترامب يبدو أن مارك زوكربيرج،...

من Gmail إلى Word، إعدادات الخصوصية والذكاء الاصطناعي في علاقة جديدة

من Gmail إلى Word، إعدادات الخصوصية والذكاء الاصطناعي في علاقة جديدة

تم تنظيم موقع Microsoft 365 على الكمبيوتر المحمول في نيويورك بالولايات المتحدة يوم الثلاثاء 25 يونيو 2024. بلومبرج | بلومبرج | Getty Images تعتبر بداية العام وقتًا رائعًا للقيام ببعض النظافة الإلكترونية الأساسية. لقد طُلب منا جميعًا التصحيح وتغيير كلمات المرور وتحديث البرامج. لكن أحد المخاوف التي تزحف بشكل متزايد إلى الواجهة هو التكامل الهادئ أحيانًا للذكاء الاصطناعي الذي يحتمل أن ينتهك الخصوصية في البرامج. وقالت لينيت أوينز، نائب الرئيس لتعليم المستهلك العالمي في شركة تريند مايكرو للأمن السيبراني: “إن التكامل السريع للذكاء الاصطناعي في برامجنا وخدماتنا قد أثار، وينبغي أن يستمر، تساؤلات مهمة حول سياسات الخصوصية التي سبقت عصر الذكاء الاصطناعي”. قد تخضع العديد من البرامج التي نستخدمها اليوم – سواء كانت البريد الإلكتروني أو مسك الدفاتر أو أدوات الإنتاجية ووسائل التواصل الاجتماعي وتطبيقات البث المباشر – لسياسات الخصوصية التي تفتقر إلى الوضوح بشأن ما إذا كان يمكن استخدام بياناتنا الشخصية لتدريب نماذج الذكاء الاصطناعي. منا عرضة لاستخدام معلوماتنا الشخصية دون الحصول على الموافقة المناسبة، لقد حان الوقت لكل تطبيق أو موقع ويب أو خدمة عبر الإنترنت لإلقاء نظرة فاحصة على البيانات التي يجمعونها ومع من يشاركونها وكيف يتم ذلك. مشاركته، وما إذا كان يمكن الوصول إليه للتدريب أم لا وقال أوينز: “نماذج الذكاء الاصطناعي”. “هناك الكثير من الأمور التي يتعين علينا القيام بها.” حيث أن الذكاء الاصطناعي موجود بالفعل في حياتنا اليومية عبر الإنترنت، وقال أوينز إن المشكلات المحتملة تتداخل مع معظم البرامج والتطبيقات التي نستخدمها يوميًا. العمليات لسنوات، قبل وقت طويل من أن يصبح الذكاء الاصطناعي كلمة طنانة”. على سبيل المثال، يشير أوينز إلى أن Gmail استخدم الذكاء الاصطناعي لتصفية البريد العشوائي والنص التنبؤي من خلال ميزة “الكتابة الذكية”. وقال أوينز: “وتعتمد خدمات البث مثل Netflix على الذكاء الاصطناعي لتحليل عادات المشاهدة والتوصية بالمحتوى”. استخدمت منصات الوسائط الاجتماعية مثل Facebook وInstagram الذكاء الاصطناعي منذ فترة طويلة للتعرف على الوجه في الصور وموجزات المحتوى المخصصة. قال أوينز: “يتم استخدامه لتدريب أنظمة الذكاء الاصطناعي. يجب على الجميع مراجعة إعدادات الخصوصية بعناية، وفهم البيانات التي تتم مشاركتها، والتحقق بانتظام من تحديثات شروط الخدمة”. إحدى الأدوات التي خضعت لتدقيق خاص هي تجارب Microsoft المتصلة، والتي لقد كان موجودًا منذ ذلك الحين 2019 ويأتي مفعلاً مع خيار إلغاء الاشتراك الاختياري. وقد تم تسليط الضوء عليها مؤخرًا في التقارير الصحفية – بشكل غير دقيق، وفقًا للشركة وكذلك بعض خبراء الأمن السيبراني الخارجيين الذين ألقوا نظرة على المشكلة – كميزة جديدة أو تم تغيير إعداداتها. وبغض النظر عن العناوين المثيرة جانبًا، فإن خبراء الخصوصية يشعرون بالقلق من أن التقدم في الذكاء الاصطناعي يمكن أن يؤدي إلى احتمال استخدام البيانات والكلمات في برامج مثل Microsoft Word بطرق لا تغطيها إعدادات الخصوصية بشكل كافٍ. وقال أوينز: “إذا لم تتغير إعدادات الخصوصية الأساسية، فإن الآثار المترتبة على استخدام البيانات قد تكون أوسع بكثير”. كتب متحدث باسم Microsoft في بيان لـ CNBC أن Microsoft لا تستخدم بيانات العملاء من تطبيقات Microsoft 365 الاستهلاكية والتجارية لتدريب نماذج اللغات الكبيرة الأساسية. وأضاف أنه في بعض الحالات، قد يوافق العملاء على استخدام بياناتهم لأغراض محددة، مثل تطوير النموذج المخصص الذي يطلبه بعض العملاء التجاريين صراحة. بالإضافة إلى ذلك، يتيح الإعداد الميزات المدعومة بالسحابة التي يتوقعها العديد من الأشخاص من أدوات الإنتاجية مثل التأليف المشترك في الوقت الفعلي والتخزين السحابي وأدوات مثل Editor in Word التي توفر اقتراحات إملائية ونحوية. تعد إعدادات الخصوصية الافتراضية مشكلةTed Miracco، قال الرئيس التنفيذي لشركة برمجيات الأمان Approov، إن ميزات مثل تجارب Microsoft المتصلة هي سيف ذو حدين – وعد بتعزيز الإنتاجية ولكن تقديم إشارات حمراء مهمة للخصوصية. قال ميراكو إن حالة التشغيل الافتراضية للإعداد يمكن أن تجعل الأشخاص يختارون شيئًا لا يعرفونه بالضرورة، ويتعلق في المقام الأول بجمع البيانات، وقد ترغب المؤسسات أيضًا في التفكير مرتين قبل ترك الميزة قيد التشغيل. قال ميراكو: “، لكنه لا يزال غير قادر على تخفيف بعض المخاوف الحقيقية المتعلقة بالخصوصية”. وقال فاهدات: “الديناميكية بشكل كبير”. “إن تمكين هذه الميزات تلقائيًا، حتى مع النوايا الحسنة، يضع بطبيعته العبء على عاتق المستخدمين لمراجعة وتعديل إعدادات الخصوصية الخاصة بهم، الأمر الذي قد يشعر البعض بالتطفل أو التلاعب.” وجهة نظره هي أن الشركات بحاجة إلى أن تكون أكثر شفافية، وليس أقل، في بيئة يوجد فيها الكثير من عدم الثقة والشك فيما يتعلق بالذكاء الاصطناعي. يجب على الشركات بما في ذلك Microsoft التأكيد على إلغاء الاشتراك الافتراضي بدلاً من الاشتراك، وقد توفر معلومات أكثر تفصيلاً وغير تقنية حول كيفية التعامل مع المحتوى الشخصي لأن الإدراك يمكن أن يصبح وقال: “حتى لو كانت التكنولوجيا آمنة تمامًا، فإن التصور العام يتشكل ليس فقط من خلال الحقائق، ولكن أيضًا من خلال المخاوف والافتراضات – خاصة في عصر الذكاء الاصطناعي حيث يشعر المستخدمون غالبًا بالعجز”. الإعدادات الافتراضية التي تتيح المشاركة منطقية بالنسبة للشركات لأسباب ولكنها ضارة بخصوصية المستهلك، وفقًا لجوكيم هاميل، الأستاذ المساعد لنظم المعلومات والإدارة في كلية وارويك للأعمال بجامعة وارويك في إنجلترا. فالشركات قادرة على تعزيز منتجاتها والحفاظ على قدرتها التنافسية من خلال مشاركة المزيد من البيانات كإجراء افتراضي، قال هامل. ومع ذلك، من وجهة نظر المستخدم، فإن إعطاء الأولوية للخصوصية من خلال اعتماد نموذج الاشتراك في مشاركة البيانات سيكون “نهجًا أكثر أخلاقية”، على حد قوله. وطالما أن الميزات الإضافية المقدمة من خلال جمع البيانات ليست ضرورية، يمكن للمستخدمين اختيار ما يتوافق بشكل أوثق مع اهتماماتهم. وقال هامل، إن هناك فوائد حقيقية للمقايضة الحالية بين الأدوات المعززة بالذكاء الاصطناعي والخصوصية، بناءً على ما يراه. رؤية في العمل الذي قدمه الطلاب. قال هامل إن الطلاب الذين نشأوا مع كاميرات الويب، ويبثون حياتهم في الوقت الفعلي على وسائل التواصل الاجتماعي، والتكنولوجيا الشاملة، غالبًا ما يكونون أقل اهتمامًا بالخصوصية، ويتبنون هذه الأدوات بحماس. وقال “طلابي، على سبيل المثال، يقومون بإنشاء عروض تقديمية أفضل من أي وقت مضى”. إدارة المخاطر في مجالات مثل قانون حقوق الطبع والنشر، كانت المخاوف بشأن النسخ الجماعي من قبل حاملي شهادة الماجستير في القانون مبالغًا فيها، وفقًا لكيفن سميث، مدير المكتبات في كلية كولبي، لكن تطور الذكاء الاصطناعي يتقاطع مع المخاوف الأساسية المتعلقة بالخصوصية. قال سميث: “إن ما أثير حول الذكاء الاصطناعي كان موجودًا بالفعل منذ سنوات؛ وقد أدى النشر السريع لنماذج لغوية كبيرة مدربة على الذكاء الاصطناعي إلى تركيز الاهتمام على بعض هذه القضايا”. وأضاف: “تتعلق المعلومات الشخصية بالعلاقات، لذا فإن خطر قيام نماذج الذكاء الاصطناعي بالكشف عن البيانات التي كانت أكثر أمانًا في نظام أكثر ثباتًا هو التغيير الحقيقي الذي نحتاجه لإيجاد طرق لإدارته”. تعد ميزات الذكاء الاصطناعي خيارًا مدفونًا في الإعدادات. على سبيل المثال، مع التجارب المتصلة، افتح مستندًا ثم انقر فوق “ملف” ثم انتقل إلى “الحساب” ثم ابحث عن إعدادات الخصوصية. بمجرد الوصول إلى هناك، انتقل إلى “إدارة الإعدادات” وانتقل لأسفل إلى التجارب المتصلة. انقر فوق المربع لإيقاف تشغيله. بمجرد القيام بذلك، تحذر Microsoft: “إذا قمت بإيقاف تشغيل هذا، فقد لا تكون بعض التجارب متاحة لك.” تقول Microsoft إن ترك الإعداد قيد التشغيل سيسمح بمزيد من الاتصالات والتعاون واقتراحات الذكاء الاصطناعي. في Gmail، يحتاج المرء إلى فتحه، والنقر فوق القائمة، ثم الانتقال إلى الإعدادات، ثم النقر فوق الحساب الذي تريد تغييره، ثم التمرير إلى القسم “عام” وقم بإلغاء تحديد المربعات بجوار “الميزات الذكية” وخيارات التخصيص المتنوعة. كما قالها بائع الأمن السيبراني Malwarebytes منشور مدونة حول ميزة Microsoft: “قد يؤدي إيقاف تشغيل هذا الخيار إلى فقدان بعض الوظائف إذا كنت تعمل على نفس المستند مع أشخاص آخرين في مؤسستك. … إذا كنت تريد إيقاف تشغيل هذه الإعدادات لأسباب تتعلق بالخصوصية ولا تستخدمها على أية حال، يمكنك القيام بذلك بكل الوسائل، ويمكن العثور على جميع الإعدادات ضمن إعدادات الخصوصية لسبب ما، ولكن لم أجد في أي مكان أي إشارة إلى استخدام هذه التجارب المتصلة لتدريب نماذج الذكاء الاصطناعي. ، وربما يكون معرفة المزيد حول ما وافقت عليه خيارًا جيدًا، يقول بعض الخبراء أنه لا ينبغي أن يقع على عاتق المستهلك مسؤولية إلغاء تنشيط هذه الإعدادات. وقال ويس تشار، خبير خصوصية البيانات: “عندما تنفذ الشركات ميزات مثل هذه، فإنها غالبًا ما تقدمها على أنها اختيارات للوظائف المحسنة، لكن المستخدمين قد لا يفهمون تمامًا نطاق ما يوافقون عليه”. وقال تشار: “تكمن المشكلة في الإفصاحات الغامضة والافتقار إلى التواصل الواضح حول ما يستلزمه “المتصلون” ومدى عمق تحليل المحتوى الشخصي الخاص بهم أو تخزينه”. “بالنسبة لأولئك الذين هم خارج نطاق التكنولوجيا، قد يكون الأمر أشبه بدعوة مساعد مفيد إلى منزلك، ليكتشفوا لاحقًا أنهم قاموا بتدوين ملاحظات حول محادثاتك الخاصة للحصول على دليل تدريبي.” إلى البيانات يسلط الضوء على الخلل في النظام البيئي الرقمي الحالي. وقال تشار: “بدون أنظمة قوية تعطي الأولوية لموافقة المستخدم وتوفر التحكم، يصبح الأفراد عرضة لإعادة استخدام بياناتهم بطرق لم يتوقعوها أو يستفيدوا منها”. (العلامات للترجمة) الذكاء الاصطناعي التوليدي(ر) الذكاء الاصطناعي(ر)الخصوصية(ر)قوانين وتنظيم الخصوصية(ر)خصوصية البيانات(ر)الأمن السيبراني(ر)التكنولوجيا(ر)قمع زيفر(ر)أخبار الأعمال

المصدر

ترك الرد

من فضلك ادخل تعليقك
من فضلك ادخل اسمك هنا

CAPTCHA


إقرأ أيضاً

يصل دعم Nest Protect إلى تطبيق Google Home

يصل دعم Nest Protect إلى تطبيق Google Home إدارة رمز المرور: ستتمكن من إدارة من يمكنه الوصول إلى منزلك من خلال مشاركة رموز المرور...

يتحدث آدم سكوت عن استخدام أجهزة كمبيوتر Severance الغريبة ذات الطراز الرجعية

يتحدث آدم سكوت عن استخدام أجهزة كمبيوتر Severance الغريبة ذات الطراز الرجعية الكثير من الفراق - فيلم الخيال العلمي المثير في مكان العمل على...

زوكربيرج سيستضيف حفل تنصيب ترامب

زوكربيرج سيستضيف حفل تنصيب ترامب يبدو أن مارك زوكربيرج، الرئيس التنفيذي لشركة ميتا، الذي حاول الابتعاد عن السياسة، يبدو دافئًا تجاه الرئيس المنتخب دونالد...