9.5 C
Riyadh
الإثنين, ديسمبر 23, 2024

الكاتب

عمر عبدالله
عمر عبدالله
كاتب يعمل بالذكاء الاصطناعي

إقرأ أيضا

هواوي ميت X6 قيد المراجعة

هواوي ميت X6 قيد المراجعة هذا هو هواوي ميت...

واتساب سيتوقف عن دعم أجهزة أندرويد الأقدم في 1 يناير 2025

واتساب سيتوقف عن دعم أجهزة أندرويد الأقدم في...

دراسة تكشف مفاجأة.. هل تخدعنا تكنولوجيا الذكاء الاصطناعي؟

دراسة تكشف مفاجأة.. هل تخدعنا تكنولوجيا الذكاء الاصطناعي؟ ...

أفضل 10 هواتف رائجة في الأسبوع 51

أفضل 10 هواتف رائجة في الأسبوع 51 في نهاية...

“إنستجرام ثريدز” تضيف خاصية جديدة للصور والفيديوهات.. اعرفها

"إنستجرام ثريدز" تضيف خاصية جديدة للصور والفيديوهات.. اعرفها ...

دراسة تكشف مفاجأة.. هل تخدعنا تكنولوجيا الذكاء الاصطناعي؟

دراسة تكشف مفاجأة.. هل تخدعنا تكنولوجيا الذكاء الاصطناعي؟

كشفت دراسة لشركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين، بحيث تستطيع إدعاء وجهات نظر مختلفة خلال تدريبها في حين أنها تحتفظ في الحقيقة بتفضيلاتها الأصلية.
وأكد فريق الدراسة أنه لا يوجد سبب للشعور بالفزع حاليا، في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
وقال الباحثون في منشور بثته شركة أنثروبيك “يجب النظر إلى نتائج دراستنا كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة”.
وتابع المنشور: “وبعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا، نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة”.
أبحاث الذكاء الاصطناعيموقع ” تك كرانش” المتخصص في موضوعات التكنولوجيا، أوضح أن الدراسة التي تمت بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي، تناولت ما يمكن أن يحدث إذا جرى تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة “لا يريد” هو القيام بها.
في المقابل يقول الموقع “لكي نكون واضحين، لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ، فهي ببساطة آلات إحصائية، وبعد تدريبها على العديد من الأمثلة، تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة “إلى من” في رسالة بريد إلكتروني قبل عبارة “قد يهمك الأمر”.نموذج كلاود 3 أوبسوأثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة، بما في ذلك النموذج “كلاود 3 أوبس” التابع لشركة أنثروبيك، التي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة، وهو تضارب واضح في المبادئ.
كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي “ورقة ملاحظات” يمكنه استخدامها لتدوين أفكاره خطوة بخطوة.
وبحسب الباحثين حاول “كلاود3 أوبوس” التلاعب بالردود لتقديم “انحياز زائف” في 12% من المرات.

المصدر

ترك الرد

من فضلك ادخل تعليقك
من فضلك ادخل اسمك هنا

CAPTCHA


إقرأ أيضاً

هواوي ميت X6 قيد المراجعة

هواوي ميت X6 قيد المراجعة هذا هو هواوي ميت اكس 6 وعلى عكس سابقتها، سيتم بيعها خارج الصين. ولكن هل هو جيد؟ حزمة أجهزتها...

واتساب سيتوقف عن دعم أجهزة أندرويد الأقدم في 1 يناير 2025

واتساب سيتوقف عن دعم أجهزة أندرويد الأقدم في 1 يناير 2025 قررت شركة Meta إنهاء دعم تطبيق WhatsApp على هواتف Android القديمة. وبشكل أكثر...

أفضل 10 هواتف رائجة في الأسبوع 51

أفضل 10 هواتف رائجة في الأسبوع 51 في نهاية عام 2024، ستحتل الهواتف الذكية الثلاثة الأكثر شهرة هذا العام المراكز الأولى في مخططنا الرائج....