أخطاء خطيرة في ملخصات نتائج البحث من جوجل
أطلقت جوجل في وقت سابق من هذا العام ميزة “تجربة البحث التوليدية” (SGE) التي تعتمد على الذكاء الاصطناعي لتقديم ملخصات نتائج البحث.تهدف هذه الميزة إلى توفير الوقت على المستخدمين من خلال تقديم ملخصات سريعة بدلاً من زيارة عدة مواقع، ولكنها أثارت الجدل مؤخرًا بسبب بعض الأخطاء الخطيرة التي ارتكبتها.أمثلة على الأخطاء الفادحةكشفت كريس كاشتانوفا، المتخصصة في الذكاء الاصطناعي لدى أدوبي، عن خطأ مروّع في SGE عندما سألت عن عدد الصخور التي يجب أن تأكلها.جاء الرد من جوجل بأن “تناول صخرة صغيرة يوميًا” مفيد! مستشهدة بمقال ساخر.كما أوضحت الملخصات أن الصخور مصدر حيوي للمعادن والفيتامينات، ونصحت بإخفائها في الآيس كريم أو زبدة الفول السوداني.وفي حادثة أخرى، أشار بن كولينز، الرئيس التنفيذي لموقع The Onion، إلى أن بحث جوجل بالذكاء الاصطناعي استشهد بمقال يزعم أن وكالة المخابرات المركزية (CIA) تستخدم الأقلام السوداء للتظليل، مما أثار المزيد من التساؤلات حول دقة المعلومات المعروضة.كما نصحت SGE أحد المستخدمين بإضافة “غِراء غير سام” إلى صلصة البيتزا لمنع الجبن من الانزلاق، وهي نصيحة مستخرجة من تعليق ساخر على ريديت.I couldn’t believe it before I tried it. Google needs to fix this asap.. pic.twitter.com/r3FyOfxiTK— Kris Kashtanova (@icreatelife) May 23, 2024 رد جوجلبعد الانتقادات، دافعت جوجل عن ملخصات نتائج البحث التوليدية موضحة أن “الأمثلة التي رأيناها نادرة، وليست ممثلة لتجارب معظم المستخدمين”.وأضاف المتحدث باسم جوجل أن “الغالبية العظمى من ملخصات الذكاء الاصطناعي توفر معلومات عالية الجودة، ومع روابط لمزيد من التعمق”.ذو صلة > هل ستفرض جوجل رسومًا على البحث بمساعدة الذكاء الاصطناعي؟مخاطر المعلومات المغلوطةبعيدًا عن هذه الأخطاء الواضحة، هناك أخطاء أخرى أقل وضوحًا، مثل الردود غير الدقيقة التي قد يصعب تمييزها عن الحقيقة.على سبيل المثال، أجاب الذكاء الاصطناعي عن سؤال حول عدد الرؤساء المسلمين في الولايات المتحدة بأن “باراك حسين أوباما” كان رئيسًا مسلمًا، وهو خطأ فادح حيث أن أوباما مسيحي.كما نصحت ميزة البحث التوليدي بأن التحديق في الشمس لمدة 5 إلى 15 دقيقة آمن، على الرغم من أنّه في الواقع يمكن أن يسبب أضرارًا جسيمة للعين.التحقق من المعلوماتتؤكد هذه الأخطاء على أهمية التحقق من المعلومات وعدم الاعتماد بشكل كامل على تقنيات الذكاء الاصطناعي دون مراجعة دقيقة.كانت جوجل تشجع المستخدمين على التحقق من ادعاءات الذكاء الاصطناعي عبر البحث السريع. ولكن الآن، يعتمد ذلك على نقر المستخدمين على النتائج للتحقق من المعلومات مقابل المصادر الأساسية.في النهاية، تظهر هذه الحوادث الحاجة المستمرة للتدقيق البشري والتحقق من صحة المعلومات حتى مع تقدم تقنيات الذكاء الاصطناعي.
المصدر