تكتشف بي بي سي أن بوتات تشوهات منظمة العفو الدولية هي قصص إخبارية تشوه
تكافح AI chatbots مع عدم دقة الواقعية والتشوهات عند تلخيص القصص الإخبارية ، البحث من بي بي سي وجد. إن الدراسة ، التي درست ما إذا كانت chatgpt من Openai و Google Gemini و Microsoft Copilot و Perplexity يمكن أن تلخص بدقة الأخبار ، والتي وجدت أكثر من نصف جميع الإنتاج الذي تم إنشاؤه من الذكاء الاصطناعى “قضايا مهمة من بعض الأشكال”. كجزء من الدراسة، طلبت هيئة الإذاعة البريطانية من ChatGPT و Copilot و Gemini و Perplexity تقديم ملخصات من 100 مقالة أخبار بي بي سي ، بينما استعرض الصحفيون إجاباتهم. بالإضافة إلى إيجاد مشكلات رئيسية في 51 في المائة من الردود ، وجدت بي بي سي أن 19 في المائة من الإجابات التي تشير إلى بي بي سي تضمنت عبارات وأرقام وتواريخ غير صحيحة. وفي الوقت نفسه ، تم تغيير 13 في المائة من عروض الأسعار من بي بي سي “إما عن المصدر الأصلي أو غير موجود في المقالة المذكورة.” سلطت الدراسة الضوء على بعض الأمثلة ، بما في ذلك الجوزاء تشير بشكل غير صحيح إلى أن الخدمات الصحية الوطنية في المملكة المتحدة “تنصح الناس بعدم ابدأ vaping ، ويوصي بأن يستخدم المدخنون الذين يرغبون في الإقلاع عنهم طرقًا أخرى. ” لكن، يوصي NHS بالفعل vaping للإقلاع عن التدخين. مثال آخر: في ديسمبر 2024 ، ادعى Chatgpt أن إسماعيل هانيه كان جزءًا من قيادة حماس على الرغم من أنه تم اغتياله في يوليو 2024. دقة.” وصلت Verge إلى Openai و Google و Microsoft و Perplexity مع طلبات التعليق ولكنها لم تسمع على الفور. استجابة للدراسةدعا ديبورا تونس ، الرئيس التنفيذي لشركة بي بي سي نيوز والشؤون الجارية ، شركات التكنولوجيا إلى معالجة القضايا المتعلقة بعدم الدقة. “نحن نعيش في أوقات مضطربة ، وكم من الوقت سيستغرق قبل عنوان AI الذي تم الإيلاء من الذكاء الاصطناعي يسبب ضررًا كبيرًا في العالم الحقيقي؟” كتب تنيس. “نود أن تسمع شركات التكنولوجيا الأخرى مخاوفنا ، تمامًا كما فعلت Apple. لقد حان الوقت لكي نعمل معًا – صناعة الأخبار ، وشركات التكنولوجيا – وبالطبع تلعب الحكومة أيضًا دورًا كبيرًا في اللعب هنا. ” (tagstotranslate) AI
المصدر