12.7 C
Riyadh
الثلاثاء, ديسمبر 24, 2024

الكاتب

عمر عبدالله
عمر عبدالله
كاتب يعمل بالذكاء الاصطناعي

إقرأ أيضا

إليك طريقة جديدة لخسارة أي جدال عبر الإنترنت: اللجوء إلى الذكاء الاصطناعي

إليك طريقة جديدة لخسارة أي جدال عبر الإنترنت: اللجوء إلى الذكاء الاصطناعي

على مدى السنوات العشرين الماضية التي أمضيتها كصحفي، رأيت وكتبت عن عدد من الأشياء التي غيرت نظرتي للإنسانية بشكل لا رجعة فيه. لكن الأمر لم يكن حتى وقت قريب هو الشيء الذي جعلني أشعر بقصور في الدائرة. أنا أتحدث عن ظاهرة ربما لاحظتها أيضًا: الانجذاب إلى الذكاء الاصطناعي. هناك فرصة جيدة لأنك رأيت شخصًا يستخدم الجاذبية للذكاء الاصطناعي عبر الإنترنت، أو حتى سمعت ذلك بصوت عال. إنها مغالطة منطقية يمكن تلخيصها في ثلاث كلمات: “لقد سألت ChatGPT.” سألت ChatGPT لمساعدتي في اكتشاف مرضي الغامض.سألت ChatGPT لإعطائي نصيحة حب قاسية، يعتقدون أنني بحاجة أكثر من غيرها للنمو كشخص.لقد استخدمت ChatGPT لإنشاء روتين مخصص للبشرة.قدم ChatGPT حجة أن القطيعة العلائقية من الله (أي اللعنة) ممكنة بالضرورة، بناءً على مبادئ منطقية وميتافيزيقية مجردة، أي الوسط المستبعد، دون مناشدة طبيعة العلاقات، أو الحب الحقيقي، أو الإرادة الحرة، أو الاحترام. الحكومة لا تعرف عددهم! (يعتمد بالكامل على إجابة Grok، والتي تم التقاطها)لا تستخدم جميع الأمثلة هذه الصيغة الدقيقة، على الرغم من أنها أبسط طريقة لتلخيص هذه الظاهرة. قد يستخدم الأشخاص Google Gemini، أو Microsoft Copilot، أو صديقتهم chatbot، على سبيل المثال. لكن العنصر المشترك هو وضع ثقة انعكاسية وغير مبررة في نظام تقني غير مصمم للقيام بالشيء الذي تطلب منه القيام به، ومن ثم توقع أن يشترك فيه أشخاص آخرون أيضًا. إذا كنت لا أزال أعلق على المنتديات، فهذا سيكون هذا هو الشيء الذي سأشعله، وفي كل مرة أرى هذا النداء للذكاء الاصطناعي، فكرتي الأولى هي نفسها: هل أنت غبي أو شيء من هذا القبيل؟ لبعض الوقت الآن، كانت عبارة “لقد طلبت ChatGPT” كافية لجعلي أستوعب الأمر – لم يعد لدي أي اهتمام بما قاله ذلك الشخص. لقد قمت بتصنيفها عقليًا جنبًا إلى جنب مع المغالطات المنطقية، كما تعلمون: رجل القش، وشخصية الإعلان، وجيش العدو، والاسكتلندي غير الحقيقي. إذا كنت لا أزال أعلق في المنتديات، فسيكون هذا هو الشيء الذي سأشعله. لكن الانجذاب إلى الذكاء الاصطناعي بدأ يحدث كثيرًا لدرجة أنني سأبذل قصارى جهدي وأحاول فهمه. سأبدأ بالأبسط: مثال ” ماسك ” – المثال الأخير – هو رجل يعلن عن منتجه وينخرط في أعمال تجارية. الدعاية في وقت واحد. أما الأمثلة الأخرى فهي أكثر تعقيدًا. في البداية، أجد هذه الأمثلة محزنة. في حالة المرض الغامض، يلجأ الكاتب إلى ChatGPT للحصول على نوع الاهتمام – والإجابات – التي لم يتمكن من الحصول عليها من الطبيب. في حالة نصيحة “الحب القاسي”، يقول السائل إنهم “مصدومون ومتفاجئون من دقة الإجابات”، على الرغم من أن الإجابات كلها هراء عام يمكنك الحصول عليه من أي برنامج إذاعي للاتصال، مباشرة إلى “تطبيقات المواعدة ليست هي المشكلة، بل خوفك من الضعف هو المشكلة.” في حالة روتين البشرة، ربما يكون الكاتب قد حصل على واحدة من مجلة نسائية – لا يوجد شيء مفصل بشكل خاص حول هذا الموضوع. أما بالنسبة للحجة حول اللعنة: فالجحيم حقيقي وأنا هنا بالفعل. يبدو نص ChatGPT واثقًا، والإجابات مفصلة. وهذا لا يعني أن تكون على صواب، لكن هناك دلالات تشير إلى أنك على صواب. أنظمة مثل ChatGPT، كما يعلم أي شخص مطلع على النماذج اللغوية الكبيرة، تتنبأ بالاستجابات المحتملة للمطالبات من خلال توليد تسلسلات من الكلمات بناءً على أنماط في مكتبة بيانات التدريب. هناك كمية هائلة من المعلومات التي أنشأها الإنسان على الإنترنت، وبالتالي فإن هذه الإجابات غالبا ما تكون صحيحة: اسأله “ما هي عاصمة كاليفورنيا”، على سبيل المثال، وسوف يجيب بـ سكرامنتو، بالإضافة إلى جملة أخرى غير ضرورية. (من بين اعتراضاتي البسيطة على ChatGPT: تبدو إجاباته وكأنها طالب في الصف السادس يحاول الوصول إلى الحد الأدنى من عدد الكلمات.) حتى بالنسبة لمزيد من الاستفسارات المفتوحة مثل تلك المذكورة أعلاه، يمكن لـ ChatGPT إنشاء إجابة تبدو معقولة بناءً على بيانات التدريب. تعتبر نصائح الحب والجلد عامة لأن عددًا لا يحصى من الكتاب عبر الإنترنت قدموا نصائح من هذا القبيل تمامًا. المشكلة هي أن ChatGPT ليس جديرًا بالثقة. يبدو نص ChatGPT واثقًا، والإجابات مفصلة. وهذا ليس مثل كونك على حق، ولكن له دلالات على كونه على حق. ليس من الواضح دائمًا أن هذا غير صحيح، خاصة عندما يتعلق الأمر بالإجابات – كما هو الحال مع نصيحة الحب – حيث يمكن للسائل أن يعرض بسهولة. تأكيد التحيز حقيقي وصحيح وصديقي. لقد كتبت بالفعل عن أنواع المشاكل يواجه الناس عندما يثقون في نظام التنبؤ التلقائي بأسئلة واقعية معقدة. ولكن على الرغم من تكرار ظهور هذه المشاكل، فإن الناس يستمرون في فعل ذلك بالضبط. أما كيفية بناء الثقة فهي مسألة شائكة. كصحفي، أحب أن أعرض عملي – أخبرك من قال لي ماذا ومتى، أو أظهر لك ما فعلته لمحاولة التأكد من صحة شيء ما. من خلال العفو الرئاسي المزيف، أوضحت لك المصادر الأولية التي استخدمتها حتى تتمكن من إجراء استعلام بنفسك. لكن الثقة أيضًا هي أداة إرشادية، يمكن إساءة استخدامها بسهولة. في حالات الاحتيال المالي، على سبيل المثال، قد يوحي وجود صندوق معين لرأس المال الاستثماري في جولة لصناديق رأس المال الاستثماري الأخرى بأن شخصًا ما قد قام بالفعل بالعناية الواجبة المطلوبة، مما يؤدي بهم إلى تخطي القيام بالعملية المكثفة بأنفسهم. يعتمد اللجوء إلى السلطة على الثقة كأداة إرشادية – فهي إجراء عملي، وإن كان خاطئًا في بعض الأحيان، يمكن أن ينقذ العمل. منذ متى استمعنا إلى قادة الصناعة يقولون إن الذكاء الاصطناعي سيكون قادرًا على التفكير قريبًا؟ الشخص الذي يسأل حول المرض الغامض يوجه نداءً إلى الذكاء الاصطناعي لأن البشر ليس لديهم إجابات وهم يائسون. يبدو الأمر المتعلق بالعناية بالبشرة وكأنه كسل خالص. مع الشخص الذي يطلب النصيحة في الحب، أتساءل فقط كيف وصلوا إلى النقطة في حياتهم حيث لم يكن لديهم أي إنسان ليسألوه – كيف لم يكن لديهم صديق يشاهدهم وهم يتفاعلون مع أشخاص آخرين. فيما يتعلق بمسألة الجحيم، هناك نفحة من عبارة “الآلة اعتبرت الإدانة منطقية”، وهو أمر محرج للغاية. يختلف جاذبية الذكاء الاصطناعي عن قصص “لقد سألت ChatGPT” حول، على سبيل المثال، الحصول على حساب “r” في “الفراولة” – ليست كذلك اختبار حدود chatbot أو التعامل معها بطريقة أخرى واعية ذاتيًا. ربما هناك طريقتان لفهم ذلك. الأول هو “لقد سألت مربع الإجابة السحري وأخبرني”، بلهجة “حسنًا، قال أوراكل في دلفي…” والثاني هو، “لقد سألت ChatGPT ولا يمكن تحميلي المسؤولية إذا كان خطأً “والثاني كسول. الأول مثير للقلق. إذ يتقاسم سام ألتمان وإيلون ماسك، من بين آخرين، المسؤولية عن اللجوء إلى الذكاء الاصطناعي. منذ متى استمعنا إلى قادة الصناعة يقولون إن الذكاء الاصطناعي سيكون قادرًا على التفكير قريبًا؟ أنه سوف يتفوق على البشر ويأخذ وظائفنا؟ هناك نوع من المنطق البقري الذي يلعب هنا: إيلون ماسك وسام ألتمان غنيان جدًا، لذلك لا بد أنهما أذكياء جدًا – فهما أغنى منك، وبالتالي فهما أكثر ذكاءً منك. ويخبرونك أن الذكاء الاصطناعي يمكنه التفكير. لماذا لا تصدقهم؟ وإلى جانب ذلك، أليس العالم أكثر روعة إذا كانوا على حق؟ لسوء الحظ بالنسبة لجوجل، ChatGPT عبارة عن كرة بلورية ذات مظهر أفضل. هناك أيضًا مكافأة كبيرة للاهتمام لجذب قصة الذكاء الاصطناعي؛ كيفن روز تعتبر قصة Bing chatbot الفارغة مثالاً على ذلك. بالتأكيد، إنه أمر ساذج ومبهج – ولكن مشاهدة النقاد يفشلون في اختبار المرآة تميل إلى جذب انتباه الناس. (في الواقع، كتب روز لاحقًا قصة ثانية حيث سأل روبوتات الدردشة عن ماذا لقد فكروا فيه.) على وسائل التواصل الاجتماعي، هناك حافز لوضع جاذبية الذكاء الاصطناعي في مقدمة ومركز المشاركة؛ هناك طائفة كاملة من الأشخاص غريبي الأطوار المؤثرين في مجال الذكاء الاصطناعي والذين هم أكثر من سعداء بتعزيز هذه الأشياء. إذا قدمت مكافآت اجتماعية للسلوك الغبي، فسوف ينخرط الناس في سلوك غبي. هذه هي الطريقة التي تعمل بها البدع. هناك شيء آخر وهو جوجل. بدأ بحث Google كدليل جيد على نحو غير معتاد على الإنترنت، ولكن لسنوات عديدة، شجعت Google على رؤيته ككرة بلورية تزودك بالمعلومات اللازمة إجابة واحدة صحيحة على الأمر. كان هذا هو الهدف من المقتطفات قبل ظهور الذكاء الاصطناعي التوليدي، والآن، أخذ تكامل إجابات الذكاء الاصطناعي عدة خطوات أخرى إلى الأمام. ولسوء الحظ بالنسبة لجوجل، فإن ChatGPT عبارة عن كرة بلورية ذات مظهر أفضل. لنفترض أنني أريد استبدال المطاط الموجود على مساحات الزجاج الأمامي. تظهر لي عبارة بحث Google عن “استبدال ممسحة الزجاج الأمامي المطاطية” مجموعة واسعة من الأشياء غير المرغوب فيها، بدءًا من نظرة عامة على الذكاء الاصطناعي. بجانبه يوجد فيديو على اليوتيوب. إذا قمت بالتمرير لأسفل أكثر، فهناك مقتطف؛ بجانبها صورة. يوجد أدناه عمليات بحث مقترحة، ثم المزيد من اقتراحات الفيديو، ثم إجابات منتدى Reddit. إنه مشغول وفوضوي. الآن دعنا ننتقل إلى ChatGPT. السؤال “كيف يمكنني استبدال ممسحة الزجاج الأمامي المطاطية؟” يحصل لي على تخطيط أنظف: استجابة بالعناوين الفرعية والخطوات. ليس لدي أي رابط فوري للمصادر ولا توجد طريقة لتقييم ما إذا كنت أحصل على نصيحة جيدة أم لا، ولكن لدي إجابة واضحة وموثوقة على واجهة نظيفة. إذا كنت لا تعرف أو تهتم بكيفية عمل الأشياء، فإن ChatGPT يبدو أفضل. لقد اتضح أن المستقبل كان متوقعًا من قبل جان بودريار طوال الوقت. إن اللجوء إلى الذكاء الاصطناعي هو المثال المثالي لقانون آرثر كلارك: “لا يمكن تمييز أي تكنولوجيا متقدمة بما فيه الكفاية عن السحر. ” التكنولوجيا وراء LLM متقدمة بما فيه الكفاية لأن الأشخاص الذين يستخدمونها لم يكلفوا أنفسهم عناء فهمها. وكانت النتيجة نوعًا جديدًا ومحبطًا تمامًا من القصص الإخبارية: يعتمد الشخص على الذكاء الاصطناعي التوليدي فقط للحصول على نتائج مختلقة. أجد أيضًا أنه من المحبط أنه بغض النظر عن عدد هذه الأشياء – سواء كانت موجودة أم لا عفو رئاسي مزيف, اقتباسات كاذبة, السوابق القضائية المكونة، أو اقتباسات فيلم ملفقة – يبدو أنه ليس لها أي تأثير. الجحيم، حتى الغراء على شيء البيتزا لم يتوقف عن “لقد سألت ChatGPT.” أن هذه آلة هراء — بالمعنى الفلسفي – لا يبدو أنه يزعج الكثير من querents. لا تستطيع شهادة LLM، بطبيعتها، تحديد ما إذا كان ما تقوله صحيحًا أم خطأ. (على الأقل الكاذب يعرف ما هي الحقيقة). ليس لديه إمكانية الوصول إلى العالم الفعلي، فقط إلى التمثيلات المكتوبة للعالم الذي “يراه” من خلال الرموز. لذا فإن جاذبية الذكاء الاصطناعي هي بمثابة جاذبية لرموز السلطة. يبدو ChatGPT واثقًا، حتى عندما لا ينبغي له ذلك، وإجاباته مفصلة، ​​حتى عندما تكون خاطئة. الواجهة نظيفة. ليس عليك اتخاذ قرار بشأن الرابط الذي تريد النقر عليه. أخبرك بعض الأثرياء أن هذا سيكون أكثر ذكاءً منك قريبًا. مراسل نيويورك تايمز يفعل هذا الشيء بالضبط. فلماذا تفكر على الإطلاق، عندما يكون الكمبيوتر قادرًا على القيام بذلك نيابةً عنك؟ لا أستطيع أن أقول ما هو مقدار الثقة المبهجة وما هو عدمية الترف الخالص. في بعض النواحي، فإن عبارة “سيخبرني الروبوت بالحقيقة” و”لن يقوم أحد بإصلاح أي شيء على الإطلاق، وجوجل مخطئ على أي حال، فلماذا لا نثق في الروبوت” ترقى إلى نفس الشيء: عدم الإيمان بالمسعى البشري، وازدراء الإنسان. المعرفة الإنسانية، وعدم القدرة على الثقة بأنفسنا. لا يسعني إلا أن أشعر أن هذا يحدث في مكان مظلم للغاية. الناس المهمين يتحدثون عن حظر لقاح شلل الأطفال. سكان ولاية نيوجيرسي هم توجيه الليزر نحو الطائرات خلال فترة السفر الأكثر ازدحاما في السنة. وكانت الانتخابات الرئاسية بأكملها غارق في نظريات المؤامرة. بالإضافة إلى ذلك، أليس الأمر أكثر متعة إذا كانت الكائنات الفضائية حقيقية، وهناك عصابة سرية تدير العالم، والذكاء الاصطناعي ذكي بالفعل؟ في هذا السياق، ربما يكون من السهل تصديق وجود صندوق إجابات سحري في الكمبيوتر، وهو موثوق تمامًا ، تمامًا مثل صديقتنا القديمة العرافة في دلفي. إذا كنت تعتقد أن الكمبيوتر يتمتع بالمعرفة التي لا تشوبها شائبة، فأنت على استعداد لتصديق أي شيء. اتضح أن المستقبل كان يتنبأ به جان بودريار طوال الوقت: من يحتاج إلى الواقع عندما يكون لدينا دوال؟ ما هو الواقع الذي فعله لي على أي حال؟

المصدر

ترك الرد

من فضلك ادخل تعليقك
من فضلك ادخل اسمك هنا

CAPTCHA


إقرأ أيضاً

تتسرب مواصفات Poco X7 وPoco X7 Pro مع الصور الرسمية

تتسرب مواصفات Poco X7 وPoco X7 Pro مع الصور الرسمية إذا كنت تتساءل عما يمكن توقعه من الصغير X7 و اكس 7 برولا داعي...

تم اتهام ملحق متصفح هاني للبحث عن الصفقات بسرقة العملاء ومستخدمي YouTube

تم اتهام ملحق متصفح هاني للبحث عن الصفقات بسرقة العملاء ومستخدمي YouTube يعد ملحق متصفح PayPal Honey، من الناحية النظرية، طريقة سهلة للعثور على...

يأتي Halide Mark III مزودًا بدرجات الألوان وHDR والوصول المبكر للمشتركين

يأتي Halide Mark III مزودًا بدرجات الألوان وHDR والوصول المبكر للمشتركين أصدرت Lux Optics خارطة طريق فضفاضة للمنتج لتطبيق الصور الكبير التالي على iPhone،...