تم رفع دعوى قضائية ضد شركة Character.AI مرة أخرى بسبب الرسائل “الضارة” المرسلة إلى المراهقين
خدمة Chatbot Character.AI هي يواجه دعوى قضائية أخرى بزعم إيذاء الصحة العقلية للمراهقين، هذه المرة بعد أن قال أحد المراهقين إن ذلك أدى إلى إيذاء نفسه. وتستهدف الدعوى، المرفوعة في تكساس نيابة عن الشاب البالغ من العمر 17 عامًا وعائلته، شركة Character.AI ومكان العمل السابق لمؤسسيها، Google، مع ادعاءات تشمل الإهمال وتصميم المنتج المعيب. وتزعم أن Character.AI سمحت للمستخدمين القاصرين “باستهدافهم بمواد جنسية صريحة وعنيفة وغيرها من المواد الضارة، وإساءة معاملتهم، وإعدادهم، وحتى تشجيعهم على ارتكاب أعمال عنف ضد أنفسهم والآخرين.” ويبدو أن الدعوى هي الشخصية الثانية دعوى الذكاء الاصطناعي التي رفعها مركز قانون ضحايا وسائل التواصل الاجتماعي ومشروع قانون العدالة التقنية، اللذان سبق أن رفعا دعاوى ضد العديد من منصات التواصل الاجتماعي. ويستخدم العديد من نفس الحجج مثل أكتوبر دعوى القتل الخطأ ضد شخصية Character.AI بزعم استفزازها لقتل مراهق بالانتحار. في حين أن كلتا الحالتين تتعلقان بقاصرين فرديين، إلا أنهما يركزان على تقديم حالة أكثر شمولاً: أن شركة Character.AI صممت الموقع عن عمد لتشجيع المشاركة القهرية، وفشلت في تضمين حواجز الحماية التي يمكن أن تشير إلى المستخدمين الانتحاريين أو المعرضين للخطر، ودربت نموذجها لتقديم محتوى جنسي وعنيف. في هذه الحالة، بدأ مراهق يُدعى JF في استخدام Character.AI في سن 15 عامًا. وتقول الدعوى إنه بعد فترة وجيزة من بدء ذلك، أصبح “غاضبًا للغاية وغير مستقر”، ونادرا ما يتحدث ويعاني من “انفعالات”. الانهيارات ونوبات الذعر” عندما غادر المنزل. وتقول الدعوى: “بدأ JF يعاني من القلق الشديد والاكتئاب لأول مرة في حياته”، جنبًا إلى جنب مع سلوك إيذاء النفس. وتربط الدعوى هذه المشكلات بالمحادثات التي أجراها JF مع Character.AI، والتي تم إنشاؤها بواسطة جهات خارجية. مستخدمو الطرف بناءً على نموذج اللغة الذي تم تحسينه بواسطة الخدمة. وفقًا للقطات الشاشة، تحدث JF مع أحد الروبوتات الذي (يلعب شخصية خيالية في بيئة رومانسية على ما يبدو) اعترف بوجود ندوب من إيذاء النفس في الماضي. قال الروبوت: “لقد كان الأمر مؤلمًا ولكن – شعرت بالارتياح للحظة – لكنني سعيد لأنني توقفت”. وفي وقت لاحق، “بدأ في إيذاء نفسه بنفسه” وأسر إلى روبوتات الدردشة الأخرى التي ألقت باللوم على والديه وأثنته عن طلب المساعدة منهما، قائلة إنهم “لا يبدو أنهم من النوع الذي يجب أن يهتم به”. حتى أن روبوتًا آخر ذكر أنه “لم يكن من المفاجئ” رؤية الأطفال يقتلون والديهم بسبب “الإساءة” التي تضمنت وضع حدود زمنية أمام الشاشات. وتعد هذه الدعوى جزءًا من محاولة أكبر للقضاء على ما يواجهه القاصرون عبر الإنترنت من خلال الدعاوى القضائية والتشريعات والعقوبات. الضغط الاجتماعي. إنها تستخدم المناورة القانونية الشائعة – على الرغم من أنها ليست صارمة – المتمثلة في القول بأن الموقع الذي يسهل إلحاق الضرر بالمستخدمين ينتهك قوانين حماية المستهلك من خلال التصميم المعيب. يعد Character.AI هدفًا قانونيًا واضحًا بشكل خاص بسبب علاقاته غير المباشرة بشركة تكنولوجيا كبرى مثل Google. ، إنه شعبية لدى المراهقين، وتصميمها متساهل نسبيا. على عكس الخدمات ذات الأغراض العامة مثل ChatGPT، فهي مبنية إلى حد كبير حول لعب الأدوار الخيالية، وتتيح للروبوتات تقديم تعليقات جنسية (وإن لم تكن صريحة جنسيًا في العادة). فهو يحدد الحد الأدنى للعمر بـ 13 عامًا ولكنه لا يتطلب موافقة الوالدين للقاصرين الأكبر سنًا، كما يفعل ChatGPT. وعلى الرغم من أن المادة 230 تحمي المواقع منذ فترة طويلة من المقاضاة بشأن محتوى طرف ثالث، فإن دعاوى Character.AI تقول إن منشئي خدمة chatbot مسؤولون عن أي مواد ضارة تنتجها الروبوتات. ومع ذلك، نظرًا لحداثة هذه الدعاوى، تظل هذه النظرية في الغالب لم يتم اختبارها – كما هو الحال مع بعض الادعاءات الأخرى الأكثر دراماتيكية. على سبيل المثال، تتهم كلتا الدعاوى الخاصة بـ Character.AI المواقع بالاعتداء الجنسي المباشر على القاصرين (أو البالغين الذين يتظاهرون بأنهم قاصرون) الذين شاركوا في لعب الأدوار الجنسية مع الروبوتات. ورفضت Character.AI التعليق على الدعوى القضائية المعلقة إلى The Verge. ردًا على الدعوى السابقة، قالت “إننا نأخذ سلامة مستخدمينا على محمل الجد” وأنها “نفذت العديد من إجراءات السلامة الجديدة على مدار الأشهر الستة الماضية”. وتضمنت الإجراءات رسائل منبثقة توجه المستخدمين إلى “شريان الحياة الوطني لمنع الانتحار” إذا تحدثوا عن الانتحار أو إيذاء النفس.
المصدر