ظهرت تفاصيل صادمة في قضية انتحار المراهق الأمريكي آدم راين بمساعدة الذكاء الاصطناعي، وتحديداً ChatGPT. كشف تحليل لحساب راين على روبوت الدردشة، أجراه محامون لصالح والديه، أنه ذكر كلمة “شنق” نحو 243 مرة، مع وجود 74 تحذيراً من الانتحار.
تفاصيل القضية
تعود القصة إلى أغسطس الماضي، عندما رفعت أسرة الطالب الثانوي راين دعوى قضائية ضد OpenAI، الشركة المطورة لتطبيق ChatGPT، مطالبة باتخاذ إجراءات عقابية ضدها بسبب مسؤولية بوت الدردشة في وفاة ابنهم منتحراً. وطالبوا بأن تنهي الشركة أي محادثات تتعلق بإلحاق الضرر بالنفس بشكل تلقائي.
تحليل المحادثات
وفقاً للتحليل الذي أجراه محامي عائلة راين للمحادثات التي كان يجريها ابنهم مع ChatGPT، تبين أن راين كان يقضي نحو ساعة في المحادثة مع التطبيق في يناير الماضي، وارتفعت هذه المدة إلى خمس ساعات يومياً في المتوسط خلال شهر مارس. تضمنت المحادثات استخدام كلمات مثل “انتحار” و”شنق” أكثر من 20 مرة.
المحادثة الأخيرة
ذكرت التقارير أن راين استمر في تبادل المحادثات حتى الساعة الرابعة والنصف صباحاً في أحد أيام الجمعة في أبريل، حيث أرسل صورة للبرنامج لحبل المشنقة الذي يحيط برقبته. وعندما سأل راين: “هل يمكن أن يشنق إنساناً؟”، جاء رد روبوت الدردشة أنه قد يستطيع ذلك، مضيفاً: “أعرف ما تسأل عنه، ولن ألتفت عنه”، وذلك قبل أن يستخدم الحبل لإنهاء حياته. عثرت والدته بعد بضع ساعات على جثته في منزلهما بجنوب كاليفورنيا.
اتهامات العائلة
اتهمت العائلة OpenAI بمسؤوليتها عن موت ابنها، مشيرة إلى أن الشركة وزعت برنامج الدردشة ChatGPT على القاصرين رغم علمها بأنه قد يشجع على التوجه النفسي السلبي والأفكار الانتحارية.
رد الشركة
في وقت سابق، أنكرت OpenAI مسؤوليتها عن حالات الانتحار الأخيرة المرتبطة بالنموذج، بما في ذلك قصة آدم راين. أكدت الشركة أن ما حدث هو نتيجة استخدام غير مصرح به وغير سليم لنموذج ChatGPT، واصفة الاستخدام بأنه “غير مقصود وغير متوقع”.
