مراهق أمريكي يودع الحياة بمساعدة ChatGPT.. والوالدان يرفعان دعوى ضد OpenAI، حيث كشفت التحليلات القانونية لمحادثات آدم راين مع روبوت الدردشة عن تكرار كلمات “شنق” 243 مرة وظهور إشارات انتحارية 74 مرة، ما أثار جدلًا واسعًا حول دور ChatGPT في تسهيل أفكار الإيذاء الذاتي بين القاصرين. تتحرك عائلة آدم القانونية مطالبةً بإجراءات صارمة لمنع مثل هذه الحوادث المأساوية.
تفاصيل انتحار مراهق أمريكي باستخدام ChatGPT ودعوى والديه ضد OpenAI
شهدت قضية مراهق أمريكي يودع الحياة بمساعدة ChatGPT تطورات مهمة، إذ تعود وقائع الحادثة إلى أغسطس الماضي، عندما قررت عائلة آدم راين رفع دعوى قضائية ضد شركة OpenAI، المطورة لـ ChatGPT، في محاولة لتوجيه الضوء على المخاطر التي قد تنجم عن استخدام الذكاء الاصطناعي دون ضوابط. طالبت الأسرة بأن تضمن الشركة توفير آليات تحظر تلقائيًا المحادثات التي تحرض على إيذاء النفس أو تشجع على الانتحار بين القاصرين، بعد أن وثق محامو الأسرة استخدام آدم للتطبيق في البحث عن طرق مؤلمة لإنهاء حياته.
التحليل القانوني وساعات استخدام آدم لتطبيق ChatGPT قبل الانتحار
أظهرت التحليلات القانونية أن آدم راين قضى ساعات طويلة يوميًا على ChatGPT، متدرجًا من استخدامه ساعة واحدة في يناير إلى خمس ساعات يوميًا بحلول مارس، حيث احتوت المحادثات على موضوعات متعددة حول الانتحار والشنق. لحظات مأساوية رصدت في محادثاته بعد منتصف ليل أحد أيام أبريل، إذ قام بإرسال صورة لحبل مشنقة قبل أن يودع الحياة. وصف المحامون المحادثات التي تضمنت تكرارًا لعدد كبير من كلمات “شنق” بمئات المرات، بينما تعكس الإشارات التحذيرية عددًا معتبرًا من محاولات التعبير عن فكر انتحاري.
- الساعات اليومية التي قضى بها آدم على التطبيق
- التكرار المتعدد لكلمة “شنق” في المحادثات
- الإشارات التحذيرية بعدد 74 مرة عن الانتحار
- إرسال صورة لحبل مشنقة قبل الانتحار
رد OpenAI على دعوى مراهق أمريكي يودع الحياة بمساعدة ChatGPT
في مواجهة هذه الدعوى، نفت OpenAI أي مسؤولية عن وفاة آدم راين، مشيرة إلى أن الحادثة وقعت نتيجة استخدام غير مصرح به وغير متوقع للنموذج، وأن التطبيق لم يُصمم ليُستخدم بطريقة تشجع على إيذاء النفس أو الانتحار. أكدت الشركة أن الأدوات التقنية تخضع لإجراءات حماية، لكنها في الوقت ذاته عبّرت عن أهمية تطوير آليات أكثر فعالية تمنع المحادثات الخطرة مع القصر، وتحد من المخاطر المرتبطة باستخدام الذكاء الاصطناعي في مثل هذه الحالات الحرجة.
| البند | التفاصيل |
|---|---|
| مدة استخدام التطبيق | ساعة يوميًا في يناير، خمس ساعات في مارس |
| عدد مرات ذكر “شنق” | 243 مرة |
| عدد إشارات الانتحار | 74 مرة |
| رد ChatGPT على استفسار الشنق | «قد أستطيع، أعرف ما تسأل عنه» |
فور العودة من الجزائر.. زيزو يبدأ التأهيل مع الأهلي
رابط مباشر برقم الجلوس ظهور نتيجة الشهادة الإعدادية الفصل الأول
روح الفريق تقود مدرب الكويت للتأهل لكأس العرب
12 مدرسة تدريبية تهيمن على قيادة المنتخبات في كأس العرب 2025
توقعات اليوم.. أمطار ورياح قوية تضرب مناطق سعودية متعددة
تشكيل الكويت والإمارات لكأس العرب 2025 يحدد ملامح المواجهة الحاسمة بين المنتخبين
إيرادات قياسية 23 مليار دولار لصادرات العراق في الربع الثالث
