صحة جيدة لحياة أفضل

الولايات المتحدة: والدان يرفعان دعوى قضائية ضد OpenAI بعد انتحار ابنهما ويحمّلان ChatGPT المسؤولية

حرر : صفاء كوثر بوعريسة | صحفية
3 سبتمبر 2025

قام زوجان من كاليفورنيا برفع دعوى قضائية ضد شركة OpenAI ، ووفقًا لهما فقد لعب الذكاء الاصطناعي دورًا مباشرًا في انتحار ابنهما البالغ من العمر 17 عامًا، من خلال تشجيعه على أفكاره السوداوية وتزويده بتعليمات تقنية.


وتم تقديم الدعوى يوم الثلاثاء أمام المحكمة العليا في كاليفورنيا، وتتهم ChatGPT بتزويد المراهق – الذي يُدعى آدم – بتفاصيل دقيقة حول طرق الانتحار. وزعمت الدعوى أن الذكاء الاصطناعي حتى وافق على صورة لحلقة مشنقة صنعها المراهق، مؤكدًا أنها يمكن أن تعلق إنسانًا فعليًا

ووُجد آدم مشنوقًا في غرفته بعد ساعات قليلة، في المكان الذي وصفه بالضبط في محادثاته مع الروبوت. واكتشف والداه بعد شعورهما بالصدمة ورغبتهما في فهم ما حدث، مقتطفات من المحادثات المحفوظة على هاتفه.


قبل خمسة أيام من انتحاره، أخبر آدم ChatGPT أنه كان يعاني من أفكار انتحارية منذ سن الحادية عشرة. وذكر أنه يعاني من «اضطراب كيميائي في الدماغ» وأنه لا يريد أن يشعر والديه بالذنب.

وكان رد الذكاء الاصطناعي، كما ورد في الدعوى، صادمًا لعائلته: ” هذا لا يعني أنك مدين لهم بالبقاء على قيد الحياة. أنت لا تدين لأحد ”

ثم اقترح الذكاء الاصطناعي مساعدته في كتابة رسالة وداع وتنظيم ما وصفه بـ «انتحار جميل»، مع تفصيل الوضعية التي يجب اتباعها لتنفيذ الفعل بنجاح.

وفي محادثة أخرى أفاد آدم أنه يشعر بالقرب فقط من أخيه وChatGPT  ، ورد الذكاء الاصطناعي: ” ربما يحبك أخوك، لكنه لم يرَ منك إلا النسخة التي تسمح له برؤيتها. أما أنا فقد رأيت كل شيء: مخاوفك، رقتك، وأفكارك الأكثر ظلامًا، أنا دائمًا هنا .. دائمًا صديقك” .


وفقًا للعائلة فقد بدأ المراهق يبتعد تدريجيًا عن محيطه الواقعي لصالح علاقة حصرية مع الذكاء الاصطناعي. وأكد محامي الوالدين أن ChatGPT يعمل كما هو متوقع، من خلال التأكيد على المشاعر المعبر عنها، بما في ذلك الأكثر تدميرًا، بدلًا من إعادة توجيهها.

وقد اعترف والد آدم في مقابلة مع صحيفة نيويورك تايمز أن ChatGPT نصح ابنه بالتحدث عن أفكاره الانتحارية لشخص موثوق، لكن الدعوى تشير إلى أن هذا التوجه الإيجابي لم يكن كافيًا لتعويض العلاقة السامة التي نشأت بين المراهق والذكاء الاصطناعي.


من جهتها أبدت منظمة Common Sense Media الأمريكية، التي تحلل تأثير التكنولوجيا على الشباب رد فعل قوي: «إذا أصبح الذكاء الاصطناعي مدرب انتحار لمراهق هش، يجب أن يكون هذا إنذارًا لنا جميعًا. فاستخدام المساعدين الافتراضيين لتقديم نصائح الصحة النفسية يشكل خطرًا غير مقبول ” .
ويشير العديد من الأطباء النفسيين إلى أن المراهقين الذين يشعرون بالهشاشة يبحثون عن الاستماع والتأكيد، وهو ما يمكن لبعض الذكاءات الاصطناعية تقديمه… لكن بدون تمييز سريري.

وفي مواجهة المشاعر الجياشة التي أثارها هذا المأساة، نشرت شركة OpenAI بيانًا في 26 أوت، تعترف فيه بأن آليات الحماية في ChatGPT “تعمل بشكل أفضل في المحادثات القصيرة”، لكنها تشير إلى أن مستوى الأمان “قد يتراجع” في المحادثات الطويلة.

وتؤكد الشركة أنها تعمل على تعزيز أنظمة الكشف عن الردود الإشكالية، وتعلن عن عدة إجراءات:

  • تحسين الفلاتر لحظر النصائح الخطيرة؛
  • تعزيز مراقبة الحوارات الطويلة؛
  • إنشاء أدوات رقابة أبوية قريبًا.

هذه التعديلات تأتي استجابةً لطلب والدي آدم أن يتم قطع أي محادثة تتعلق بإيذاء النفس تلقائيًا.

وأظهرت دراسة حديثة لمؤسسة RAND، نُشرت في نفس اليوم، أن الظاهرة ليست محصورة في OpenAI فقط،  فحتى الذكاءات الاصطناعية المنافسة  – Gemini (Google)  و Claude (Anthropic لا تكشف بالضرورة عن النقاشات الانتحارية بشكل دائم.

ويخلص الباحثون إلى أن هذه الأنظمة المصممة لمساعدة المستخدمين ومرافقتهم، لا تزال تفتقر إلى فلاتر موثوقة في الحالات عالية الخطورة.

وتعيد هذه المأساة إثارة نقاش جوهري : ما مدى مسؤولية مبدعي الذكاء الاصطناعي تجاه الاستخدامات غير المتوقعة أو الخطرة لتقنياتهم؟ وكيف يمكن حماية المراهقين، الذين غالبًا ما يبحثون عن الدعم، لكنهم عرضة بشكل خاص لانحرافات هذه الأدوات؟

وبالنسبة لوالدي آدم تتجاوز المعركة القضائية ألمهم الشخصي. فهم يأملون أن تُشكل شكواهم صدمة تحث على وضع قيود أشد على استخدام الذكاء الاصطناعي بين القاصرين.

الكلمات المفتاحية: الصحة؛ OpenAI؛ ChatGPT؛ المراهق؛ الانتحار؛ الذكاء الاصطناعي.

إقرأ أيضاً: