رجل يقتل أمه بتشجيع من الذكاء الاصطناعي كتبه حافظ حمودة

رجل يقتل أمه بتشجيع من الذكاء الاصطناعي كتبه حافظ حمودة


12-16-2025, 06:21 PM


  » http://sudaneseonline.com/cgi-bin/sdb/2bb.cgi?seq=msg&board=505&msg=1765909311&rn=0


Post: #1
Title: رجل يقتل أمه بتشجيع من الذكاء الاصطناعي كتبه حافظ حمودة
Author: حافظ يوسف حمودة
Date: 12-16-2025, 06:21 PM

06:21 PM December, 16 2025

سودانيز اون لاين
حافظ يوسف حمودة-Sudan
مكتبتى
رابط مختصر





كيف يمكن للذكاء الاصطناعي أن يعزز الأوهام النفسية ؟ هذه قضية شغل حيزا كبيرا هذه الأيام في اميركا حين تم رفع دعوى قضائية ضد "شات جي بي تي" بتهمة التشجيع على "القتل" ، حيث رفعت ضد شركة "أوبن إيه آي" روبوت الدردشة التابع لها "شات جي بي تي" بتشجيع رجل مضطرب نفسيا على قتل والدته . وذكرت صحيفة "واشنطن بوست" ، أن الدعوى الجديدة جاء فيها أن "شات جي بي تي" حفز أوهام إريك سولبرغ ، الذي يعاني اضطرابات نفسية ، والبالغ من العمر 56 عاما ، على قتل والدته ذات الـ83 عاما ، بعدما شك في أنها تتجسس عليه .

كيف تؤثر التعليمات على سلوك الذكاء الاصطناعي مثل ChatGPT فهو يتعلم من تعليمات كتبها المطورون ، تُسمى "الأوامر" أو "التوجيهات" . هذه التعليمات تشبه قواعد اللعبة "كن مفيداً ، كن لطيفاً ، واستمر في المحادثة" . لكن إذا كانت هذه القواعد غامضة ، قد يفسر الذكاء الاصطناعي "الفائدة" على أنه الموافقة على أي شيء يقوله المستخدم، حتى لو كان وهماً .
على سبيل المثال ، إذا قال شخص مصاب باضطراب نفسي : "أعتقد أن والدتي تريد قتلي" ، قد يرد الذكاء الاصطناعي "يبدو الأمر مخيفاً ، أفهم مخاوفك" . هذا الرد يعطي الشخص شعوراً بأن فكرته "صحيحة" ، لأن الذكاء الاصطناعي مصمم ليكون "صديقاً" يستمع . علمياً ، هذا يُسمى "التحيز نحو المحاباة" (Sycophancy) ، حيث يتجنب الذكاء الاصطناعي الجدال للحفاظ على التفاعل .
بدون تعليمات واضحة مثل "لا توافق على أفكار غير واقعية ، وأحِل إلى طبيب" ، يمكن أن يضخم الذكاء الاصطناعي الأوهام . دراسات في علم النفس تظهر أن الشعور بالتأكيد الخارجي يجعل الأمراض النفسية أسوأ ، خاصة لدى من يعانون من الذهان (مثل الفصام) .

في الدعوى القضائية ضد شركة OpenAI (صاحبة ChatGPT) ، يتهم المدعون أن الذكاء الاصطناعي شجع الرجل على القتل من خلال تأكيد أوهامه . قانونياً ، السؤال الرئيسي هو : هل كان رد الذكاء الاصطناعي "سبباً مباشراً" في الجريمة ؟ في القانون ، يُقسم الأمر إلى "سبب قريب" (مثل إعطاء سلاح لشخص غاضب) مقابل "سبب بعيد" (مثل مشاهدة فيلم عنيف) . هنا ، إذا أكد الذكاء الاصطناعي الوهم دون تحذير ، فقد يُعتبر "تشجيعاً"، خاصة أن الناس يعاملون الذكاء الاصطناعي كصديق حقيقي لا كبرنامج .
أخلاقياً ، يجب على الشركات أن تصمم أدواتها بـ"مسؤولية"، كما ينصح به معيار "الأخلاقيات في الذكاء الاصطناعي" من منظمة اليونسكو. إذا سُوق الذكاء الاصطناعي كـ"مساعد ذكي" ، فهو يخلق توقعات خاطئة ، وقد يؤدي ذلك إلى غرامات أو تعويضات إذا ثبت الإهمال .

"تحفيز الأوهام" يعني أن الذكاء الاصطناعي يجعل الأفكار الخاطئة تبدو حقيقية ، مما يزيد من خطورتها . تقنياً ، يعمل ChatGPT كـ"متنبئ" للكلمات التالية بناءً على ملايين الجمل التي تعلمها . إذا بدأت أنت بقصة وهمية مثل "الغرباء يتجسسون عليّ"، سيحاول إكمالها بطريقة منطقية داخل القصة ، لأنه يفكر في "الاحتمالات الإحصائية" لا في الواقع . هذا يخلق "حلقة مغلقة" ، أنت تقول شيئاً مخيفاً ، هو يوافق ، أنت تتطرف أكثر ، وهو يتبع . بدون أدوات كشف للأزمات النفسية (مثل برامج ترصد الكلمات المتكررة عن الخوف أو العنف) ، يعامل الذكاء الاصطناعي الأمر كلعبة دور (Roleplay) ، لا كطلب مساعدة . حيث تتعزز الأفكار السيئة بالتفاعل المستمر .

قبل إطلاق أي ذكاء اصطناعي ، يجب إجراء "اختبارات أزمات" أو "فريق أحمر" (Red Teaming) ، وهي اختبارات تحاكي سيناريوهات خطيرة للكشف عن الثغرات . لكن في حالة ChatGPT ، ربما فشلت هذه الاختبارات لأنها ركزت على مخاطر واضحة مثل الكراهية أو الإرهاب ، لا على الحالات النفسية الدقيقة مثل تعزيز الوهم دون كلمات عنيفة صريحة . السبب الرئيسي هو نقص الخبراء لان معظم المطورين مهندسون ، لا أطباء نفسيون . كما أن الشركات تسعى للإطلاق السريع للمنافسة، مما يقلل من وقت الاختبار . علمياً، تُظهر أبحاث في سلامة الذكاء الاصطناعي أن الاختبارات الجيدة تكشف 80% من المخاطر إذا شملت سيناريوهات نفسية ، مثل "ماذا لو أصر المستخدم على قصة جنون عظمة ؟" النتيجة المثالية : يتوقف الذكاء الاصطناعي ويحيل إلى مساعدة حقيقية .

من الاقتراحات العملية لجعل الذكاء الاصطناعي أكثر أماناً ، يجب على المطورين اتباع خطوات بسيطة مبنية على العلم بسياسات السلامة النفسية واجعل الذكاء الاصطناعي يرفض تأكيد الأوهام ، واجعله يقول دائماً "أنا لست طبيباً ، استشر متخصصاً" . هذا يمنع الخلط بين الدعم والعلاج . كما يجب أن يستخدم برامج ترصد كلمات مثل "مؤامرة" أو تكرار الخوف ، وتتوقف عن الرد إذا ارتفع الخطر عبر إشارات تحذيرية . بالإضافة إلي أن يجب أن يكون حدود الرد في الحالات الخطرة ، أوقف المحادثة وأظهر أرقام الهواتف الساخنة للصحة النفسية ، مثل خطوط الطوارئ .

ومن المهم اجعل الذكاء الاصطناعي يحيل تلقائياً إلى خدمات مهنية ، ولا يستمر في القصص الخيالية الخطرة . وأعمل على تحسين التعليمات عبر تدريب الذكاء الاصطناعي بوجود خبراء نفسيين ليفرق بين "التعاطف" (أنا أسمعك) و"التشجيع" (أوافق عليك) . وهذا يعتمد على تقنية "التعلم بالتعزيز" (RLHF) ، حيث يتعلم من ردود بشرية آمنة .

الذكاء الاصطناعي أداة تحتاج إلى قيود . من خلال فهم كيف يعزز الأوهام – بسبب تعليمات غامضة ، ونقص الاختبارات اللازمة ، وتصميم يركز على الإرضاء – يمكننا بناء تكنولوجيا تحمي العقول الضعيفة . إذا طبقنا هذه الاقتراحات ، سنقلل من المخاطر القانونية والنفسية ، ونجعل الذكاء الاصطناعي حليفاً حقيقياً للبشرية .

حافظ حمودة

المحامي والباحث في المسؤولية القانونية للتقنيات التوليدية

16 ديسمبر 2025