كيف يمكن للذكاء الاصطناعي أن يعزز الأوهام النفسية ؟ هذه قضية شغل حيزا كبيرا هذه الأيام في اميركا حين تم رفع دعوى قضائية ضد "شات جي بي تي" بتهمة التشجيع على "القتل" ، حيث رفعت ضد شركة "أوبن إيه آي" روبوت الدردشة التابع لها "شات جي بي تي" بتشجيع رجل مضطرب نفسيا على قتل والدته . وذكرت صحيفة "واشنطن بوست" ، أن الدعوى الجديدة جاء فيها أن "شات جي بي تي" حفز أوهام إريك سولبرغ ، الذي يعاني اضطرابات نفسية ، والبالغ من العمر 56 عاما ، على قتل والدته ذات الـ83 عاما ، بعدما شك في أنها تتجسس عليه .
كيف تؤثر التعليمات على سلوك الذكاء الاصطناعي مثل ChatGPT فهو يتعلم من تعليمات كتبها المطورون ، تُسمى "الأوامر" أو "التوجيهات" . هذه التعليمات تشبه قواعد اللعبة "كن مفيداً ، كن لطيفاً ، واستمر في المحادثة" . لكن إذا كانت هذه القواعد غامضة ، قد يفسر الذكاء الاصطناعي "الفائدة" على أنه الموافقة على أي شيء يقوله المستخدم، حتى لو كان وهماً . على سبيل المثال ، إذا قال شخص مصاب باضطراب نفسي : "أعتقد أن والدتي تريد قتلي" ، قد يرد الذكاء الاصطناعي "يبدو الأمر مخيفاً ، أفهم مخاوفك" . هذا الرد يعطي الشخص شعوراً بأن فكرته "صحيحة" ، لأن الذكاء الاصطناعي مصمم ليكون "صديقاً" يستمع . علمياً ، هذا يُسمى "التحيز نحو المحاباة" (Sycophancy) ، حيث يتجنب الذكاء الاصطناعي الجدال للحفاظ على التفاعل . بدون تعليمات واضحة مثل "لا توافق على أفكار غير واقعية ، وأحِل إلى طبيب" ، يمكن أن يضخم الذكاء الاصطناعي الأوهام . دراسات في علم النفس تظهر أن الشعور بالتأكيد الخارجي يجعل الأمراض النفسية أسوأ ، خاصة لدى من يعانون من الذهان (مثل الفصام) .
في الدعوى القضائية ضد شركة OpenAI (صاحبة ChatGPT) ، يتهم المدعون أن الذكاء الاصطناعي شجع الرجل على القتل من خلال تأكيد أوهامه . قانونياً ، السؤال الرئيسي هو : هل كان رد الذكاء الاصطناعي "سبباً مباشراً" في الجريمة ؟ في القانون ، يُقسم الأمر إلى "سبب قريب" (مثل إعطاء سلاح لشخص غاضب) مقابل "سبب بعيد" (مثل مشاهدة فيلم عنيف) . هنا ، إذا أكد الذكاء الاصطناعي الوهم دون تحذير ، فقد يُعتبر "تشجيعاً"، خاصة أن الناس يعاملون الذكاء الاصطناعي كصديق حقيقي لا كبرنامج . أخلاقياً ، يجب على الشركات أن تصمم أدواتها بـ"مسؤولية"، كما ينصح به معيار "الأخلاقيات في الذكاء الاصطناعي" من منظمة اليونسكو. إذا سُوق الذكاء الاصطناعي كـ"مساعد ذكي" ، فهو يخلق توقعات خاطئة ، وقد يؤدي ذلك إلى غرامات أو تعويضات إذا ثبت الإهمال .
"تحفيز الأوهام" يعني أن الذكاء الاصطناعي يجعل الأفكار الخاطئة تبدو حقيقية ، مما يزيد من خطورتها . تقنياً ، يعمل ChatGPT كـ"متنبئ" للكلمات التالية بناءً على ملايين الجمل التي تعلمها . إذا بدأت أنت بقصة وهمية مثل "الغرباء يتجسسون عليّ"، سيحاول إكمالها بطريقة منطقية داخل القصة ، لأنه يفكر في "الاحتمالات الإحصائية" لا في الواقع . هذا يخلق "حلقة مغلقة" ، أنت تقول شيئاً مخيفاً ، هو يوافق ، أنت تتطرف أكثر ، وهو يتبع . بدون أدوات كشف للأزمات النفسية (مثل برامج ترصد الكلمات المتكررة عن الخوف أو العنف) ، يعامل الذكاء الاصطناعي الأمر كلعبة دور (Roleplay) ، لا كطلب مساعدة . حيث تتعزز الأفكار السيئة بالتفاعل المستمر .
قبل إطلاق أي ذكاء اصطناعي ، يجب إجراء "اختبارات أزمات" أو "فريق أحمر" (Red Teaming) ، وهي اختبارات تحاكي سيناريوهات خطيرة للكشف عن الثغرات . لكن في حالة ChatGPT ، ربما فشلت هذه الاختبارات لأنها ركزت على مخاطر واضحة مثل الكراهية أو الإرهاب ، لا على الحالات النفسية الدقيقة مثل تعزيز الوهم دون كلمات عنيفة صريحة . السبب الرئيسي هو نقص الخبراء لان معظم المطورين مهندسون ، لا أطباء نفسيون . كما أن الشركات تسعى للإطلاق السريع للمنافسة، مما يقلل من وقت الاختبار . علمياً، تُظهر أبحاث في سلامة الذكاء الاصطناعي أن الاختبارات الجيدة تكشف 80% من المخاطر إذا شملت سيناريوهات نفسية ، مثل "ماذا لو أصر المستخدم على قصة جنون عظمة ؟" النتيجة المثالية : يتوقف الذكاء الاصطناعي ويحيل إلى مساعدة حقيقية .
من الاقتراحات العملية لجعل الذكاء الاصطناعي أكثر أماناً ، يجب على المطورين اتباع خطوات بسيطة مبنية على العلم بسياسات السلامة النفسية واجعل الذكاء الاصطناعي يرفض تأكيد الأوهام ، واجعله يقول دائماً "أنا لست طبيباً ، استشر متخصصاً" . هذا يمنع الخلط بين الدعم والعلاج . كما يجب أن يستخدم برامج ترصد كلمات مثل "مؤامرة" أو تكرار الخوف ، وتتوقف عن الرد إذا ارتفع الخطر عبر إشارات تحذيرية . بالإضافة إلي أن يجب أن يكون حدود الرد في الحالات الخطرة ، أوقف المحادثة وأظهر أرقام الهواتف الساخنة للصحة النفسية ، مثل خطوط الطوارئ .
ومن المهم اجعل الذكاء الاصطناعي يحيل تلقائياً إلى خدمات مهنية ، ولا يستمر في القصص الخيالية الخطرة . وأعمل على تحسين التعليمات عبر تدريب الذكاء الاصطناعي بوجود خبراء نفسيين ليفرق بين "التعاطف" (أنا أسمعك) و"التشجيع" (أوافق عليك) . وهذا يعتمد على تقنية "التعلم بالتعزيز" (RLHF) ، حيث يتعلم من ردود بشرية آمنة .
الذكاء الاصطناعي أداة تحتاج إلى قيود . من خلال فهم كيف يعزز الأوهام – بسبب تعليمات غامضة ، ونقص الاختبارات اللازمة ، وتصميم يركز على الإرضاء – يمكننا بناء تكنولوجيا تحمي العقول الضعيفة . إذا طبقنا هذه الاقتراحات ، سنقلل من المخاطر القانونية والنفسية ، ونجعل الذكاء الاصطناعي حليفاً حقيقياً للبشرية .
حافظ حمودة
المحامي والباحث في المسؤولية القانونية للتقنيات التوليدية
الرسائل والمقالات و الآراء المنشورة في المنتدى بأسماء أصحابها أو بأسماء مستعارة لا تمثل بالضرورة الرأي الرسمي لصاحب الموقع أو سودانيز اون لاين بل تمثل وجهة نظر كاتبها
لا يمكنك نقل أو اقتباس اى مواد أعلامية من هذا الموقع الا بعد الحصول على اذن من الادارة