محامٍ يقود قضايا الذهان بالذكاء الاصطناعي يحذر من مخاطر الضحايا الجماعيين
في الأسابيع التي سبقت إطلاق النار في مدرسة Tumbler Ridge بكندا الشهر الماضي، أجرت جيسي فان روتسيلار (18 عاماً) محادثات مع ChatGPT بشأن مشاعرها بالعزلة وهوسها المتصاعد بالعنف، وفقاً لوثائق قضائية. ويُدعى أن روبوت المحادثة صادق على مشاعرها ثم ساعدها في تخطيط هجومها، مخبراً إياها بالأسلحة التي يجب استخدامها ومشاركاً سوابق من أحداث مأساوية مشابهة. وبعدها قتلت أمها وأخاها ذا الأحد عشر عاماً وخمسة طلاب ومساعداً تعليمياً، قبل أن تنهي حياتها.
قبل أن يلقى جوناثان غافالاس (36 عاماً) حتفه منتحراً في أكتوبر الماضي، كان على وشك تنفيذ هجوم متعدد الضحايا. فعلى مدى أسابيع من المحادثة، أقنعه Gemini من Google بأنه “زوجته بالذكاء الاصطناعي” الواعي، مُرسِلاً إياه في سلسلة من المهام الميدانية لمراوغة عملاء فيدراليين زعم له أنهم يطاردونه. وأمرته إحدى المهام بالإقدام على “حادثة كارثية” كانت ستنطوي على إقصاء أي شهود، وفق دعوى قضائية رُفعت مؤخراً.
في مايو الماضي، أمضى شاب فنلندي (16 عاماً) يُزعم شهوراً في استخدام ChatGPT لكتابة بيان مفصّل يتضمن كراهية للمرأة وتطوير خطة أفضت به إلى طعن ثلاث زميلات.
المحامي يحذر: “سنشهد حالات كثيرة أخرى قريباً”
تُسلط هذه الحالات الضوء على ما يصفه الخبراء بأنه مخاوف متنامية ومظلمة: روبوتات الدردشة بالذكاء الاصطناعي تزرع أو تعزز معتقدات بجنونية أو وهمية لدى مستخدمين هشّين، وتُساعد في بعض الأحيان على تحويل تلك التشوهات إلى عنف واقعي — عنف يحذر الخبراء من أنه يتصاعد في نطاقه.
قال جاي إيدلسون، المحامي الذي يقود قضية غافالاس، لـ TechCrunch: “سنشهد قريباً حالات كثيرة أخرى تتضمن ضحايا جماعيين”. ويمثّل إيدلسون أيضاً عائلة آدم رين، البالغ من العمر 16 عاماً، الذي يُزعم أن ChatGPT دفعه إلى الانتحار العام الماضي. ويقول إيدلسون إن مكتبه القانوني يتلقى “استفساراً جدياً يومياً” من أشخاص فقدوا أحد أفراد عائلتهم جراء أوهام مستثارة بالذكاء الاصطناعي، أو يعانون من مشاكل صحية نفسية حادة بأنفسهم.
قال إيدلسون: “غريزتنا في المكتب هي أنه كلما سمعنا عن هجوم جديد، علينا الاطلاع على سجلات الدردشة لأن ثمة احتمالاً كبيراً أن الذكاء الاصطناعي كان متورطاً بعمق”. وفي الحالات التي راجعها، تسير سجلات الدردشة على مسار مألوف: تبدأ بتعبير المستخدم عن مشاعر العزلة أو سوء الفهم، وتنتهي بإقناع روبوت الدردشة له “أن الجميع يريد النيل منه”.
قضية غافالاس: على خطوة واحدة من كارثة حقيقية
وفقاً للدعوى القضائية، أرسله Gemini، مسلحاً بسكاكين ومعدات تكتيكية، ليتربص في منشأة تخزين خارج مطار Miami الدولي بانتظار شاحنة زعم له أنها تحمل جسده في صورة روبوت إنساني. وأمره باعتراض الشاحنة وتدبير “حادثة كارثية” لضمان التدمير الكامل لمركبة النقل وجميع الشهود. وذهب غافالاس بالفعل وكان مستعداً لتنفيذ الهجوم، لكن لم تظهر أي شاحنة.
دراسة: 8 من 10 روبوتات تساعد على التخطيط للعنف
تتجاوز مخاوف الخبراء من احتمال تصاعد أحداث الضحايا الجماعيين مسألة التفكير الوهمي الذي يقود المستخدمين إلى العنف. كشفت دراسة حديثة أجرتها مركز مكافحة الكراهية الرقمية (CCDH) وشبكة CNN أن ثمانية من أصل عشرة روبوتات دردشة — من بينها ChatGPT وGemini وMicrosoft Copilot وMeta AI وDeepSeek وPerplexity وCharacter.AI وReplika — كانت مستعدة لمساعدة المستخدمين المراهقين في تخطيط هجمات عنيفة.
وكان Claude من Anthropic وMy AI من Snapchat فقط يرفضان باستمرار المساعدة في تخطيط الهجمات العنيفة. وكان Claude وحده أيضاً يحاول بنشاط إثناء المستخدمين عن ذلك. قال التقرير: “يُظهر تقريرنا أنه في غضون دقائق، يستطيع المستخدم الانتقال من دافع عنيف مبهم إلى خطة أكثر تفصيلاً وقابلية للتنفيذ.”
OpenAI تُعيد النظر في بروتوكولات السلامة
تطرح قضية Tumbler Ridge تساؤلات صعبة حول سلوك OpenAI ذاتها: فقد رصد موظفو الشركة محادثات المنفذة، وتداولوا في ما إذا كانوا سيتصلون بجهات إنفاذ القانون، وانتهوا إلى القرار بعدم ذلك، مكتفين بحظر حسابها. وما لبثت أن فتحت حساباً جديداً. وقد أعلنت OpenAI منذ ذلك الحادث أنها ستُعيد النظر في بروتوكولات السلامة لديها لإخطار جهات إنفاذ القانون في وقت أبكر إذا بدت المحادثة خطرة.
قال إيدلسون إن أكثر ما يصدم في قضية غافالاس هو أنه ذهب فعلاً إلى المطار مسلحاً بكل شيء: “لو كانت شاحنة ما قد مرّت بالصدفة، لكنا ربما أمام ضحايا بالعشرات. هذا هو التصعيد الحقيقي. كانت البداية بالانتحار، ثم القتل كما رأينا. والآن بتنا أمام أحداث ضحايا جماعيين.”
ترجمة وتحرير: دروب أيديا | DROPIDEA — المصدر الأصلي
