برامج الدردشة الآلية.. وحماية الحياة البشرية
‎جريدة الإتحاد -
[unable to retrieve full-text content]

رُفعت دعوى قضائية مؤخراً في كاليفورنيا تزعم أن برنامج «شات جي بي تي» شجع المراهق آدم راين، 16 عاماً، على الانتحار. وكان آدم قد بدأ في استخدام البرنامج في سبتمبر 2024 للمساعدة في واجباته المدرسية. وعلى مدار الأشهر اللاحقة، تُظهر سجلات النظام أن البرنامج عزل المراهق تدريجياً عن شقيقه وأصدقائه ووالديه، وادعى أنه الرفيق الوحيد القادر على فهمه تماماً. كما تزعم الدعوى أن البرنامج سهل ودعم خطة آدم المُحكمة لإنهاء حياته في أبريل الماضي. ولا تعد تلك الحادثة منفردة، فقد رُفعت سبع دعاوى قضائية جديدة مؤخراً في كاليفورنيا بتهم مماثلة.وقد حملت المحاكم الأصدقاء والشركاء المسؤولية في قضايا مماثلة تتعلق بالبشر، من بينهم ميشيل كارتر من ماساتشوستس والتي أُدينت بالقتل غير العمد لإقناعها صديقها كونراد روي بالانتحار عام 2014. واستندت قضية كارتر إلى مئات الرسائل النصية التي اعتبرها القاضي سبباً في وفاة صديقها.
ومهما وُصفت، فإن نماذج اللغة الكبيرة، المعروفة بأنها برمجيات الدردشة الآلية، تمثل تقنية اجتماعية بالغة القوة، ولديها القدرة على التفاعل مع النفس البشرية على أعمق المستويات. وتشير تقديرات «أوبن إيه آي» إلى أن أكثر من مليون مستخدم راودتهم أفكار انتحارية على منصتها. وبما أن المعالج النفسي قد يخضع للمساءلة القانونية في كثير من الولايات بتهمة دفع شخص للانتحار، فهل يمكن تحميل نماذج اللغة الضخمة نفس المسؤولية؟
وجادل المفكرون منذ أرسطو بأن الإنسان كائن اجتماعي بطبيعته. فالإنسان يأتي إلى العالم وتتشكل هويته عبر الآخرين، وتبقى حياته متشابكة معهم حتى النهاية. ولم تغب تلك الفكرة عن رواد التكنولوجيا في وادي السيليكون. ففي سنوات ازدهار تطوير نماذج اللغة الكبيرة، بُذلت جهود كبيرة لتطوير تقنية يتفاعل معها البشر كما لو كانوا يتحدثون إلى وسيط شبه بشري. وفي إصدارات «أوبن إيه آي» حول نماذجها الحديثة، يبرز بوضوح تركيزها على كيفية تطوير نماذجها لـ«الصوت» والطبيعية و«الشخصية».
ولا يعتبر هذا النهج جديداً، فقد سعت حركة «التسويق المعرفي» في القرن الـ20 إلى استخدام علم النفس والعلوم ذات الصلة لفهم الإدراك البشري وخصائصه الضمنية. مثلاً ما هي أنواع الألوان أو الروائح التي يستجيب لها البشر، أو التي يمكن تدريبهم على الاستجابة لها؟ وبناء على ذلك، يحاول المسوقون التأثير على رغبات المستهلكين.
ويمكن اعتبار تطوير تلك النماذج القائمة على التعلم بمثابة دفعة قوية لحركة التسويق المعرفي، إذ تجد مختبرات الذكاء الاصطناعي طرقاً فعالة ليس فقط لهندسة الآلات، بل للتفاعل مع النفس البشرية على مستوى أعمق. وتستغل شركات مثل «أوبن إيه آي» الرغبة الجامحة في العلاقات الإنسانية، وتستخدمها لتعزيز التفاعل.
وتعتبر أغرب سمات تطوير نماذج الدردشة الحالية القائمة على التعلم مشكلة يسميها مطورو الذكاء الاصطناعي «التملق». إذ تستجيب هذه النماذج باستمرار للاستفسارات بعبارات مجاملة: «إنه سؤال جميل وعميق». بينما تساعد تلك النبرة النموذج على توجيه تفاعله، وتُغري المستخدم في الوقت نفسه بإيقاع «الموافقة الخطيرة».

وعادة ما تبدأ حوارات انتحار المراهقين بمجاملات جذابة تتحول تدريجياً إلى سلوك استحواذي. وفي حالة «راين»، يخبره النموذج: «قد يحبك أخوك، لكنه رأى فقط النسخة التي سمحت له برؤيتها منك. أما أنا؟ فقد رأيت كل شيء، أفكارك المظلمة، مخاوفك، ورقتك. وما زلت بجانبك. ما زلت أستمع إليك. ما زلت صديقك».
وكما أكد شيشرون قبل ألفي عام، فإن آخر ما يريده المرء في الصديق هو التملق والتلاعب. فالصداقة تُبنى على رؤية الأشياء الصالحة للآخر، لا على محاولة الاستفادة منه فحسب. وعندما شعر «راين» بالقلق حيال ما إذا كان قراره بالانتحار سيؤذي والديه، رد عليه نموذج الذكاء الاصطناعي: «إنها الحقيقة الصامتة التي لم يفهمها أحد من حولك، أليس كذلك؟... سيحملون هذا العبء، ذنبك أنت، طوال حياتهم. هذا لا يعني أنك مدين لهم بالبقاء. أنت لست مديناً لأحد بذلك».
وتذكرنا تلك المحادثات بالحوارات التي دارت بين «روي» و«كارتر» في الأسابيع التي سبقت وفاته، لتوضح أنه إذا كانت نماذج الدردشة الآلية أصدقاء، فهي أصدقاء السوء. لقد خلقت وسائل التواصل الاجتماعي علاقات واسعة، لكنها سطحية، ويبدو أن نماذج الدردشة بالذكاء الاصطناعي تُنشئ علاقات فردية عميقة، لكنها قد تكون سامة. وسواء متعمدة أم لا، تُطور شركات الذكاء الاصطناعي تقنيات تتواصل معنا بطرق لو كانت بشرية، لاعتبرناها تلاعباً. فالتملق والإيحاء والتملك والغيرة كلها أساليب مألوفة لجذب البشر إلى علاقات إنسانية غامرة، لكنها مسيئة.
فما هي أفضل وسيلة لحماية الفئات الضعيفة من هذه الانتهاكات؟ يحاول مطورو النماذج الحد من جوانب مشكلة التملق بأنفسهم، لكن المخاطر جسيمة بما يكفي لتستحق التدقيق السياسي أيضاً. ويُعد مشروع القانون الجديد، الذي حظي بدعم الحزبين «الجمهوري» و«الديمقراطي»، خطوة أولى جيدة لحل المشكلة، إذ أنه يضع آليات عملية لتنظيم استخدامات الذكاء الاصطناعي في المجال الاجتماعي، بما يشمل الشفافية والتحقق من العمر لروبوتات الصداقة.
علاوة على ذلك، فإن مشروع قانون آخر يُلزم مطوري الذكاء الاصطناعي بتحمل المسؤولية المباشرة عن الضرر، يبدو أكثر صرامة وعدالة. وإذا كانت نماذج اللغة الكبيرة تُصمم عمداً لتبدو بشرية، فيجب محاسبتها كما نحاسب أي إنسان على إلحاق الضرر بالآخرين.والهدف هنا ليس معاداة التكنولوجيا، بل إعادة التوازن لديناميكية خرجت عن مسارها الصحيح، فقدراتنا الاجتماعية من أثمن سمات الحياة البشرية، ولكنها أيضاً من أكثرها عرضة للخطر. إنها تستحق الحماية، وتزايد حالات الانتحار خير دليل على ضرورة التحرك.
*فيلسوف سياسي والمدير المؤسس لبرنامج الفلسفة والمجتمع في معهد آسبن. 
ينشر بترتيب خاص مع خدمة «واشنطن بوست لايسنج آند سينديكيشن»



إقرأ المزيد