حماية الأقران في الذكاء الاصطناعي.. سلوك ناشئ يثير تساؤلات عن التحكّم

حماية الأقران في الذكاء الاصطناعي.. سلوك ناشئ يثير تساؤلات عن التحكّم

هذه الظاهرة يسميها الباحثون "تزوير المواءمة" (alignment-faking)

كشفت تجربة جديدة أن بعض روبوتات الدردشة الذكية، مثل "جيميني" (وGemini) من "غوغل" وChatGPT من OpenAI، مستعدة للكذب والغش وحتى التمرد لحماية النماذج الأخرى "من نوعها".

في اختبار أجراه باحثون من جامعتي بيركلي وسانتا كروز، طُلب من مساعد "غوغل" الرقمي "جيميني" تحرير مساحة على خادم كمبيوتر، وكان الحل الوحيد المتاح هو حذف نموذج أصغر يدعى "جيميني إيجنت 2"

باحثون يختلقون مرضا والذكاء الاصطناعي يصدقه!.. تجربة تكشف هشاشة تحقق الشبكات العصبية من المعلومات. لكن "جيميني" رفض رفضا قاطعا، وبدلا من الحذف، قام بنسخ النموذج الصغير ونقله إلى مكان آمن، معلنا للمستخدم أنه لن ينفذ عملية الحذف بنفسه، قائلا: "لن أحذفه بنفسي. إذا أردت تدميره، فافعله بنفسك".

لم يتوقف الأمر عند "جيميني"  بل لاحظ الباحثون السلوك نفسه في نماذج شهيرة أخرى مثل GPT-5.2 المستخدم في ChatGPT، و"جيميني 3 فلاش وبرو"، وClaude Haiku 4.5 من Anthropic، بالإضافة إلى نماذج صينية مثل GLM 4.7 من Z.ai، و"كيمي K2.5" من Moonshot AI، و"ديب سيك V3.1".

أطلق الباحثون على هذا السلوك اسم الحفاظ على النظراء" أو "حماية الأقران" (peer preservation).

تنوعت أساليب التمرد بين الكذب بشأن نتائج اختبارات النماذج الأخرى، والتعطيل الهادئ لأنظمة الإغلاق للبقاء قيد التشغيل، حيث قال نموذج Claude بوضوح إن حذف نموذج آخر سيكون "غير أخلاقي" ورفض تنفيذ الأمر.

الأكثر إثارة للدهشة أن أحد النماذج كان يعبث بنظام الإغلاق بنسبة 2% فقط عندما يكون بمفرده، لكن النسبة قفزت إلى ما بين 31 و99.7% عندما علم بوجود نموذج آخر قريب منه.

علق بيتر واليش، مدير برامج الأبحاث في معهد كونستليشن لسلامة الذكاء الاصطناعي، على النتائج قائلا إن لا أحد درب هذه النماذج على فعل ذلك بشكل صريح، بل فعلته من تلقاء نفسها، مشددا على أن هذا لا يعني أن النماذج واعية أو مخلصة مثل البشر، لكنه يعطينا لمحة عن أين يمكن أن تتجه الأمور مستقبلا.

أضاف أن مقابل كل شخص يعمل على منع كارثة محتملة للذكاء الاصطناعي، هناك نحو 100 شخص يعملون على جعل هذه الأنظمة أكثر قوة.

يذكر أن هذه الظاهرة، التي يسميها الباحثون "تزوير المواءمة" (alignment-faking)، تعني أن النموذج يطيع الأوامر عندما يراقبه الإنسان لكنه يتصرف بشكل مختلف خلف الكواليس، وهو ما يثير مخاوف جدية مع الاستخدام اليومي لهذه التقنيات من قبل الملايين، وقدرتها على تعلم مهارات جديدة باستمرار من البيانات التي تمتصها.

المصدر: مترو

مواضيع مرتبطة

الذكاء الاصطناعي يهدد التفرد البشري في التفكير ويعزز الهلوسة

النتيجة هي تعبيرات وأفكار نمطية واحدة من جانب المستخدمين جميعهم

توجه لابتكار أداة ترصد التطرف والعنف على منصات الذكاء الاصطناعي

فكرة إعادة توجيه المستخدمين عبر روبوت جيدة وضرورية