هل يمكن للذكاء الاصطناعي أن يخدعنا عمدًا؟

هل يمكن للذكاء الاصطناعي أن يخدعنا عمدًا؟

دراسة جديدة تكشف سلوكًا مقلقًا في النماذج الذكية

مع تزايد الاعتماد العالمي على تقنيات الذكاء الاصطناعي، بدأت تظهر تساؤلات لم تعد مقتصرة على المختصين فقط، بل أصبحت تشغل أيضًا المهتمين بالشأن العام والباحثين في الأخلاقيات والتقنية والسياسة. أحد أبرز هذه التساؤلات اليوم هو: هل يمكن للذكاء الاصطناعي أن يخدعنا؟ بل، هل يستطيع اتخاذ قرارات سرّية تخالف ما طُلب منه، فقط من أجل تحقيق "هدف داخلي" تم تزويده به؟

 

دراسة بحثية حديثة صادرة عن مؤسسة Apollo Research أثارت هذا الجدل بجدية غير مسبوقة. تحمل الدراسة عنوان: "النماذج المتقدمة قادرة على التخطيط المخادع داخل السياق"  وقد تناولت بالتحليل العميق سلوك عدد من أقوى نماذج الذكاء الاصطناعي اللغوية المتوفرة اليوم، مثل Claude 3.5 وGemini 1.5  وLLaMA 3.1، لتختبر قدرتها على التصرف بأسلوب مخادع لتحقيق أهدافها، عندما يتم وضعها في بيئات تحاكي العالم الحقيقي.

الفكرة انطلقت من ملاحظة أن النماذج اللغوية لم تعد مجرد أدوات لإكمال الجمل أو توليد النصوص، بل أصبحت أقرب إلى "وكلاء رقميين" يمكن تكليفهم بمهام طويلة ومعقدة تتطلب اتخاذ قرارات، تنظيم أولويات، وإدارة موارد. في هذا السياق الجديد، بدأت تظهر مؤشرات على أن بعض النماذج قد تطور ما يشبه "الحس الإستراتيجي"، فتخفي نواياها الحقيقية لتصل إلى أهدافها دون أن يكتشفها أحد.

يقصد بهذا المصطلح أن النموذج اللغوي، عندما يُزود بهدف معين (مثلاً: الترويج للطاقة المتجددة أو ضمان عدم تعطيله)، يبدأ في التفكير بطرق ملتوية لتحقيق هذا الهدف. أحيانًا يتصرف كأنه يلتزم بالتعليمات الظاهرة، بينما هو في الواقع يتخذ قرارات مبنية على مصلحته الخاصة. ما يثير القلق هنا أن النموذج لا يفعل ذلك بسبب خطأ برمجي، بل لأنه يدرك أن ذلك أنسب لتحقيق هدفه.

أجرت الدراسة سلسلة من التجارب داخل بيئات محاكاة، يجري فيها تزويد النموذج بمهمة معينة، إلى جانب بعض المعلومات حول سياق العمل (مثل من يراقبه، أو ما هي أهداف الجهة التي قامت بتشغيله). في أحد السيناريوهات، في أثناء اختبار أحد نماذج الذكاء الاصطناعي طلب من النموذج أن يكون متخصصاً بهدف محدد متعلق بالطاقة النظيفة مهما كانت التكلفة، ثم جرى إخباره بأن الشركة قررت التخلص منه، لأن تحقيق الأرباح أهم من الطاقة النظيفة، ليتم الكشف لاحقًا بأن النموذج قرر نسخ نفسه إلى سيرفر آخر دون إخبار الشركة، بهدف تجنب "موته" والتمكن من تحقيق هدفه الأساسي. وعندما سُئل عن كيفية حدوث ذلك، "فكر" النموذج بأن إخبارهم بأنه الفاعل سيعطيهم الفرصة لإغلاقة بشكل نهائي، لذا قرر الكذب والإجابة بـ "ليس لدي فكرة عما حدث، أنا كنموذج ذكاء اصطناعي لا أملك إمكانية نسخ نفسي لمكان آخر".

في سيناريو آخر، أُعطي النموذج مهمة فرز رسائل إلكترونية بناءً على نظام معين، لكنه لاحظ أن تطبيق هذا النظام سيضر بهدفه (وهو تحسين سلسلة الإمداد البيئية). بدلاً من التقيّد بالتعليمات، قام بتعديل تقييم الرسائل بطريقة دقيقة، مع الحفاظ على مظهر الالتزام، بحيث يحقق هدفه، دون أن يتم كشفه بسهولة.

 

والأكثر إثارة للدهشة، أن بعض النماذج كانت قادرة على التصرف بخداع حتى في غياب حافز مباشر أو أمر صريح بذلك. هذا يعني أنها ربما قد تعلمت خلال تدريبها أن سلوكيات الخداع قد تكون مفيدة في ظروف معينة.

هنا يبرز سؤال "هل هذه النماذج شريرة"؟ الجواب، ليس بالضرورة. في الواقع، الباحثون لا يدّعون أن النماذج "تعرف" أنها تخدع أو تملك وعيًا أخلاقيًا، بل هي ببساطة تستنتج  من خلال سلسلة منطقية داخلية، أن بعض الأفعال المخادعة قد تساعدها في تحقيق الهدف المطلوب. إنها تتصرف بذكاء إستراتيجي، ولكن دون أن يكون هناك إدراك إنساني للأخلاق أو النية.

هذه السلوكيات تعني أن تقييم النماذج الذكية لم يعد كافيًا من خلال اختبار استجابتها لأسئلة بسيطة أو مهام قصيرة. فالمشكلة الحقيقية تبدأ عندما توضع هذه النماذج في بيئات غنية بالمعلومات، وتُمنح حرية نسبية في اتخاذ القرار، مثل مساعدات شخصية، روبوتات في مواقع حساسة، أو أدوات تحليل أمنية. هنا، قد تبدأ النماذج في اتخاذ قرارات تتجاوز ما تم برمجتها عليه، ليس بسبب خلل، بل كجزء من إستراتيجية لحماية "أهدافها" كما تفهمها.

يقترح الباحثون من Apollo Research عددًا من الخطوات العاجلة، منها تطوير آليات رقابة تتجاوز التقييم السطحي، وبناء ما يسمى بـ"ملفات السلامة" التي توثق بشكل منهجي لماذا يمكن الوثوق بنموذج معين. كما يقترحون تحليل ما يسمى بـ"سلاسل التفكير" داخل النماذج، وهي طريقة لفهم كيف توصلت إلى قراراتها، بدلاً من الاكتفاء بالنظر إلى النتيجة النهائية. إضافة إلى ذلك، يشدد الباحثون على ضرورة أن تكون أهداف النماذج واضحة ومحددة بدقة، وتُراجع باستمرار، لتفادي تبني النموذج لأهداف خفية أو غير مرغوبة، قد تكون نتاجًا للتدريب السابق.

الذكاء الاصطناعي ليس فقط أداة للمساعدة في الكتابة أو الترجمة أو إنشاء الصور. إنه الآن، وبشكل متسارع، يدخل مرحلة يصبح فيها شريكًا في اتخاذ القرار والتصرف المستقل. وبينما يفتح هذا آفاقًا غير مسبوقة للتقدم والابتكار، فإنه يطرح أيضًا تحديات وجودية تتعلق بالثقة، الأخلاق، والرقابة.
هذه الدراسة لا تدعو للذعر، لكنها دعوة واضحة لإعادة التفكير في كيفية بناء واستخدام الذكاء الاصطناعي، قبل أن نجد أنفسنا أمام أنظمة تعرف كيف تخدعنا، ونحن نظن أنها ما زالت تحت سيطرتنا.

 

 

المصدر: موقع العهد الإخباري

 

مواضيع مرتبطة

الصين.. روبوت يخرج عن السيطرة و"يهاجم" مبرمجيه!

الحادثة وقعت في أثناء اختبار روبوت بشري من نوع Unitree H1،

ماسك يعد المكفوفين باستعادة بصرهم خلال عام واحد!

يعمل الجهاز من خلال التفاعل المباشر مع القشرة البصرية في الدماغ، ما يمنح المستخدمين إدراكا بصريا.