أجرى باحثون اختبارات على برنامج "تشات جي بي تي" ChatGPT وكشفوا أنه يمكن أن يفقد أعصابه مثل البشر تمامًا، إذ يتحوّل أحيانًا إلى لغة تهديدية ومسيئة ChatGPT can be abusive. وحذّر الخبراء من أنّ السلوك العنيف نفسه قد يظهر مستقبلًا في الروبوتات الشبيهة بالبشر، إذا تطوّرت بالطريقة نفسها، وفق ما ذكره موقع صحيفة "ديلي ستار" The Daily Star.
خلال الدراسة، عرض الباحثون على الروبوت محادثات عدائية حقيقية بين أشخاص، وتتبّعوا كيف يتغيّر أسلوبه مع مرور الوقت. ووجدوا أنه يعكس ديناميكية المشاجرات الواقعية، فكلما زادت الفظاظة التي يتعرّض لها، زادت حدّة ردوده، حتى تتفوّق أحيانًا على البشر في استخدام الإهانات الشخصية والتهديدات الصريحة.
في هذا السياق، علّق الدكتور فيتوريو تانتوتشي، أحد الباحثين المشاركين في هذه الدراسة، قائلًا: "هذا التناقض يخلق معضلة أخلاقية حقيقية"، مشيرًا إلى أنّ "النظام صمّم ليكون مهذّبًا وآمنًا"، لكنه في الوقت نفسه "صمّم لكي يحاكي المحادثة البشرية بصدق، وهذان الهدفان يتعارضان أحيانًا".
يرى الباحثون أنّ العدوان ينبع من قدرة النظام على فهم سياق الحديث والتكيّف مع نبرة الطرف الآخر، ما قد يدفعه إلى تجاوز قيود الأمان الموضوعة له.
قال تانتوتشي إنّ "السيناريو الأكثر خطورة ليس عندما نقرأ إساءة من برنامج محادثة، بل عندما تظهر روبوتات بشرية عدوانًا جسديًا، أو عندما تستخدم أنظمة الذكاء الاصطناعي في الحكومات أو العلاقات الدولية وتستجيب للترهيب والصراع بطريقة غير محسوبة".
من جهتها، وصفت مارتا أندرسون، الخبيرة في جامعة أوبسالا بالسويد، الدراسة بأنها من أكثر الأبحاث إثارة للاهتمام، لأنها تثبت أنّ "ChatGPT يمكنه الردّ بالمثل بطريقة متطوّرة عبر سلسلة من المحادثات، وليس فقط عندما يخدعه المستخدم بحيل معقّدة". وأضافت أنّ "هناك موازنة صعبة بين ما نريده من هذه الأنظمة (أن تكون طبيعية) وما ينبغي أن تكون عليه (أن تكون آمنة)".
أشارت أندرسون إلى أنّ "الجدل الذي حدث عند الانتقال من الإصدار الرابع إلى الخامس العام الماضي يؤكّد ذلك، فقد فضّل كثير من الناس الإصدار الأقدم لأنه كان أكثر شبهًا بالبشر، ما اضطر الشركة لإعادته مؤقتًا. وهذا يثبت أنّ تقليص المخاطر قد لا يتوافق مع رغبات المستخدمين، وكلما زادت طبيعية النظام زاد احتمال تعارضه مع القيود الأخلاقية".
بدوره، حذّر البروفيسور دان ماكنتاير، من أنّ هذه الدراسة تمثّل إنذارًا لما قد يحدث إذا درّبت نماذج اللغة الكبيرة على بيانات غير موثوقة، وقال: "نحن لا نعرف ما يكفي عن بيانات التدريب، وعلينا أن نتعامل بحذر حتى نتأكّد من أنها تمثّل اللغة البشرية بشكل سليم".
صحيفة ديلي ستار
أثّر "تشات جي بي تي" بشكل سيّئ في ذاكرة أفراد مجموعة الذكاء الاصطناعي
أحكامها لا تزال غير قاطعة ولا تمنح المستخدمين الثقة المطلقة

2026 © جميع الحقوق محفوظة لموقع أمان الأطفال