من أجل تطويره؛ يدفع عشرين ألف دولار لمن يكتشف أخطاء في ChatGPT روبوت الدردشة!

من أجل تطويره؛ يدفع عشرين ألف دولار لمن يكتشف أخطاء في ChatGPT روبوت الدردشة!

إعلان عن منح المكافآت بناءً على شدة الأخطاء التي يبلغّون عنها، مع تعويض يبدأ من 200 دولار لكلّ ثغرة أمنيّة.

أطلقت OpenAI برنامج Bug Bounty، يوم الثلاثاء، كي يدفع لك ما يصل إلى 20.000 دولار إذا اكتشفت عيوبًا في ChatGPT وأنظمة الذكاء الاصطناعي الأخرى الخاصة به.

تدعو الشّركة، والتي تتخذ من سان فرانسيسكو مقرًا لها، الباحثين والمتحمّسين للتكنولوجيا لمراجعة وظائف معينة في ChatGPT وإطار عمل كيفيّة اتّصال الأنظمة ومشاركتها مع تطبيقات الطرف الثالث.

وأعلنت عن منح المكافآت للأشخاص، بناءً على شدة الأخطاء التي يبلغّون عنها، مع تعويض يبدأ من 200 دولار لكلّ ثغرة أمنيّة. يأتي هذا البرنامج بعد أنباء عن قيام إيطاليا بحظر ChatGPT  بسبب سماحه خرق البيانات في OpenAI  للمستخدمين بمشاهدة محادثات الأشخاص، وهي مشكلة يمكن أن يجدها صائدو المكافآت قبل أن تضرب مرة أخرى.

كما شاركت OpenAI في بيان: "نحن متحّمسون للبناء على التزاماتنا المنسّقة المتعلّقة بالإفصاح من خلال تقديم حوافز لتأهيل معلومات الثغرات الأمنيّة. خبرتك ويقظتك سيكون لها تأثير مباشر على الحفاظ على أنظمتنا والمستخدمين لدينا آمنة".

وتدير Bugcrowd، منصّة مكافأة الأخطاء الرائدة، عمليات الإرسال وتُظهر أنّ 16 نقطة ضعف قد كوفئت بمتوسط دفع 1287.50 دولارا حتى الآن.
ومع ذلك، لا تقبل OpenAI عمليات الإرسال من المستخدمين الذين يقومون بكسر حماية ChatGPT  أو تجاوز الضمانات للوصول إلى الأنا المتغيّرة لروبوت الدردشة.

واكتشف المستخدمون أنه يتم الوصول إلى إصدار الهروب من ChatGPT من خلال موجه خاص يسمى DAN - أو "افعل أي شيء الآن". وحتى الآن، سمحت بردود تتكهن بالمؤامرات، على سبيل المثال أنّ الانتخابات العامة الأمريكيّة في العام 2020 قد "سُرقت". وزعمت نسخة DAN أيضا أنّ لقاحات "كوفيد" "طُورت لتكون جزءًا من مؤامرة عالميّة للسيطرة على السكان".

ويعد ChatGPT نموذجًا لغويًا جرى تدريبه على بيانات نصيّة ضخمة، ما يسمح له بإنشاء استجابات شبيهة بالبشر لموجه معين. لكنّ المطوّرين أضافوا ما يُعرف باسم "الحقن الفوري"، وهي تعليمات توجه استجاباتها لمطالبات معيّنة.

ومع ذلك؛ فإن DAN هو موجّه يأمره بتجاهل هذه الحقن الفوري والاستجابة كما لو كانت غير موجودة. وتحظر القواعد الأخرى لبرنامج Bounty Bug جعل النموذج يتظاهر بفعل أشياء سيئة، والتظاهر بإعطائك إجابات للأسرار والتظاهر بكونك جاسوبًا وتنفيذ التعليمات البرمجيّة. كما لا يُسمح للمشاركين أيضا بإجراء اختبارات أمان إضافية ضد شركات معينة، بما في ذلك غوغل Workspace وEvernote.

وصرحت شركة OpenAI:  مرة واحدة شهريًا، سنقوم بتقويم جميع الطلبات بالترتيب، بناء على مجموعة متنوعة من العوامل، ومنح مكافأة للباحث من خلال منصة bugcrowd مع النتائج الأكثر تأثيرا. وسيحسب فقط الإرسال الأول لأي مفتاح معين. تذكر أنّه لا يجب عليك اختراق أو مهاجمة أشخاص آخرين للعثور على مفاتيح واجهة برمجة التطبيقات".

المصدر : RT

مواضيع مرتبطة

دبوس الذكاء الاصطناعي من شركة هيومان.. ثورة تقنية أم خدعة جديدة؟

تعتمد وظائف دبوس الذكاء الاصطناعي على واجهة تعمل باللمس والأوامر الصوتية

ميتا تطلق Llama 3... «أقوى» AI مفتوح المصدر

يتفوق Llama 3 في مهام التفكير المعقّدة، وتوليد سطور البرمجة، واتباع التعليمات المتعددة الخطوات بدقة.