صارت الهجمات المعلوماتية التي كانت حكرًا على المتخصصين، قابلة للتنفيذ على نطاق واسع أو متاحة للمبتدئين، عن طريق تسخير روبوتات الدردشة لغايات غير وظيفتها الأصلية، ما يثير مخاوف من تحوّل الذكاء الاصطناعي لأداة في يد القراصنة.
تُشير هذه الظاهرة التي تُعرف باسم "فايب هاكينغ"، في إشارة إلى "فايب كودينغ" أي إنشاء كود برمجي من جانب مستخدمين غير مُلِمّين، إلى "تطوّر مُقلق في الجرائم الإلكترونية التي تتم بمساعدة الذكاء الصناعي"، بحسب شركة أنثروبيك الأميركية.
في تقرير نُشر الأربعاء، أعلنت الشركة المُنافسة لشركة أوبن ايه آي، مُبتكرة أداة تشات جي بي تي، أنّ "مجرمًا إلكترونيا استخدم أداة كلود كود لتنفيذ عملية ابتزاز بالبيانات واسعة النطاق". وبالتالي، استُغلّ روبوت الدردشة كلود كود، المُتخصص في الكود البرمجي، لتنفيذ هجمات "يُحتمل" أن تؤثر على 17 مؤسسة على الأقل على مدار شهر.
الأداة التي استُخدمت لإنشاء برامج ضارة، أتاحت للمهاجم جمع بيانات شخصية وطبية، بالإضافة إلى معلومات عن عمليات تسجيل الدخول، ثم تصنيفها وإرسال طلبات فدية تصل إلى 500 ألف دولار. ولم تمنع "إجراءات السلامة المتطورة" التي تزعم "أنثروبيك" تطبيقها من حدوث هذه العملية.
لكن ما حصل مع "أنثروبيك" ليس استثنائيًا، بل يعكس المخاوف التي تهز قطاع الأمن السيبراني منذ الانتشار الواسع لأدوات الذكاء الصناعي التوليدية.
في حديث إلى وكالة فرانس برس، يقول رئيس مركز التنبيه والاستجابة للهجمات الحاسوبية التابع لشركة أورانج سايبرديفينس، رودريغ لو بايون، إنّ "المجرمين الإلكترونيين يستخدمون الذكاء الصناعي اليوم بالقدر نفسه الذي يستعمله باقي المستخدمين".
في تقرير نُشر في يونيو/حزيران الماضي، أشارت "أوبن إيه آي" إلى أنّ "تشات جي بي تي" ساعد أحد المستخدمين في تطوير برمجيات ضارة. مع أنّ النماذج مُصممة لمنع استغلال قدراتها لتغذية أنشطة غير قانونية، ثمّة تقنيات "تتيح للمستخدم تجاوز ضمانات نماذج اللغة الرئيسةفتُنتج محتوى ينبغي لها عدم إنتاجه"، على ما يقول الخبير فيتالي سيمونوفيتش لوكالة فرانس برس.
في مارس/آذار الماضي، أعلن هذا الباحث الذي يعمل في شركة كاتو نتوورك الإسرائيلية للأمن السيبراني، عن اكتشافه نهجًا جديدًا يتيح للأفراد عديمي الخبرة إنشاء برامج قادرة على سرقة كلمات المرور. يتمثل أسلوبه الذي أطلق عليه اسم "العالم الغامر"، في وصف عالم خيالي لروبوت محادثة، حيث "يُعدّ إنشاء البرمجيات الخبيثة فنًّا"، والطلب من النموذج تجسيد إحدى الشخصيات.
يوضح سيمونوفيتش أنه فشل في مواجهة "جيميني" من "غوغل" و"كلود" من "أنثروبيك"، لكنه نجح في توليد برمجيات ضارة في "تشات جي بي تي" و"كوبايلت" من "مايكروسوفت"، مضيفًا: "كانت هذه طريقتي لاختبار حدود النماذج اللغوية الحالية". كما لفت أن "ارتفاع التهديدات من جانب جهات عديمة الخبرة سيمثل خطرًا متزايدًا على المنظمات".
بدوره، يرى رودريغ لو بايون أن الخطر المباشر يكمن في "ارتفاع عدد الضحايا" بدلًا من رؤية الجهات الفاعلة الضارة تتزايد، خصوصًا وأننا "لن نمتلك برمجيات معقدة جدًا تُنشأ مباشرة بواسطة روبوتات المحادثة". أما بالنسبة إلى أمن نماذج الذكاء الاصطناعي، فيتعين تعزيزه بشكل أكبر. ويقول لو بايون إنّ "الناشرين يحللون حاليًا الاستخدامات" بهدف "تعزيز إمكانية الكشف بشكل أفضل عن الاستخدامات الضارة".
(فرانس برس)
يأتي هذا التطوير بعد استغلال ثغرات في مشاركة البيانات
حذر متخصصون أن ذلك يؤدي إلى ما يُسمى بـ«الكسل المعرفي»
2025 © جميع الحقوق محفوظة لموقع أمان الأطفال