يسعى مطوّرون في نيوزيلندا إلى ابتكار أداة جديدة قد تتيح مستقبلًا توجيه المستخدمين الذين يُظهرون ميولًا متطرفة وعنيفة على منصات الذكاء الاصطناعي مثل "تشات جي بي تي"، نحو خدمات دعم بشرية أو عبر روبوتات محادثة تهدف إلى إزالة التطرف.
تأتي هذه المبادرة في سياق محاولات متزايدة لمعالجة المخاوف المرتبطة بسلامة استخدام الذكاء الاصطناعي، في ظل تزايد الدعاوى القضائية التي تتهم شركات التقنية بالفشل في منع العنف، بل وحتى المساهمة فيه. وكانت شركة "أوبن إيه آي" قد واجهت تهديدًا بالتدخل من الحكومة الكندية في فبراير/شباط، بعد الكشف عن أن منفّذ إطلاق نار مميت في مدرسة كان قد حُظر من المنصة من دون إبلاغ السلطات.
تعمل شركة "ثرو لاين" (ThroughLine)، وهي شركة ناشئة تعاقدت خلال السنوات الأخيرة مع "أوبن إيه آي" ومنافسيها "أنثروبيك" و"غوغل"، على توجيه المستخدمين المعرّضين لمخاطر مثل إيذاء النفس أو العنف الأسري أو اضطرابات الأكل إلى خدمات دعم متخصّصة، وتسعى حاليًا إلى توسيع نطاق خدماتها لتشمل مكافحة التطرف العنيف، وفق ما أوضحه مؤسسها إيليوت تايلور.
أشار تايلور إلى أن شركته تجري محادثات مع مبادرة "ذا كرايست تشيرش كول" (The Christchurch Call)، التي أُطلقت عقب أسوأ هجوم إرهابي شهدته نيوزيلندا عام 2019، بهدف الاستفادة من خبراتها في مكافحة التطرف، بينما تتولى "ثرو لاين" تطوير روبوت محادثة مخصص للتدخل، وأوضح: "هذا أمر نرغب في التوجّه نحوه وتحسينه، لنتمكن من دعم المنصات بشكل أفضل"، مشيرًا إلى عدم تحديد جدول زمني لإطلاق الأداة حتى الآن.
تدير "ثرو لاين" أعمالها من منزل مؤسّسها في ريف نيوزيلندا، وقد أصبحت جهة مرجعية لشركات الذكاء الاصطناعي بفضل شبكتها التي تضم نحو 1600 خط مساعدة في 180 دولة، تُحدَّث باستمرار. وعند رصد مؤشرات على أزمة نفسية محتملة، تُحوِّل أنظمة الذكاء الاصطناعي المستخدم إلى "ثرو لاين"، التي تربطه بخدمة دعم بشرية متاحة في محيطه الجغرافي.
لكن نطاق عمل الشركة ظلّ محدودًا بفئات محددة، بحسب تايلور، الذي أشار إلى أن انتشار روبوتات المحادثة أدى إلى اتساع نطاق المشكلات التي يبوح بها المستخدمون عبر الإنترنت، بما في ذلك الانجذاب إلى التطرف. ومن المرجّح أن تعتمد الأداة الجديدة على نموذج هجين يجمع بين روبوت محادثة مُدرَّب للتعامل مع مؤشرات التطرف، وإحالة المستخدمين إلى خدمات دعم واقعية، وفق تايلور، الذي شدد على أن تطويرها يجري بالتعاون مع خبراء مختصين، وليس اعتمادًا على بيانات تدريب عامة. ولا تزال التقنية قيد الاختبار، من دون تحديد موعد لإطلاقها.
من جهته، أعرب غالين لامفير-إنغلاند، المستشار في شؤون مكافحة الإرهاب لدى "ذا كرايست تشيرش كول"، عن أمله في طرح الأداة لمشرفي المنتديات الإلكترونية، ولا سيما الخاصة بالألعاب، وكذلك للآباء ومقدمي الرعاية الراغبين في الحد من التطرف عبر الإنترنت.
اعتبر هنري فريزر، الباحث في الذكاء الاصطناعي بجامعة كوينزلاند للتكنولوجيا، أن فكرة إعادة توجيه المستخدمين عبر روبوت محادثة "جيدة وضرورية"، لأنها تعترف بأن المشكلة لا تقتصر على المحتوى، بل تشمل أيضًا طبيعة العلاقات والتفاعلات. ورأى أن نجاح الأداة سيتوقف على جودة آليات المتابعة، ومدى فاعلية الأنظمة والخدمات التي يُحال إليها المستخدمون في معالجة المشكلة.
أشار تايلور إلى أن خصائص المتابعة، بما في ذلك احتمال إبلاغ السلطات بالمستخدمين الخطرين، لا تزال قيد الدراسة، مع الأخذ في الاعتبار مخاطر تصعيد السلوك. وأضاف أن الأشخاص الذين يمرّون بأزمات غالبًا ما يشاركون أمورًا عبر الإنترنت يعجزون عن البوح بها وجهًا لوجه، محذّرًا من أن الضغط على المنصات لقطع التواصل مع هؤلاء المستخدمين قد يؤدي إلى تفاقم المخاطر.
أظهرت دراسة صادرة عام 2025 عن مركز "ستيرن" للأعمال وحقوق الإنسان في جامعة نيويورك أن تشديد الرقابة على المحتوى المرتبط بالتطرف دفع بعض المتعاطفين إلى الانتقال نحو منصات أقل تنظيمًا مثل "تيلغرام".
ختم تايلور بالقول: "إذا تحدّث شخص إلى الذكاء الاصطناعي وكشف أزمته، ثم جرى إغلاق المحادثة، فلن يعلم أحد بذلك، وقد يبقى من دون دعم".
العربي الجديد
النتيجة هي تعبيرات وأفكار نمطية واحدة من جانب المستخدمين جميعهم
هذه الظاهرة يسميها الباحثون "تزوير المواءمة" (alignment-faking)
أصبح الروبوت مسارا لتلقي الدعم العاطفي

2026 © جميع الحقوق محفوظة لموقع أمان الأطفال