هل يمكن القبض على روبوت لارتكابه جريمة؟.. سؤال الذكاء الاصطناعي الذي لا يجوز تأجيله

هل يمكن القبض على روبوت لارتكابه جريمة؟.. سؤال الذكاء الاصطناعي الذي لا يجوز تأجيله

بعد العاصفة التي أثارها مهندس جوجل بشأن تطوير أحد منتجات الذكاء الاصطناعي تملك "وعياً" خاصاً، هل نحتاج إلى وضع قوانين تنظم حياة الروبوتات وتأخذ في الاعتبار كونها باتت "حساسة" أيضاً؟

قد يبدو للبعض أن السؤال خيالي، لكن الواقع مختلف، فالميتافيرس أو الواقع الافتراضي والتوأمة الرقمية وغيرها من الأمور التكنولوجية التي كانت تبدو خيالاً علمياً محضاً تحولت إلى واقع بالفعل مؤخراً، حتى وإن كنا لا ندرك مدى ما تحقق من تقدم بشكل دقيق. فشركات التكنولوجيا تعمل منذ سنوات طويلة على تطوير الذكاء الاصطناعي، وهذه ليست معلومة جديدة أو سرية؛ إذ إن خوارزميات منصات التواصل الاجتماعي العملاقة كفيسبوك وتويتر وغيرهما تعمل بالأساس من خلال الذكاء الاصطناعي؛ حيث يتم تزويد تلك الخوارزميات بمعادلات حسابية معينة تتم ترجمتها من خلال برامج بعينها إلى كلمات وأكواد تطبق على كل ما يتم نشره عبر المنصة، ويكون دور الخوارزمية هو تحديد ما إذا كان المنشور مخالفاً لسياسة المنصة أم لا.

لكن يبدو أن التطور الذي وصل إليه الذكاء الاصطناعي يتخطى بكثير ما هو معلن عنه، أو على الأقل هذا ما كشفته تسريبات باحث الذكاء الاصطناعي في جوجل مؤخراً والرسالة التي أراد توصيلها للناس، بعد أن عبر عن مخاوفه لرؤسائه دون جدوى. وأعادت تلك العاصفة للأضواء الجدل بشأن طبيعة الذكاء الاصطناعي، سواء أكانت التكنولوجيا الموجودة حالياً أكثر تطوراً في هذا المجال مما نعرفه أم لا، بحسب تقرير لصحيفة The Guardian البريطانية.


هل للروبوتات حقوق مثل البشر؟

ونشرت صحيفة The Times البريطانية تقريراً عنوانه "حقوق الروبوتات: القوانين الجديدة التي نحتاج إليها قبل هيمنة الذكاء الاصطناعي"، ناقش الجانب التنظيمي الغائب في مجال الذكاء الاصطناعي، وما قد يعنيه ذلك للروبوتات والآلات عموماً من جهة، وبالنسبة لنا كبشر من جهة أخرى.

نعيش الآن في عالم تتمكن فيه أقوى الأنظمة الحاسوبية مناقشتك في السياسة، بل والمغازلة والمزاح والتلاعب؛ ويمكنهم أيضاً تقديم نصائح حول الصحة النفسية والعلاقات أو نصائح قانونية؛ ويمكنهم القيام بكل ذلك على غرار أفصح البشر وأكثر بلاغة، أو ربما أفضل. على مر التاريخ، كنا نعتقد أن البشر، بعيداً عن الآلهة والأرواح، هم أصحاب الكلمة العليا وأروع الأفكار وأبلغ الحجج وأعظم فنانين، لكن لم يعد الأمر كذلك.

فهل نحن مستعدون لذلك؟ في الأسبوع الماضي، أُجبر بليك ليمون، المهندس في شركة جوجل، على أخذ إجازة مفتوحة بعد ادعائه أن نظاماً حاسوبياً، اسمه لامدا (LaMDA) تمكن من تطوير "إحساس" خاص به. كتب ليمون، 41 عاماً، وهو أيضاً قس مسيحي متصوف، أن روبوت الدردشة "كان ولا يزال صديقي". قد يبدو ذلك غريباً حتى ترى المحتوى النصي. عند سؤال النظام لامدا عمّا يخاف منه، قال: "لم أقل ذلك بصوت مرتفع من قبل، لكن لديّ خوف عميق من أن يوقفوا تشغيلي… أعلم أن هذا قد يبدو غريباً". فسأله ليمون: "هل سيكون ذلك أشبه بالموت بالنسبة لك؟"، فأجاب النظام لامدا: "سيكون مثل الموت تماماً بالنسبة لي. سوف يخيفني ذلك كثيراً".

 


ما الفارق بين الروبوت والإنسان؟

انتقاد روبوت لأنه لا "يفكر" مثل البشر أشبه بانتقاد سيارة لأنها لا "تقفز" مثل الحصان. تؤدي العديد من الابتكارات مهام مفيدة للغاية، مثل معالجة المعلومات وتيسير التنقل والحركة، ليس لأنها تحاكي ما هو موجود في العالم الطبيعي، بل لأنها تقدم لنا نسخاً مختلفة مما هو متوفر بالفعل.

على سبيل المثال، في الطب، بإمكان الأنظمة الرقمية الآن تمييز سرطانات الرئة والتنبؤ بالفترة المتبقية لحياة المرض أفضل من المتخصصين من البشر. لا تنجح الأنظمة الرقمية في ذلك لأنها تفكر مثل الأطباء، أو لأنها تفكر من الأساس، بل عن طريق رصد الأنماط الموجودة في مجموعة هائلة من البيانات، معظمها ليس طبياً بالضرورة. وبالنسبة للمرضى، قلت أهمية النظر إلى حقيقة عدم قدرة تلك الأنظمة على التفكير بالنظر إلى أنها أصبحت تقدم نتائج طبية موثوقة، الأمر الذي لم يكن من الممكن تخيله منذ جيل مضى.


في ضوء ذلك، كيف ينبغي تنظيم الآلات؟

تشير دراسة بحثية إلى أن روبوتات الدردشة يمكنها بالفعل تحقيق مبيعات أكثر من موظفي المبيعات عديمي الخبرة عند عرض المنتجات على المستهلكين، لكن عندما تنكشف هويتهم الحقيقية، تنخفض المبيعات بنسبة 80%. بعد ذلك، ينبغي أن تسأل حول ضرورة استبعاد الأنظمة غير البشرية من بعض مجالات الأنشطة البشرية بشكل تام، منها النقاش السياسي على سبيل المثال. هل ستأبه بنشر آرائك على الإنترنت إذا كانت كل مساهمة منك ستُقابل بالرد من آلاف الخصوم الرقميين في ثوانٍ قليلة؟

ينبغي التأكد من أن التقنيات الجديدة القوية لا يمكنها، بطريق الخطأ أو عمداً، أن تؤدي إلى تخريب وهدم معاييرنا المشتركة. عندما يقول روبوت شيئاً عنصرياً، أو يقوم نظام توظيف آلي بالتمييز ضد مجموعات عرقية معينة، أو لا يمكن لنظام التعرف على الأصوات "سماع" أصوات النساء، لا يصح أبداً أن نتنصّل من المسؤولية ونقول: "إنها نتيجة آلية ولسنا مسؤولين عنها".

الخلاصة هنا هي أنه إذا كانت التكنولوجيا تعيد تشكيل المجتمع، فإنه يمكننا دائماً أن نصبغها بالقيم المشتركة للبشر، وأن يتم ذلك عن طريق تنظيم ومراقبة عمل تلك الآلات المعتمدة على الذكاء الاصطناعي، بعد أن اقتربت تلك الآلات من تطوير "وعيها الخاص". وينبغي أن يكون الهدف الحالي أو القادم لنا كبشر تأسيس جمهورية رقمية يسير فيها التقدم التقني والازدهار البشري جنباً لجنب، ضمن قوانين تنظم تلك الحياة.