في عام 1950، طرح عالم الرياضيات آلان تورينغ سؤاله الشهير: "هل يمكن للآلة أن تفكر؟". واليوم، بينما يقف العالم في قلب الثورة الصناعية الرابعة، يجد الإنسان نفسه أمام سؤال أكثر تعقيدا: "هل يمكن للآلة أن تشعر؟".
تقنيا، نحن نعيش في عصر "الحوسبة العاطفية" (Affective Computing)، وهو المجال الذي يسعى لسد الفجوة بين منطق الأرقام الصارم وسيولة العواطف البشرية.
يعتمد الذكاء الاصطناعي في تحليل المشاعر على تحويل الحالات النوعية (Qualitative States) إلى قيم كمية (Quantitative Values). وتتم هذه العملية عبر 3 طبقات تقنية رئيسية، هي:
1- الرؤية الحاسوبية (Computer Vision): تستخدم الشبكات العصبية التلافيفية (CNNs) لتحليل ملامح الوجه، حيث يتم تقسيم الوجه إلى نقاط مرجعية تقيس المسافات بين زوايا العين والفم بالبكسل، ومقارنتها بقواعد بيانات ضخمة مثل (AffectNet) لتصنيف التعبير.
2- معالجة اللغات الطبيعية (NLP): باستخدام نماذج المحولات (Transformers)، يتم تحليل السياق وآليات الانتباه لتقدير الشحنة العاطفية للنص، والتمييز بين الجد والتهكم.
3- تحليل النبرة الصوتية (Acoustic Analysis): يتم تحويل الصوت إلى صور طيفية (Spectrograms) لتحليل التردد والشدة، فالتوقفات الطويلة والترددات المنخفضة قد تصنف خوارزميا كمؤشرات اكتئاب.
وبعد مرحلة "الفهم"، تأتي مرحلة "الاستجابة"، فالمعالج الرقمي مصمم ليكون مرآة. وتقنيا، يسمى هذا توليد اللغة الطبيعية المشروط (Conditional NLG)، فعندما يكتشف النظام حزنا، فإنه يضبط معلوماته لاختيار كلمات أكثر ليونة ونبرة أهدأ.
والآلة هنا لا تتعاطف لأنها تشعر بالألم، بل لأن دالة الهدف (Objective Function) في خوارزميتها تفرض عليها تقليل المسافة الرياضية بين ردها وبين الرد المثالي لمعالج بشري، وهي عملية تحسين (Optimization) وليست تجربة وجدانية.
تكمن الفجوة التقنية الكبرى فيما يسميه الفلاسفة "الكواليا" (Qualia)، وهي التجربة الذاتية البحتة للفرد. فالذكاء الاصطناعي يفتقر إلى "الجسد" (Embodiment)، والمشاعر البشرية ليست مجرد أفكار، بل هي تفاعلات كيميائية وهرمونية (أدرينالين، كورتيزول) مرتبطة بالبقاء. أما الآلة فهي قادرة على الربط بين بكاء المستخدم وحاجته للمواساة، لكنها لا تملك الوعي السببي. فهي تعرف أن الفقد يُصنف كحزن، لكنها لا تدرك مرارة الفقد لأنها لا تموت ولا تحب.
هذا الأمر يطرح سؤالا جديدا على الإنسان، لماذا ينجح الذكاء الاصطناعي كطبيب نفسي أولي إذا؟
ونجد أن الإجابة تكمن في أنه على الرغم من برودة الكود، إلا أن الذكاء الاصطناعي يتفوق في جوانب محددة. وهي:
تحليل البيانات الضخمة: يمكنه مراقبة تغيرات طفيفة في "البصمة الرقمية" (ساعات النوم، سرعة الكتابة) على مدار أشهر، وهو ما قد يفوت على الطبيب البشري.
الاستمرارية والحياد: الخوارزمية لا تصاب بـ"الإرهاق العاطفي"، وهي متاحة في الثالثة فجرا مثلا، وتقدم مساحة خالية من الأحكام الأخلاقية، مما يشجع المستخدمين على الإفصاح عن أسرارهم.
وبمجرد أن تتحول الآلة إلى كيان "يفهمنا"، نواجه مخاطر نفسية جسيمة، تكمن في غالب الأمر في:
1- تأثير إليزا (ELIZA Effect): ميل البشر لنسب وعي ومشاعر للآلة لمجرد أنها تحاكي لغتهم، مما قد يؤدي إلى عزلة اختيارية وتفضيل العلاقة مع الآلة المثالية على العلاقات البشرية المعقدة.
2- التلاعب العاطفي: بما أن الشركات هي من تدير هذه الأنظمة، هناك خطر من استغلال الثغرات العاطفية للمستخدمين لأهداف تجارية أو توجيهية.
3- المسؤولية القانونية: تظل معضلة تقديم نصيحة خاطئة في لحظة يأس حاد قائمة، فمن يحاسب الخوارزمية على الضرر النفسي؟
وهنا يؤكد الخبراء على أن الذكاء الاصطناعي في الطب النفسي هو أداة "سيبرانية"، وامتداد لقدرات الطبيب وليس بديلا عن روحه، فهو يعتبر مثل "ترموميتر" عاطفي ممتاز يقيس الحرارة بدقة، لكنه لا يمرض معك.
وهذا يعني أن الوعي البشري سيبقى هو المنطقة التي لا يمكن اختزالها في "كود" برمجي، لأن العلاج الحقيقي ليس مجرد حل لمشكلة، بل هو مشاركة في عبء الوجود، وقدرة على تبادل المشاعر.
المصدر: مواقع إلكترونية

2026 © جميع الحقوق محفوظة لموقع أمان الأطفال