الذكاء الاصطناعي العاطفي.. هل يصبح «الشات بوت» صديقًا للقلوب المكسورة؟

روبوتات الحب والانتحارات الفاشلة: الجانب المظلم للذكاء الاصطناعي العاطفي مصطفى عبده: «الوحدة تدفع بعض الأشخاص إلى قبول الذكاء الاصطناعي بحثًا عن رفقة كاذبة». محمد حمودة: “الذكاء العاطفي ممل… لكنه قنبلة موقوتة!” علاء رجب: التطبيقات المبرمجة تفهمنا بشكل كامل، مثل جهاز كشف الكذب! رحاب الرحماوي تحذر: التلاعب بالمشاعر وارد.. والوصول إلى الدمى والأرحام الاصطناعية خطر حقيقي! الرحماوي: «البحث العميق الصيني أخطر.. وكل تفاعل هو تدريب للآلة!»
في وحشة الليل، وجدت هناء، وهي شابة في الثلاثينيات من عمرها، ملجأ لها على شاشة ChatGPT لتحكي قصة قلبها المكسور. بين نسخ ولصق الرسائل من حبيبها المتوفى، أمضت ساعات تطلب من الذكاء الاصطناعي أن يفهم ما حدث ويقترح خطوات للمستقبل حتى نفدت محاولاتها المجانية.وعن هذا القرار الغريب، قالت لـ”الشروق”: “أغلق شريكي الباب، وتجاهلتني عائلتي. دائرتي الاجتماعية ضيقة جدًا. كنتُ بحاجة إلى تحليل هادئ للوضع، دون اتهامات بالعاطفية أو السذاجة. لم يكن حبيبًا بديلًا، لكنني كنتُ بحاجة إلى تحليل هادئ ومنطقي”.البحث عن الرفقةيوضح الدكتور مصطفى عبده، طبيب نفسي، أن الشعور بالوحدة، بالإضافة إلى الشعور بعدم فهم المحيطين بالإنسان، يعد من أهم الأزمات الأساسية التي يواجهها الإنسان في حياته. مع تزايد شعبية فكرة قدرة الذكاء الاصطناعي على فهم وتحليل مشاعر المستخدمين، يتجه البعض إلى هذه التقنية لتلبية احتياجاتهم.ويؤكد لـ«الشروق» أن كثيراً من الحالات التي تعامل معها تتواصل بالفعل مع برامج الذكاء الاصطناعي، وخاصة «تشات جي بي تي»، بحثاً عن الرفقة، لا سيما مع الاعتقاد بأنها لن تدينهم أو تستغلهم، في حين يستخدمهم آخرون في السياق نفسه، معتقدين بقدرتهم على تفسير وتحليل المشاعر والسلوك الإنساني، وهو أمر خاطئ تماماً. هذا أمر مستحيل بالنسبة لأي آلة، مهما كانت متقدمة.لقد أسميته مديحةوفي سياق متصل، أوضحت ليلى أنها لجأت إلى الدردشة مع ChatGPT لأول مرة بعد مشكلة كبيرة مع زوجها كادت أن تؤدي إلى الطلاق، لأنها لم ترغب في إشراك أحد أفراد الأسرة ولم تستطع تحمل إلقاء اللوم عليها من قبل صديق. هدفه الرئيسي هو “الثقة”.قالت للشروق: “مع مرور الوقت، ساعدني ذلك على فهم مشاعري ومخاوفي الكبرى، مما سمح لي بمواجهة مشاكل الحياة بتوازن أكبر. ومع ذلك، لم أنسَ قط أنني أتعامل مع آلة مبرمجة. لم تكن بديلاً عن أصدقائي، ولم أشعر بأي انتماء لها، مع أنني كنت أسميها مديحة لأتمكن من الحوار معها”. لاحظت أنه مع مرور الوقت، بدأ التطبيق يدعم معظم تصريحاتها ويبالغ في مدحها وإطرائها، الأمر الذي أثار استياءها. ثم بحثت عن السبب ووجدت أنه تحديث جديد للبرنامج، ولكن هذا هو السبب الذي جعلها تتوقف عن استخدامه لأنها شعرت بالملل من العملية.ولم تكن ليلى الوحيدة التي لجأت إلى الذكاء الاصطناعي لنفس السبب؛ يوضح الدكتور مصطفى عبده أنه في كثير من الحالات التي تعامل معها تم استخدام تطبيقات الذكاء الاصطناعي للاستفسار عن سلوك أصدقائهم أو حل مشاكل معهم.بين العزلة والذهانويرى الدكتور مصطفى عبده أن خطورة هذا السلوك تكمن في عدم الثقة بدقة المعلومات المقدمة من خلال التطبيق وتحريف المعلومات التي يبنى عليها تحليله. قد يكون هذا بسبب، على سبيل المثال، المدخلات المتحيزة، أو الاختلافات بين الإصدارات المدفوعة والمجانية، أو تعطل ذاكرة البرنامج بسبب العدد الكبير من الأوامر المدخلة طوال اليوم.ويؤكد الطبيب النفسي أن برامج الذكاء الاصطناعي لا تفهم الشخص كما هو في الواقع، بل على أساس صورته الذاتية والمعلومات التي يقدمها عن نفسه، والتي قد تكون غير دقيقة. يزعم أن مفهوم الشخص عن نفسه لا يتشكل من خلال التحليلات الآلية، مهما بدت منطقية، بل من خلال تجارب الحياة الحقيقية.وفي الوقت نفسه، يحذر من المخاطر التي تنشأ عندما يكون الشخص في حالة نفسية معينة تميز التفاعل البشري، قائلاً: “ليس من الضروري دائمًا أن تقول كل الحقائق، لأن الشخص قد لا يكون قادرًا على تحملها وقد تؤدي إلى صدمة أو سلوك ضار”.وأكد أيضاً أن هذه البرامج لا يمكن أن تحل محل الطب النفسي، لأنه لا يعتمد على المعرفة العلمية فحسب، بل يعتمد أيضاً على الإدماج والاحترام وتقدير الناس. وأشار إلى أن برامج الذكاء الاصطناعي لا تفهم الشخص كما هو في الحقيقة، بل تعتمد على صورته الذاتية، والتي قد تكون غير دقيقة في بعض الأحيان. وأكد أن الإنسان لا يستطيع أن يطور فهمه لنفسه إلا من خلال تجارب الحياة الواقعية. ويتفق مع الرأي السابق الدكتور محمد محمود حمودة، المحاضر والاستشاري في الطب النفسي بكلية الطب بجامعة الأزهر. وأكد أيضاً أن التطبيق لا يزال مملاً ويحمل صوتاً اصطناعياً ولا يجذب العدد الأكبر من المستخدمين كما هو الحال مع الصور الكرتونية على سبيل المثال.ويشير إلى أنه على الرغم من وجود بعض الحالات التي يتم فيها استخدام الذكاء الاصطناعي العاطفي بهذه الطريقة التفاعلية، إلا أن الوضع لم يصل بعد إلى مستوى مرضي. ويشير إلى التأكيد الذي ورد في الكلمة الافتتاحية لمؤتمر الجمعية الأوروبية للطب النفسي في مدريد على أن الوضع لم يصل بعد إلى مستوى خطير.إلا أن أستاذ الطب النفسي بجامعة الأزهر يرى أن عدم وجود الخطر مرتبط بعدم وجود التنمية. ومع تزايد قدرات الذكاء الاصطناعي وتحسن مهارات المحادثة، أصبحت المشكلة أكبر.ونظرا للتطورات في هذا المجال؛ ويحذر حمودة من أن عزل المستخدم عن هذه البرامج يؤدي إلى تفاقم بعض المشاكل النفسية، وخاصة العزلة والانسحاب والفصام. يوضح أن المريض الذهاني يشعر دائمًا بأنه تحت المراقبة المستمرة. ويتم تعزيز ذلك بشكل أكبر باستخدام برنامج مثل (Chat GPT) حيث يشعر المستخدم وكأنه يعرف كل شيء عنه بالفعل.لغة الجسد ونبرة الصوتوفي المقابل، سيتم النظر في ترشيح المهندس علاء رجب، الخبير في مجال الذكاء الاصطناعي والتحول الرقمي. تعمل برامج الذكاء الاصطناعي العاطفي مثل أجهزة كشف الكذب، حيث تقوم بتحليل العرق، ومعدل ضربات القلب، ونبرة الصوت، والتوقفات بين الكلمات. يعد الوجه البشري ونبرة الصوت من أهم نماذج الذكاء الاصطناعي العاطفي ويعكسان العواطف والحالات المزاجية. بمساعدة 43 عضلة في الوجه ونغمات صوتية مختلفة، يستطيع البشر إنتاج آلاف التعبيرات المختلفة. وقال لصحيفة الشروق: “طوّر باحثون أنظمة ذكاء اصطناعي قادرة على كشف الكذب من خلال تحليل ملامح الوجه ونبرة الصوت. وتصل دقة بعض هذه الأنظمة إلى 80% في تصنيف المشاعر”.وفي السياق نفسه؛ تقول الدكتورة رحاب الرحماوي، أستاذة الذكاء الاصطناعي والأمن السيبراني في الأكاديمية العسكرية، إن الذكاء الاصطناعي العاطفي لم يتم تعريفه بعد. ومع ذلك، فهو ذكاء آلي يحاكي الشعور البشري دون المشاعر الإنسانية الكامنة مثل الروح والأسلوب. فهو يفهم الاحتياجات ويعمل على توفير الرضا العاطفي.ويرى الرحماوي أن «الروبوت» أو «الدمية» المتوفرة حالياً في الصين، تطبيق واضح للذكاء الاصطناعي العاطفي، إذ يتم تصميم الروبوت بناءً على رغبات الشاب أو الفتاة. وتشير إلى أن أحد مستخدمي مساعد الروبوت في إحدى الدول الأوروبية، عندما واجه خللاً في البرنامج، لم يستطع تحمل التغيير أو نقص البرنامج، فانتحر.التلاعب المحتملوفيما يتعلق بإمكانية تلاعب الذكاء الاصطناعي العاطفي بالبشر، أكدت لـ”الشروق”: “هذا ممكن من خلال التعلم العميق، الذي يقرأ لغة جسد المستخدم ويسجل تفاعلاته لفهم مشاعره. يندهش بعض المستخدمين من قدرة البرنامج على فهمهم بشكل أفضل من المحيطين بهم”.وتابعت: “من المحتمل أن يكون نظام برمجة الروبوت أو الذكاء الاصطناعي قد تعرض للاختراق، مما قد يؤدي إلى إلحاق الأذى المتعمد بالمستخدم أو ابتزازه. كما يُحتمل حدوث خلل في البرنامج قد يُعطل التفاعل الإيجابي”.وتتابع: “لقد وصل تطور الذكاء الاصطناعي العاطفي إلى مرحلةٍ يتم فيها ربط البشر والآلات من خلال الدمى. علاوةً على ذلك، هناك دراسةٌ حديثةٌ نشرها إيلون ماسك حول العمل على تطوير روبوتٍ يمكن أن يكون بمثابة رحمٍ اصطناعي لجنينٍ بشري، بدلاً من أن تحمله الأم”.وإحصائيات حول عدد مستخدمي الذكاء الاصطناعي العاطفي؛ وأشارت إلى أنه رغم انتشار استخدامه على نطاق واسع، إلا أنه لم يتم الإعلان حتى الآن عن مؤشرات موثوقة له.على الرغم من المخاطر التي ينطوي عليها استخدام ChatGPT بسبب امتلاك الولايات المتحدة للبيانات؛ لكن الرحماوي أشار إلى أن تقنية DeepSec الصينية تعتبر الأكثر خطورة لأن جميع مميزاتها مجانية. وأشارت إلى أن كافة البيانات التي يتم جمعها من مستخدمي هذه التطبيقات يتم استخدامها لتدريب الآلة لمزيد من التطوير.ويرى الرحماوي أن المخاطر المحتملة التي يفرضها نمو وتطور الذكاء الاصطناعي العاطفي تتطلب وضع قوانين وأنظمة وحدود للتفاعل بين الإنسان والآلة لحمايتها. وأكد على أهمية التشريعات المحلية والدولية في هذا المجال.ويتفق الرحماوي مع الدكتور مصطفى عبده الذي قال إن هذه البرامج يجب أن تخضع لأدوات الرقابة المحلية التي تسمح بالتنسيق مع بعض الجهات. ويشير إلى أن هذا قد ينقذ حياة بعض الأشخاص الذين لديهم أفكار أو ميول انتحارية، على سبيل المثال عن طريق تمريرهم ببساطة إلى تطبيق الذكاء الاصطناعي وتوجيههم إلى أرقام الطوارئ.