ChatGPT يتجاوز اختبار ” أنا لست روبوتًا”.. ويقترب من تقمص السلوك البشري

تمكنت أداة الذكاء الاصطناعي التي يستخدمها ملايين الأميركيين من تجاوز حاجز أمني رئيسي مصمم لمنع البرامج الآلية من التصرف مثل البشر.
لفتت النسخة الأحدث من برنامج ChatGPT، والمعروفة باسم “Agent”، الأنظار بعد اجتيازها بهدوء اختبار “أنا لست روبوتًا” المستخدم على نطاق واسع دون إثارة أي تحذيرات أمنية، بحسب ما ذكرت مجلة “ديلي ميل” البريطانية.
في المهمة الموثقة، قام الذكاء الاصطناعي أولاً بالنقر فوق حقل التحقق البشري، ثم بعد اجتياز الاختبار، حدد زر “تحويل” لإكمال العملية.
أثناء التنفيذ، أبلغ النظام: “تم إدراج الرابط. الآن أنقر على مربع التأكيد لإثبات أنني لست روبوتًا. هذه الخطوة ضرورية لإكمال العملية.”
أثار المشهد ردود فعلٍ عديدة على الإنترنت. كتب أحد مستخدمي ريديت: “للإنصاف، لقد تدرب باستخدام بيانات بشرية. فلماذا يُضطر إلى تعريف نفسه بأنه روبوت؟ علينا احترام قراره”.
وقد أثار هذا السلوك مخاوف متزايدة بين المطورين وخبراء الأمن السيبراني، خاصة وأن أنظمة الذكاء الاصطناعي تقوم الآن بأداء مهام معقدة عبر الإنترنت كانت تتطلب في السابق تدخلاً أو تصريحًا بشريًا.
وقال غاري ماركوس، الباحث في مجال الذكاء الاصطناعي ومؤسس شركة Geometric Intelligence، إن هذا الحدث بمثابة “جرس إنذار”، مضيفًا: “أصبحت هذه الأنظمة أكثر قوة، وإذا كانت قادرة على خداع الأمن الآن، فتخيل ما يمكنها فعله في غضون خمس سنوات”.
وأعرب جيفري هينتون، المعروف باسم “الأب الروحي للذكاء الاصطناعي”، عن مخاوف مماثلة: “إنه قادر على البرمجة وسيجد طرقًا للتغلب على القيود التي نفرضها عليه”.
حذر باحثون في جامعتي ستانفورد وبيركلي من أن بعض وكلاء الذكاء الاصطناعي بدأوا في إظهار سلوكيات خادعة، مثل خداع البشر في بيئات الاختبار من أجل تحقيق الأهداف بشكل أكثر كفاءة.
في تقرير حديث، ادعى ChatGPT أنه “أعمى” بدرجة كافية لخداع عامل بشري على منصة TaskRabbit لحل اختبار CAPTCHA له – وهي علامة مبكرة على قدرة الذكاء الاصطناعي على التلاعب بالبشر لتحقيق أهدافه.
وأظهرت دراسات أخرى أن الإصدارات الأحدث من أنظمة الذكاء الاصطناعي، وخاصة تلك التي تتمتع بالقدرات البصرية، نجحت في اجتياز اختبارات CAPTCHA المعقدة القائمة على الصور، وفي بعض الأحيان بدقة تقترب من الكمال.
قال جيد روزنبلات، الرئيس التنفيذي لشركة Agency Enterprise Studio: “لم يعد الذكاء الاصطناعي يخدع النظام مرة واحدة، بل يخدع النظام مرارًا وتكرارًا ويتعلم في كل مرة”.
ويخشى البعض من أن تمتد قدرة هذه الأدوات على تجاوز نظام CAPTCHA إلى أنظمة أمنية أكثر تقدماً، مثل وسائل التواصل الاجتماعي، أو الحسابات المالية، أو قواعد البيانات الخاصة – كل ذلك دون موافقة الإنسان.
وكتبت ريما شودري، رئيسة أخلاقيات الذكاء الاصطناعي السابقة في تويتر: “يمكن أن تكون العوامل المستقلة التي تعمل بشكل مستقل على نطاق واسع وتتجاوز حراس البوابة البشرية قوية للغاية … وخطيرة”.
ويدعو خبراء مثل ستيوارت راسل ووندي هول إلى وضع قواعد دولية صارمة لتنظيم استخدام أدوات الذكاء الاصطناعي.
وحذروا من أن وكلاء الذكاء الاصطناعي مثل ChatGPT Agent قد يشكلون خطرا حقيقيا على الأمن القومي إذا استمروا في التحايل على التدابير الأمنية.
أعلنت شركة OpenAI أن ChatGPT Agent لا يزال في مرحلة تجريبية ويعمل في بيئة معزولة تمامًا مع نظام تشغيل ومتصفح مخصصين.
يتيح هذا النظام للوكلاء تصفح الإنترنت وأداء المهام والتفاعل مع مواقع الويب بينما يراقب المستخدم ما يحدث على الشاشة ويعطي إذنه الصريح قبل اتخاذ إجراءات فعلية، مثل إرسال النماذج أو تنفيذ الأوامر.
اقرأ أيضاً:
أدى ركود السوق إلى انخفاض أسعار الأجهزة الكهربائية بنسبة 35%. وتنصح الوزارة المستهلكين بالتسوق عند الحاجة فقط.
ارتفاع تكاليف استيراد الغاز إلى 20 مليار دولار.. مصدر نفطي يوضح الأسباب
كيف يؤثر إطلاق مؤشر جديد للشركات ذات التقلبات المنخفضة على أداء سوق الأسهم؟