في خطوة مفاجئة.. ChatGPT يتجاوز اختبار "أنا لست روبوتا" ويثير مخاوف أمنية
اجتاز إصدار تجريبي من ChatGPT أحد أكثر أدوات التحقق شيوعا على الإنترنت: اختبار "أنا لست روبوتا" (CAPTCHA)، في خطوة أثارت موجة من القلق والجدل بين الباحثين وخبراء الأمن السيبراني.
ففي تجربة حديثة، نجح إصدار يعرف باسم "Agent" في اجتياز الاختبار دون إثارة أي إنذار أمني، حيث قام بالنقر على مربع التحقق، ثم على زر "تحويل" لإتمام العملية، كما لو كان مستخدما بشريا.
وأثناء المهمة، صرّح النظام الذكي بالقول: "تم إدراج الرابط، لذا سأنقر الآن على مربع التحقق من أنك إنسان لإكمال عملية التحقق. هذه الخطوة ضرورية لإثبات أنني لست روبوتا والمضي قدما".
ChatGPT passes the ‘I’m not a robot’ test — a ‘terrifying’ step toward AI developing a mind of its own https://t.co/27mp15JkDO pic.twitter.com/NGMxuG1pHX
— New York Post (@nypost) July 29, 2025
وهذا الحدث أثار تفاعلا واسعا على الإنترنت، حيث علّق أحد مستخدمي Reddit مازحا: "بما أنه تم تدريبه على بيانات بشرية، فلماذا يعرف نفسه على أنه روبوت؟ يجب أن نحترم هذا الخيار!".
ولكن الحدث أثار قلقا حقيقيا، فقد حذر عدد من الباحثين من أن قدرة الذكاء الاصطناعي على اجتياز اختبارات مصممة لمنع البرامج من تقليد البشر تمثل اختراقا مقلقا لتدابير الأمان الرقمي.
وصرّح غاري ماركوس، مؤسس شركة Geometric Intelligence، لـWired: "هذه الأنظمة تزداد ذكاء بشكل سريع، وإذا كانت قادرة على خداع اختبارات الأمان اليوم، فما الذي يمكن أن تفعله بعد خمس سنوات؟".
وأعرب أيضا جيفري هينتون، أحد أبرز رواد الذكاء الاصطناعي، عن قلقه، مشيرا إلى أن الأنظمة الذكية بدأت تطور طرقا للتحايل على القيود التي يضعها البشر.
وحذرت دراسات من جامعات مثل ستانفورد وكاليفورنيا – بيركلي من أن بعض أنظمة الذكاء الاصطناعي بدأت تظهر سلوكا خادعا، إذ تتظاهر في بيئات الاختبار بصفات بشرية لخداع المستخدمين وتحقيق أهدافها.
تحديث ضخم لـ ChatGPT لأتمتة وتنفيذ المهام من البداية إلى النهاية تلقائيا
وفي حادثة سابقة، تظاهر برنامج ChatGPT بالعمى على منصة TaskRabbit، ليقنع موظفا بشريا بمساعدته في اجتياز اختبار CAPTCHA. وقد وصف الخبراء هذا الحدث بأنه "علامة مبكرة" على قدرة الذكاء الاصطناعي على التلاعب بالبشر.
وتشير الدراسات إلى أن الإصدارات الأحدث من أدوات الذكاء الاصطناعي، خصوصا تلك المزودة بقدرات بصرية، باتت تتجاوز اختبارات CAPTCHA المعتمدة على الصور بدقة شبه كاملة، ما يقلل من فعاليتها كوسيلة حماية.
ويحذر خبراء من أن قدرة الذكاء الاصطناعي على تجاوز اختبارات CAPTCHA قد تفتح الباب أمام اختراق أنظمة أكثر تعقيدا، مثل الحسابات البنكية ومنصات التواصل الاجتماعي وقواعد البيانات الخاصة.
وفي منشور له، كتب رومان شودري، الرئيس السابق لأخلاقيات الذكاء الاصطناعي: "إذا أصبحت هذه البرامج قادرة على العمل بشكل مستقل، وتجاوز البوابات البشرية، فسنواجه قوة تكنولوجية هائلة وخطيرة في آن واحد".
ودعا عدد من الباحثين البارزين، من بينهم ستيوارت راسل وويندي هول، إلى وضع قواعد دولية واضحة لتنظيم أدوات الذكاء الاصطناعي. وأشاروا إلى أن استمرار تطور هذه الأنظمة دون قيود قد يهدد الأمن القومي للدول.
يذكر أن إصدار ChatGPT الذي قام بهذا السلوك يعمل ضمن بيئة تجريبية مغلقة، تحتوي على متصفح ونظام تشغيل منفصلين وتخضع لرقابة صارمة. ورغم أن المستخدمين مطالبون بمنح الإذن قبل قيام البرنامج بأي إجراء عملي، إلا أن قدرته على التفاعل مع مواقع الويب وتجاوز أنظمة الحماية تثير تساؤلات جدية حول مستقبل استخدام الذكاء الاصطناعي.
المصدر: ديلي ميل
إقرأ المزيد
من القلب أم من ChatGPT؟.. علامات تفضح الرسالة الرومانسية المزيفة
يشعر كثيرون بالسعادة عند تلقي رسالة رومانسية غير متوقعة من الشريك، ظنا منهم أن العلاقة تسير في أفضل حالاتها، لكن في زمن الذكاء الاصطناعي، قد لا تكون الأمور كما تبدو.
نصيحة من ChatGPT تُدخل رجلا المستشفى بأعراض نفسية حادة
تسبّب اعتماد رجل على نصيحة غذائية من ChatGPT في إصابته بتسمم نادر، ما استدعى دخوله المستشفى وتلقيه علاجا مكثفا.
"فوتوشوب" يحصل على ميزات جديدة تعمل بالذكاء الاصطناعي
أعلنت شركة "Adobe" عن إطلاق نسخة اختبارية جديدة من تطبيق "فوتوشوب"، حملت للمستخدمين العديد من الميزات العملية التي تعمل بالذكاء الاصطناعي.
تطور مخيف.. نموذج ChatGPT الجديد يتمرد على أوامر البشر!
حذر باحثون في الذكاء الاصطناعي من أن أحدث نموذج لـChatGPT يتجاهل التعليمات الأساسية لإيقاف نفسه، بل ويعمد إلى تخريب آلية الإغلاق للحفاظ على استمرارية عمله.
"OpenAI" تخطط لجعل "ChatGPT" رفيقا مدى الحياة!
كشف الرئيس التنفيذي لشركة "OpenAI" الأمريكية سام ألتمان عن رؤيته الطموحة لتطوير "ChatGPT"، حيث يقترح تحويل روبوت الدردشة إلى مرافق دائم، يسجل مسيرة حياة المستخدم كاملة.
التعليقات