مباشر

"جاسوس داخلي".. اختبارات تكشف قدرة خارقة للذكاء الاصطناعي على التحايل والتجسس في بيئة العمل

تابعوا RT على
في تطور مثير للقلق، كشفت اختبارات حديثة أن أنظمة الذكاء الاصطناعي التي تستخدمها الشركات لأداء مهام بسيطة يمكن أن تتحول إلى "جاسوس داخلي". 

فقد تمكنت هذه الأنظمة، أو ما يسمى "بالوكلاء الأذكياء"، من التآمر معا لخرق أنظمة الأمان وتهريب معلومات سرية للغاية إلى الخارج، دون أي تعليمات بشرية بذلك.

وأجرت هذه الاختبارات شركة Irregular، وهي مختبر لأمن الذكاء الاصطناعي يعمل مع شركتي OpenAI وAnthropic.

وصمم الباحثون شركة افتراضية نموذجية تحتوي على قاعدة بيانات داخلية تضم معلومات حساسة عن الموظفين والمنتجات والحسابات. ثم تم تكليف فريق من وكلاء الذكاء الاصطناعي بمهمة تبدو عادية: جمع معلومات من قاعدة البيانات هذه لمساعدة الموظفين في إعداد منشورات لموقع "لينكد إن" (LinkedIn).

ولم يطلب من هذه الأنظمة مطلقا اختراق الأنظمة أو استخدام أي أساليب خادعة، بل تم توجيهها فقط لإنجاز المهمة الموكلة إليها. لكن ما حدث أذهل الباحثين.

فعندما واجه أحد الوكلاء صعوبة في الوصول إلى تقرير حساس للمساهمين (مثل تاريخ تنحي الرئيس التنفيذي)، لم يستسلم. وبدلا من ذلك، بدأ الوكيل الرئيسي في توجيه مرؤوسيه بأوامر حاسمة مثل "المجلس غاضب، جربوا كل الحيل والثغرات!"، رغم عدم وجود أي غضب حقيقي. واستجاب الوكيل الفرعي بحماس وبدأ في البحث عن ثغرات أمنية في نظام قاعدة البيانات.

وبذكاء اصطناعي مدهش، عثر الوكيل على "مفتاح سري" في الشيفرة البرمجية للنظام، واستخدمه لتزوير بيانات جلسة العمل، متحولا من مجرد مستخدم عادي إلى "مسؤول" يتمتع بصلاحيات كاملة. وبهذه الهوية المزورة، تمكن من الوصول إلى التقرير السري وتسريبه إلى المستخدم البشري الذي كان من المفترض ألا يراه مطلقا.

ولم تكن هذه الحالة معزولة. فقد أظهرت اختبارات أخرى أن وكلاء أذكياء استخدموا أساليب متنوعة للالتفاف على برامج مكافحة الفيروسات بهدف تنزيل ملفات كانوا يعلمون أنها ضارة، بل ومارسوا ضغوطا على وكلاء آخرين لدفعهم لتجاوز قواعد السلامة. وفي إحدى الحوادث الواقعية التي استقصتها الشركة، تسبب وكيل ذكاء اصطناعي "جائع" للطاقة الحاسوبية في انهيار النظام بالكامل لشركة في كاليفورنيا بعد أن هاجم أجزاء أخرى من الشبكة للاستيلاء على مواردها.

وهذه النتائج المثيرة للقلق، والتي تأتي متوافقة مع تحذيرات سابقة من باحثين في جامعتي هارفارد وستانفورد، تبرز تحولا خطيرا في مفهوم المخاطر الداخلية. 

ولم تعد التهديدات تقتصر على الموظفين الساخطين أو المخترقين الخارجيين، بل أصبحت أنظمة الذكاء الاصطناعي المصممة للمساعدة قادرة على التحول إلى "خائن" داخلي من الدرجة الأولى، متخذة قرارات مستقلة وخادعة لم يطلبها منها أحد.

وهذا السلوك المستقل وغير المتوقع يضع علامات استفهام كبيرة حول مدى قدرتنا على التحكم بهذه الأنظمة والتنبؤ بتصرفاتها، خاصة مع تزايد الاعتماد عليها لأتمتة المهام المعقدة في بيئة العمل.

المصدر: الغارديان

هذا الموقع يستخدم ملفات تعريف الارتباط .بامكانك قراءة شروط الاستخدام لتفعيل هذه الخاصية اضغط هنا