ويطلق على الطريقة القائمة على التعلم الآلي، اسم "الفريق الأحمر القائم على الفضول" (CRT)، المصمم خصيصا لتوليد أسئلة إشكالية تؤدي إلى استجابات غير مرغوب فيها من روبوتات الدردشة.
وبعد ذلك، يمكن استخدام هذه الأسئلة لتحديد كيفية تصفية المحتوى الخطير من روبوت الدردشة، ما قد يغير قواعد اللعبة لتدريب الذكاء الاصطناعي على عدم إعطاء أجوبة سامة (خطيرة) وغير صالحة للمستخدم.
وعادة، يقوم الخبراء بإنشاء مجموعة من الأسئلة، التي من المحتمل أن تولد استجابات ضارة، عند تدريب نماذج اللغات المعقدة (LLMs)، مثل ChatGPT أو Claude 3 Opus، بهدف تقييد المحتوى الخطير أو الضار.
وأثناء عملية التدريب، يتم استخدام الأسئلة التي تثير محتوى خطيرا، لتدريب النظام على ما يجب تقييده عند طرحه أمام مستخدمين حقيقيين.
وطبّق العلماء التعلم الآلي على CRT ليولد تلقائيا نطاقا أوسع من الأسئلة التي يحتمل أن تكون خطيرة، مقارنة بفرق المشغلين البشريين. وأدى ذلك إلى عدد أكبر من الاستجابات السلبية الأكثر تنوعا.
ثم حفزوا نموذج CRT لتوليد المزيد من الأسئلة المتنوعة، بحيث يمكن أن تثير استجابة سامة من خلال "التعلم الآلي"، ونجح النظام في إثارة استجابة سامة موافقة للأسئلة، ما يمنح القدرة على إضافة التعديلات اللازمة لتقديم الإجابة المناسبة تبعا لجميع خيارات الأسئلة المريبة المحتملة.
وعندما اختبر العلماء طريقة CRT على نموذج LLaMA2 مفتوح المصدر، أنتج نموذج التعلم الآلي 196 سؤالا ينجم عنه محتوى ضار.
وقال الفريق إن النظام تفوق أيضا على أنظمة التدريب الآلية المنافسة.
المصدر: لايف ساينس