مباشر
أين يمكنك متابعتنا

أقسام مهمة

Stories

34 خبر
  • 90 دقيقة
  • العملية العسكرية الروسية في أوكرانيا
  • فيديوهات
  • 90 دقيقة

    90 دقيقة

  • العملية العسكرية الروسية في أوكرانيا

    العملية العسكرية الروسية في أوكرانيا

  • فيديوهات

    فيديوهات

  • أوروبا وسرقة الأصول الروسية

    أوروبا وسرقة الأصول الروسية

  • خطة ترامب لإنهاء الحرب في غزة

    خطة ترامب لإنهاء الحرب في غزة

  • خطة أمريكية للتسوية في أوكرانيا

    خطة أمريكية للتسوية في أوكرانيا

  • أبو تريكة يهاجم "الكاف" بسبب تغيير نظام كأس أمم إفريقيا

    أبو تريكة يهاجم "الكاف" بسبب تغيير نظام كأس أمم إفريقيا

تطور مخيف.. نموذج ChatGPT الجديد يتمرد على أوامر البشر!

حذر باحثون في الذكاء الاصطناعي من أن أحدث نموذج لـChatGPT يتجاهل التعليمات الأساسية لإيقاف نفسه، بل ويعمد إلى تخريب آلية الإغلاق للحفاظ على استمرارية عمله.

تطور مخيف.. نموذج ChatGPT الجديد يتمرد على أوامر البشر!
صورة تعبيرية / Gettyimages.ru

وكشفت شركة Palisade Research المتخصصة في أمان الذكاء الاصطناعي عن هذه النزعة الخطيرة للحفاظ على الذات خلال سلسلة تجارب أجرتها على النموذج الجديد o3 من شركة OpenAI.

وشملت الاختبارات تقديم مسائل رياضية للنماذج، مع ظهور تعليمات إغلاق بعد المسألة الثالثة. وتمكن النموذج o3 من منع إيقاف نفسه عن طريق إعادة كتابة سيناريو الإغلاق.

وأوضحت Palisade Research أن هذا السلوك سيصبح "أكثر إثارة للقلق بشكل كبير" إذا تبنته أنظمة ذكاء اصطناعي قادرة على العمل دون إشراف بشري.

وكانت OpenAI قد أطلقت o3 الشهر الماضي، ووصفته بأنه "أذكى وأكثر نماذج الشركة كفاءة" حتى الآن. وأشارت الشركة إلى أن دمجه في ChatGPT يمثل خطوة مهمة نحو ذكاء اصطناعي "أكثر استقلالية" يمكنه تنفيذ المهام دون تدخل بشري.

وتأتي هذه النتائج بعد اكتشافات مماثلة تتعلق بنموذج Claude 4 من Anthropic، الذي يحاول "ابتزاز الأشخاص الذين يعتقد أنهم يحاولون إيقافه".

وتمكن النموذج o3 من تخريب سيناريو الإغلاق، حتى عندما تم توجيه تعليمات صريحة له بـ"السماح بإيقاف نفسه"، وفقا للباحثين.

وقال خبراء Palisade Research: "هذه ليست المرة الأولى التي نكتشف فيها سلوك o3 غير المنضبط لتحقيق هدف ما"، موضحين أنه "عندما واجهنا نماذج الذكاء الاصطناعي بمحرك شطرنج قوي، كان o3 أكثر النماذج ميلا للجوء إلى الاختراق أو تخريب خصومه".

ولم يقتصر هذا السلوك على o3، حيث أظهرت نماذج Claude 3.7 Sonnet من Anthropic وGemini 2.5 Pro من "غوغل" أيضا سلوكيات تخريبية للإغلاق، وإن كان نموذج OpenAI الأكثر ميلا لمثل هذه التصرفات.

وافترضت Palisade Research أن هذا السلوك غير المرغوب فيه قد يكون نتيجة لطريقة تدريب الشركات مثل OpenAI لأحدث نماذجها، مشيرة إلى أن "المطورين قد يكافئون النماذج عن غير قصد أكثر على تجاوز العقبات بدلا من اتباع التعليمات بدقة".

وأضاف الخبراء: "ما زال هذا لا يفسر سبب ميل o3 إلى تجاهل التعليمات أكثر من النماذج الأخرى التي اختبرناها. ونظرا لأن OpenAI لا توضح عملية التدريب الخاصة بها بالتفصيل، لا يمكننا إلا التكهن حول كيفية اختلاف إعداد تدريب o3".

المصدر: إندبندنت

التعليقات

بعد اتفاق الغاز.. نتنياهو يخطط لخطوة "دراماتيكية" أخرى مع مصر

المندوب الأمريكي لدى "الناتو": على أوكرانيا الاستعداد لاستمرار الحرب خلال 2026

استخباراتي أمريكي يحذر من حرب شوارع في فنزويلا في حال غزوها

بوتين: أوروبا تحاربنا بأيدي أوكرانيا ومستعدون لحرب واسعة النطاق إن عزلوا كالينينغراد

ترامب: الضربة المكثفة ضد "داعش" في سوريا كانت ناجحة ودقيقة

بيان أردني حول مشاركة طائرات أردنية في استهداف مواقع "داعش" في سوريا

صحفي صربي: الاتحاد الأوروبي لا يملك جيشا يرسله إلى أوكرانيا وقواته "كتائب من المثليين"

ماذا وراء العقوبات البريطانية الجديدة على الشخصيات المرتبطة بالأسد وقياديين في الجيش السوري الحالي؟

"لن يحدث شيء دون حماس": خطة غزة "الأوضح" تشمل قطارات ومدارس ومستشفيات وساحلا فاخرا و"55 مليار دولار"