مباشر
أين يمكنك متابعتنا

أقسام مهمة

Stories

38 خبر
  • 90 دقيقة
  • زيارة بوتين إلى الهند
  • كأس العرب 2025 في قطر
  • 90 دقيقة

    90 دقيقة

  • زيارة بوتين إلى الهند

    زيارة بوتين إلى الهند

  • كأس العرب 2025 في قطر

    كأس العرب 2025 في قطر

  • خطة ترامب لإنهاء الحرب في غزة

    خطة ترامب لإنهاء الحرب في غزة

  • العملية العسكرية الروسية في أوكرانيا

    العملية العسكرية الروسية في أوكرانيا

  • خطة أمريكية للتسوية في أوكرانيا

    خطة أمريكية للتسوية في أوكرانيا

  • فيديوهات

    فيديوهات

خطر جديد في عالم التقنية: كيف يُصاب الذكاء الاصطناعي بـ"التسمم"؟!

عادة ما تُرتبط كلمة "تسمم" بصحة الإنسان أو بالبيئة، غير أن هذا المصطلح بدأ في الآونة الأخيرة يتردد بشكل متزايد في سياق التكنولوجيا الرقمية.

خطر جديد في عالم التقنية: كيف يُصاب الذكاء الاصطناعي بـ"التسمم"؟!
صورة أرشيفية / dzen.ru

المقصود هنا هو "تسمم" الذكاء الاصطناعي، وهو تهديد جديد وخفي قد يقوّض الثقة في الخوارزميات الذكية. وأظهرت أبحاث حديثة أن هذا الخطر واقعي؛ فقد وجد علماء من المعهد البريطاني لأمن الذكاء الاصطناعي ومعهد "آلان تورينج" وشركة Anthropic أن المتسللين قادرون — لخنق نموذج لغوي كبير مثل ChatGPT أو Claude — على إحداث تأثير خفي عبر إدخال نحو 250 مثالا  ضارا فقط ضمن ملايين الأسطر من بيانات التدريب. وقد نُشر هذا البحث في مجلة Computer Science.

ما هو تسمم الذكاء الاصطناعي؟

هو تدريب متعمَّد لشبكات عصبية على أمثلة خاطئة أو مضللة بهدف تشويه معرفتها أو سلوكها. والنتيجة أن النموذج يبدأ في ارتكاب أخطاء، أو ينفذ أوامر ضارة بطريقة ظاهرة أو سرّية.

يُميّز الخبراء نوعين رئيسيين من الهجمات:

  • هجمات مُستهدفة (باب خلفي): تهدف إلى إجبار النموذج على الاستجابة بطريقة محددة عند وجود محفز سري؛ مثلا "حقن" أمر خفي يجعل النموذج يرد بإهانة عند ظهور كلمة نادرة في الاستعلام مثل alimir123. قد تبدو الإجابة طبيعية عند الاستعلام العادي، لكنها تتحول إلى مسيئة عند إدخال المحفز. ويمكن للمهاجمين نشر هذا المحفز على مواقع أو وسائل تواصل لتفعيله لاحقا.
  • هجمات غير مباشرة (تسميم المحتوى): لا تعتمد على محفزات خفية بقدر اعتمادها على ملء بيانات التدريب بمعلومات زائفة. نظراً لاعتماد النماذج على كميات هائلة من المحتوى المتاح على الإنترنت، يستطيع المهاجم إنشاء مواقع ومصادر متعددة تروّج لمعلومة خاطئة (مثلاً: "سلطة الخضار تعالج السرطان")؛ وإذا استُخدمت هذه المصادر في التدريب، فسيبدأ النموذج بتكرار تلك الأكاذيب بصفتها حقائق.

ما مدى خطورة ذلك عمليا؟

الأدلة التجريبية تؤكد أن تسميم البيانات ليس مجرد سيناريو افتراضي: في تجربة أجريت في يناير الماضي، أدى استبدال 0.001% فقط من بيانات التدريب بمعلومات طبية مضللة إلى أن النموذج صار يُقدّم نصائح خاطئة في سياق اختبارات طبية نموذجية. هذا يبيّن قدرة الهجمات الصغيرة والمُحكمة على إحداث أضرار كبيرة تُؤثر على سلامة المخرجات وثقة المستخدمين.

المصدر: Naukatv.ru

 

 

 

 

التعليقات

ما هي المباراة الأعلى حضورا جماهيريا في الجولة الأولى لبطولة كأس العرب 2025؟.. التفاصيل بالأرقام

ترامب: ظروف التسوية في أوكرانيا بالنسبة لكييف تدهورت بعد لقائي زيلينسكي

الرئيس الفنزويلي: أجريت محادثة ودية مع ترامب مبنية على الاحترام المتبادل

كلمات غامضة على سبورة في منزل المجرم الجنسي جيفري إبستين تثير التكهنات حول ما كان يخطط له (صورة)

بوتين يعلق مازحا على مدة لقائه بويتكوف وكوشنر: استغرق 5 ساعات.. كان طويلا لكنه ضروري