مباشر
أين يمكنك متابعتنا

أقسام مهمة

Stories

41 خبر
  • العملية العسكرية الروسية في أوكرانيا
  • كأس أمم إفريقيا 2025
  • فيديوهات
  • العملية العسكرية الروسية في أوكرانيا

    العملية العسكرية الروسية في أوكرانيا

  • كأس أمم إفريقيا 2025

    كأس أمم إفريقيا 2025

  • فيديوهات

    فيديوهات

  • ترامب والناتو وامتحان غرينلاند

    ترامب والناتو وامتحان غرينلاند

  • الجيش السوري و"قسد" وجها لوجه

    الجيش السوري و"قسد" وجها لوجه

  • 90 دقيقة

    90 دقيقة

  • احتجاجات إيران

    احتجاجات إيران

عمالقة التكنولوجيا يطالبون بوقف تجارب الذكاء الاصطناعي خوفا من "مخاطر عميقة على المجتمع"

دعا الملياردير إيلون موسك ومجموعة من الخبراء يوم الأربعاء إلى التوقف عن تطوير أنظمة ذكاء اصطناعي قوية لإتاحة الوقت للتأكد من سلامتها.

عمالقة التكنولوجيا يطالبون بوقف تجارب الذكاء الاصطناعي خوفا من "مخاطر عميقة على المجتمع"
صورة تعبيرية / Westend61 / Gettyimages.ru

وتمت المطالبة بخطاب مفتوح، وقع عليه أكثر من 1000 شخص حتى الآن، بما في ذلك موسك والمؤسس المشارك لشركة آبل، ستيف وزنياك، من خلال إصدار GPT-4 من شركة OpenAI المدعومة من مايكروسوفت.

وتقول الشركة إن أحدث طراز لها أقوى بكثير من الإصدار السابق، والذي تم استخدامه لتشغيل ChatGPT، وهو روبوت قادر على توليد أجزاء من النص من أقصر المطالبات.

وجاء في الرسالة المفتوحة بعنوان "إيقاف تجارب الذكاء الاصطناعي العملاقة مؤقتا": "يمكن لأنظمة الذكاء الاصطناعي ذات الذكاء التنافسي البشري أن تشكل مخاطر عميقة على المجتمع والإنسانية".

وقالت: "يجب تطوير أنظمة ذكاء اصطناعي قوية فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون تحت السيطرة".

وكان موسك مستثمرا أوليا في OpenAI، وقضى سنوات في مجلس إدارتها، وتقوم شركته "تسلا" بتطوير أنظمة الذكاء الاصطناعي للمساعدة في تشغيل تكنولوجيا القيادة الذاتية، من بين تطبيقات أخرى.

وتم التوقيع على الرسالة، التي استضافها معهد Future of Life الممول من موسك، من قبل نقاد بارزين بالإضافة إلى منافسي OpenAI مثل رئيس Stability AI عماد موستيك.

وحذر رائد الذكاء الاصطناعي الكندي يوشوا بنجيو، وهو أحد الموقعين أيضا، في مؤتمر صحفي افتراضي في مونتريال من "أن المجتمع ليس مستعدا" لهذه الأداة القوية وإساءة استخدامها المحتملة.

وقال: "دعونا نبطئ. دعونا نتأكد من أننا نطور حواجز حماية أفضل"، داعيا إلى مناقشة دولية شاملة حول الذكاء الاصطناعي وآثاره، "كما فعلنا مع الطاقة النووية والأسلحة النووية".

واقتبس الخطاب من مدونة كتبها مؤسس OpenAI سام ألتمان، الذي اقترح أنه "في مرحلة ما، قد يكون من المهم الحصول على مراجعة مستقلة قبل البدء في تدريب الأنظمة المستقبلية".

وكتب معدو الرسالة المفتوحة: "نحن متفقون. هذه النقطة هي الآن. لذلك، ندعو جميع مختبرات الذكاء الاصطناعي إلى التوقف فورا لمدة 6 أشهر على الأقل عن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4".

ودعوا الحكومات إلى التدخل وفرض تجميد إذا فشلت الشركات في الاتفاق.

ويجب استخدام الأشهر الستة لتطوير بروتوكولات السلامة وأنظمة حوكمة الذكاء الاصطناعي وإعادة تركيز البحث على ضمان أن تكون أنظمة الذكاء الاصطناعي أكثر دقة وأمانا و"جديرة بالثقة والولاء".

ولم تُفصّل الرسالة الأخطار التي كشفت عنها GPT-4.

لكن الباحثين، بمن فيهم غاري ماركوس من جامعة نيويورك، الذي وقع الرسالة، جادلوا منذ فترة طويلة بأن روبوتات الدردشة كاذبة كبيرة ولديها القدرة على أن تكون وسيلة منتشرة على نطاق واسع لبث المعلومات المضللة.

المصدر: ساينس ألرت

التعليقات

وزير الخارجية الإيراني: الاضطرابات انتهت وطهران تحت السيطرة الكاملة

الإعلام السورية: لا نرى سببا مبررا لحجب لقاء الشرع المصور وسنبثه عبر منصاتنا

الشرع في مقابلة مع قناة "شمس": التحرير هو أول رد حقيقي على المظالم التي تعرض لها الأكراد سابقا

"معاريف": تفعيل التشويش على نظام تحديد المواقع العالمي (GPS) في أجزاء من العراق وإيران

وسائل إعلام: 6 طائرات تزويد بالوقود أقلعت من قاعدة العديد الجوية في قطر (صور)

"القناة 12" العبرية: الولايات المتحدة ستبلغ إسرائيل بموعد العملية قبل تنفيذها بساعات

تاريخ أمريكي حافل في ضم أراضي الغير.. ومشروع "ضم غرينلاند" الأول منذ 128 عاما

"وول ستريت جورنال" تكشف تفاصيل السيناريو المحتمل لأي ضربة عسكرية أمريكية ضد إيران

إيران.. استخبارات "الحرس الثوري" تنشر جزءا من عمليات الجهاز في الأيام الماضية

سيناتور جمهوري يحدد ما يجب تقديمه للمحتجين في إيران ويوجه عبارات قاسية للسلطات في طهران