مباشر
أين يمكنك متابعتنا

أقسام مهمة

Stories

53 خبر
  • العملية العسكرية الروسية في أوكرانيا
  • هدنة المضيق
  • لبنان تحت النيران الإسرائيلية
  • العملية العسكرية الروسية في أوكرانيا

    العملية العسكرية الروسية في أوكرانيا

  • هدنة المضيق

    هدنة المضيق

  • لبنان تحت النيران الإسرائيلية

    لبنان تحت النيران الإسرائيلية

  • نبض الملاعب

    نبض الملاعب

  • فيديوهات

    فيديوهات

عمالقة التكنولوجيا يطالبون بوقف تجارب الذكاء الاصطناعي خوفا من "مخاطر عميقة على المجتمع"

دعا الملياردير إيلون موسك ومجموعة من الخبراء يوم الأربعاء إلى التوقف عن تطوير أنظمة ذكاء اصطناعي قوية لإتاحة الوقت للتأكد من سلامتها.

عمالقة التكنولوجيا يطالبون بوقف تجارب الذكاء الاصطناعي خوفا من "مخاطر عميقة على المجتمع"
صورة تعبيرية / Westend61 / Gettyimages.ru

وتمت المطالبة بخطاب مفتوح، وقع عليه أكثر من 1000 شخص حتى الآن، بما في ذلك موسك والمؤسس المشارك لشركة آبل، ستيف وزنياك، من خلال إصدار GPT-4 من شركة OpenAI المدعومة من مايكروسوفت.

وتقول الشركة إن أحدث طراز لها أقوى بكثير من الإصدار السابق، والذي تم استخدامه لتشغيل ChatGPT، وهو روبوت قادر على توليد أجزاء من النص من أقصر المطالبات.

وجاء في الرسالة المفتوحة بعنوان "إيقاف تجارب الذكاء الاصطناعي العملاقة مؤقتا": "يمكن لأنظمة الذكاء الاصطناعي ذات الذكاء التنافسي البشري أن تشكل مخاطر عميقة على المجتمع والإنسانية".

وقالت: "يجب تطوير أنظمة ذكاء اصطناعي قوية فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون تحت السيطرة".

وكان موسك مستثمرا أوليا في OpenAI، وقضى سنوات في مجلس إدارتها، وتقوم شركته "تسلا" بتطوير أنظمة الذكاء الاصطناعي للمساعدة في تشغيل تكنولوجيا القيادة الذاتية، من بين تطبيقات أخرى.

وتم التوقيع على الرسالة، التي استضافها معهد Future of Life الممول من موسك، من قبل نقاد بارزين بالإضافة إلى منافسي OpenAI مثل رئيس Stability AI عماد موستيك.

وحذر رائد الذكاء الاصطناعي الكندي يوشوا بنجيو، وهو أحد الموقعين أيضا، في مؤتمر صحفي افتراضي في مونتريال من "أن المجتمع ليس مستعدا" لهذه الأداة القوية وإساءة استخدامها المحتملة.

وقال: "دعونا نبطئ. دعونا نتأكد من أننا نطور حواجز حماية أفضل"، داعيا إلى مناقشة دولية شاملة حول الذكاء الاصطناعي وآثاره، "كما فعلنا مع الطاقة النووية والأسلحة النووية".

واقتبس الخطاب من مدونة كتبها مؤسس OpenAI سام ألتمان، الذي اقترح أنه "في مرحلة ما، قد يكون من المهم الحصول على مراجعة مستقلة قبل البدء في تدريب الأنظمة المستقبلية".

وكتب معدو الرسالة المفتوحة: "نحن متفقون. هذه النقطة هي الآن. لذلك، ندعو جميع مختبرات الذكاء الاصطناعي إلى التوقف فورا لمدة 6 أشهر على الأقل عن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4".

ودعوا الحكومات إلى التدخل وفرض تجميد إذا فشلت الشركات في الاتفاق.

ويجب استخدام الأشهر الستة لتطوير بروتوكولات السلامة وأنظمة حوكمة الذكاء الاصطناعي وإعادة تركيز البحث على ضمان أن تكون أنظمة الذكاء الاصطناعي أكثر دقة وأمانا و"جديرة بالثقة والولاء".

ولم تُفصّل الرسالة الأخطار التي كشفت عنها GPT-4.

لكن الباحثين، بمن فيهم غاري ماركوس من جامعة نيويورك، الذي وقع الرسالة، جادلوا منذ فترة طويلة بأن روبوتات الدردشة كاذبة كبيرة ولديها القدرة على أن تكون وسيلة منتشرة على نطاق واسع لبث المعلومات المضللة.

المصدر: ساينس ألرت

التعليقات

مكتب نتنياهو: دعوة وزير الدفاع الباكستاني لإبادة إسرائيل ليست بيانا يمكن التسامح معه

إعلام: ترامب يراجع موقفه بشأن لبنان بعد محادثة مع نتنياهو

مقال في معاريف: ليس فقط نتنياهو وحده.. "المشجع الرئيسي" للحرب قد يقع في مشكلة

فانس في الواجهة.. طهران تفرض إيقاعها في مفاوضات إسلام أباد وتحصد ما تريد

الحصيلة الكاملة للضربات الإسرائيلية على إيران

قاليباف: وقف إطلاق النار في لبنان والإفراج عن الأصول الإيرانية شرطان أساسيان لانطلاق المحادثات

لبنان: مقتل 24 شخصا بينهم 11 عنصرا من أمن الدولة في حصيلة محدثة للقصف الإسرائيلي (فيديو)

"شمال إسرائيل يغلي".. اتهامات للحكومة بالفشل والاستسلام لحزب الله وتحذيرات من حرب خامسة وكابوس مستمر

الحرس الثوري مخاطبا "العدو والصديق": إدارة الملاحة في هرمز دخلت مرحلة جديدة

بريطانيا ترسل صواريخ دفاع جوي إلى الحلفاء في الخليج

مكتب خامنئي: المرشد الإيراني الراحل سامح من تجاوز عليه قبل وفاته

طهران: خطتنا المقترحة هي أساس التفاوض مع الولايات المتحدة