إذن، ما مدى احتمال أن نكون قادرين على التحكم في الذكاء الفائق للكمبيوتر العالي المستوى؟. حطم العلماء الأرقام في عام 2021. وكانت الاجابة: تقريبا بالتأكيد لا. المهم هو أن التحكم في ذكاء خارق يتجاوز بكثير الفهم البشري، ويتطلب محاكاة ذلك الذكاء الفائق الذي يمكننا تحليله. ولكن إذا كنا غير قادرين على فهمها، فمن المستحيل إنشاء مثل هذه المحاكاة.
ولا يمكن وضع قواعد مثل "لا تسبب ضررا للبشر" إذا لم نفهم نوع السيناريوهات التي سيأتي بها الذكاء الاصطناعي، كما يقترح معدو البحث. وبمجرد أن يعمل نظام الكمبيوتر على مستوى أعلى من نطاق المبرمجين لدينا، لم يعد بإمكاننا وضع حدود.
كتب الباحثون في عام 2021: "يطرح الذكاء الفائق مشكلة مختلفة اختلافا جوهريا عن تلك التي تدرس عادة تحت شعار "أخلاقيات الروبوت". وهذا لأن الذكاء الخارق متعدد الأوجه، وبالتالي يحتمل أن يكون قادرا على تعبئة مجموعة متنوعة من الموارد من أجل تحقيق أهداف يحتمل أن تكون غير مفهومة للبشر، ناهيك عن التحكم فيها".
ويأتي جزء من استدلال الفريق من مشكلة التوقف التي طرحها آلان تورينغ في عام 1936. وتتركز المشكلة على معرفة ما إذا كان برنامج الكمبيوتر سيصل إلى نتيجة وإجابة أم لا (لذلك يتوقف).
كما أثبت تورينغ من خلال بعض الرياضيات الذكية، بينما يمكننا أن نعرف أن من المستحيل منطقيا، بالنسبة لبعض البرامج المحددة، إيجاد طريقة تسمح لنا بمعرفة ذلك لكل برنامج محتمل يمكن كتابته في أي وقت.
وهذا يعيدنا إلى الذكاء الاصطناعي، والذي في حالة الذكاء الفائق يمكنه عمليا الاحتفاظ بكل برنامج كمبيوتر ممكن في ذاكرته في وقت واحد. وأي برنامج مكتوب لمنع الذكاء الاصطناعي من إلحاق الضرر بالبشر وتدمير العالم، على سبيل المثال، قد يصل إلى نتيجة (ويتوقف) أم لا - من المستحيل رياضيا أن نتأكد تماما من أيّ من الحالتين، ما يعني أنه غير قابل للاحتواء.
وقال عالم الكمبيوتر إياد رهوان، من معهد ماكس بلانك للتنمية البشرية في ألمانيا: "في الواقع، هذا يجعل خوارزمية الاحتواء غير قابلة للاستخدام".
ويقول الباحثون إن البديل لتعليم الذكاء الاصطناعي بعض الأخلاقيات وإخباره بعدم تدمير العالم - وهو أمر لا يمكن لأي خوارزمية أن تكون متأكدة تماما من القيام به - هو الحد من قدرات الذكاء الفائق. ويمكن قطعها عن أجزاء من الإنترنت أو من شبكات معينة، على سبيل المثال.
وترفض دراسة 2021 هذه الفكرة أيضا، ما يشير إلى أنها ستحد من وصول الذكاء الاصطناعي - تقول الحجة إنه إذا لم نستخدمها لحل مشاكل خارج نطاق البشر، فلماذا ننشئها على الإطلاق؟.
وإذا كنا سنمضي قدما في الذكاء الاصطناعي، فقد لا نعرف حتام يصل ذكاء خارق خارجٌ عن سيطرتنا. وهذا يعني أننا بحاجة إلى البدء في طرح بعض الأسئلة الجادة حول الاتجاهات التي نسير فيها.
وفي الواقع، وقع عمالقة التكنولوجيا في وقت سابق من هذا العام، بما في ذلك إيلون موسك والمؤسس المشارك لشركة آبل، ستيف وزنياك، خطابا مفتوحا يطلب من البشرية التوقف مؤقتا عن العمل على الذكاء الاصطناعي لمدة 6 أشهر على الأقل حتى يمكن استكشاف سلامته.
وجاء في الرسالة المفتوحة بعنوان "إيقاف تجارب الذكاء الاصطناعي العملاقة مؤقتا": "يمكن لأنظمة الذكاء الاصطناعي ذات الذكاء التنافسي البشري أن تشكل مخاطر عميقة على المجتمع والإنسانية. يجب تطوير أنظمة ذكاء اصطناعي قوية فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون تحت السيطرة".
نُشر البحث في مجلة أبحاث الذكاء الاصطناعي.
المصدر: ساينس ألرت