Home الأعمال حذرت شركات الذكاء الاصطناعى من حساب تهديد الذكاء الفائق أو المخاطرة بأنه...

حذرت شركات الذكاء الاصطناعى من حساب تهديد الذكاء الفائق أو المخاطرة بأنه يهرب من السيطرة على الإنسان | الذكاء الاصطناعي (AI)

31
0

تم حث شركات الذكاء الاصطناعي على تكرار حسابات السلامة التي دعمت أول اختبار نووي لروبرت أوبنهايمر قبل إطلاقها أنظمة قوية.

وقال ماكس تيجارك ، وهو صوت رائد في سلامة الذكاء الاصطناعى ، إنه أجرى حسابات أقرب إلى تلك الموجودة في الفيزيائي الأمريكي آرثر كومبتون قبل اختبار الثالوث ووجد احتمال 90 ٪ بأن منظمة العفو الدولية المتقدمة للغاية ستشكل تهديدًا وجوديًا.

تقدمت حكومة الولايات المتحدة مع الثالوث في عام 1945 ، بعد أن طمأنها كانت هناك فرصة ضئيلة للغاية في قنبلة ذرية تشعل الغلاف الجوي وتعريض الإنسانية للخطر.

في ورقة نشرتها Tegmark وثلاثة من طلابه في معهد ماساتشوستس للتكنولوجيا (MIT) ، يوصون بحساب “ثابت Compton”-المعرفة في الورقة بأنها احتمال أن تفلت الذكاء الاصطناعى القوي بالكامل من السيطرة البشرية. في مقابلة مع الكاتب الأمريكي بيرل باك عام 1959 ، قال كومبتون إنه وافق على الاختبار بعد حساب احتمالات رد فعل الانصهار الهارب ليكون “أقل قليلاً” من واحد من كل ثلاثة ملايين.

قال Tegmark إنه يجب على شركات الذكاء الاصطناعى مسؤولية حساب الذكاء الفائق الاصطناعي (ASI) – وهو مصطلح لنظام نظري متفوق على الذكاء البشري في جميع الجوانب – سيؤدي إلى السيطرة البشرية.

وقال: “الشركات التي تبني الذكاء الفائق تحتاج إلى حساب ثابت كومبتون ، وهو احتمال أن نفقد السيطرة عليه”. “لا يكفي أن نقول” نشعر بالرضا حيال ذلك “. عليهم حساب النسبة المئوية.”

وقال Tegmark إن إجماع Compton المستمر المحسوب من قبل العديد من الشركات سيخلق “الإرادة السياسية” للاتفاق على أنظمة السلامة العالمية ل AIS.

Tegmark ، أستاذ الفيزياء وباحث الذكاء الاصطناعى في معهد ماساتشوستس للتكنولوجيا ، هو أيضًا مؤسس مشارك لمعهد Future of Life ، وهو مؤسسة غير ربحية تدعم التطوير الآمن لـ AI ونشرت خطابًا مفتوحًا في عام 2023 يدعو إلى التوقف في بناء الذكاء الاصطناعي القوي. تم توقيع الرسالة من قبل أكثر من 33000 شخص بما في ذلك Elon Musk-وهو مؤيد مبكر للمعهد-وستيف وزنياك ، المؤسس المشارك لشركة Apple.

حذرت الرسالة ، التي تم إنتاجها بعد أشهر من إطلاق Chatgpt حقبة جديدة من تطوير الذكاء الاصطناعي ، من أن مختبرات الذكاء الاصطناعى قد تم قفلها في “سباق خارج السيطرة” لنشر “عقول رقمية أكثر قوة” لا يمكن لأحد “فهمها أو التنبؤ بها أو السيطرة عليها بشكل موثوق”.

تحدث Tegmark إلى The Guardian كمجموعة من خبراء الذكاء الاصطناعى بما في ذلك المتخصصين في صناعة التكنولوجيا ، وممثلي هيئات السلامة والأكاديميين المدعومين من الدولة ، وضعوا نهجًا جديدًا لتطوير الذكاء الاصطناعي بأمان.

تم إنتاج إجماع سنغافورة على أبحاث أبحاث السلامة من الذكاء الاصطناعى العالمي من قبل Tegmark ، عالم الكمبيوتر الرائد العالمي Yoshua Bengio وموظفيهم في قيادة شركات AI مثل Openai و Google Deepmind. حددت ثلاثة مجالات واسعة لتحديد أولويات أبحاث سلامة الذكاء الاصطناعي: تطوير طرق لقياس تأثير أنظمة الذكاء الاصطناعى الحالية والمستقبلية ؛ تحديد كيفية تصرف الذكاء الاصطناعى وتصميم نظام لتحقيق ذلك ؛ وإدارة سلوك النظام والتحكم فيه.

في إشارة إلى التقرير ، قال Tegmark إن حجة التنمية الآمنة في الذكاء الاصطناعى قد استردت قدميها بعد أحدث قمة حكومية في باريس ، عندما قال نائب الرئيس الأمريكي ، JD Vance ، إن مستقبل الذكاء الاصطناعي “لن يفوز باليد عن طريق السلامة”.

قال Tegmark: “إنه يشعر حقًا أن الكآبة من باريس قد انتهت والتعاون الدولي قد عاد إلى الوراء.”

Source Link