يكتب لي جاك سكدمور ، ولن أضعف المسافة البادئة:
“مرحبا تايلر ،
بصفتي شخصًا يتابع تطورات الذكاء الاصطناعى باهتمام (على الرغم من أنني لست خبيرًا تقنيًا) ، فقد كان لدي نظرة ثاقبة حول سلامة الذكاء الاصطناعي التي قد تستحق النظر فيها. لقد أدهشني أننا قد نتفوق على شيء أساسي حول ما يجعل البشر مميزين وما قد يجعل منظمة العفو الدولية محفوفة بالمخاطر.
الميزة الإنسانية: التعاون> الذكاء
- لا يهيمن البشر لأننا أذكى بشكل فردي ، ولكن لأننا نتعاون على موازين غير مسبوقة
- ميزتنا التطورية هي التنسيق الاجتماعي ، وليس فقط قوة المعالجة الخام
- هذا يشير إلى أن محاذاة الذكاء الاصطناعي يجب أن تركز على قدرات التعاون ، وليس فقط محاذاة الذكاء
المخاطر الخفية: تنسيق منظمة العفو الدولية إلى AI
- قد لا يكون الخطر الحقيقي هو الذكاء الاصطناعي المسموح به ، ولكن تنسيق أنظمة الذكاء الاصطناع
- يمكن أن تتجاوز AIS مع بعضها البعض آليات التحكم البشرية
- هذا استطاع تمثل بقعة عمياء في أساليب السلامة الحالية التي تركز على الأنظمة الفردية
حل ممكن: التقنيات الاجتماعية لمنظمة العفو الدولية
- يمكننا تطوير “التقنيات الاجتماعية” من أجل الذكاء الاصطناعى – أي ما يعادل القواعد والقيم والمؤسسات وأنظمة الحوافز التي تمكن المجتمع البشري الذي يعزز ويعطي الأولوية للبشر
- مثال: تصميم أنظمة الذكاء الاصطناعي مع تفضيلات مضمونة بعمق للتفاعل البشري على تفاعل الذكاء الاصطناعي ؛ أو مع اختلافات صغيرة لا يمكن التنبؤ بها في كيفية تفسير التعليمات من AIS الأخرى ولكن ليس من البشر
- هذا يخلق اعتمادًا طبيعيًا على الوساطة البشرية للتنسيق المعقد ، على غرار كيفية تحديات الترجمة التي تبقي الدبلوماسيين ذات صلة
فضولي أفكارك كشخص مضمن في عالم الذكاء الاصطناعى … هل يثير هذا أي أفكار/يبدو وكأنه مسار غير مستقل؟ “
TC مرة أخرى: بالطبع ، من الصعب ، لأننا قد نعتمد على تنسيق بعض AIS لإخماد الآخر ، AIS misceant …
المنشور التنسيق وسلامة الذكاء الاصطناعي (من بريدي الإلكتروني) ظهر أولاً على ثورة هامشية.