Home الأعمال قابلت “عرابين منظمة العفو الدولية” في باريس – إليك ما قالوا لي...

قابلت “عرابين منظمة العفو الدولية” في باريس – إليك ما قالوا لي أن يقلقهم حقًا | ألكساندر هيرست

23
0

أنا كان تقنيًا في أيام المراهقة المبكرة ، وأتمنى أحيانًا أن أكون قد ولدت في عام 2090 ، بدلاً من عام 1990 ، حتى أتمكن من رؤية كل التكنولوجيا المذهلة للمستقبل. في الآونة الأخيرة ، على الرغم من ذلك ، أصبحت أكثر تشككًا حول ما إذا كانت التكنولوجيا التي نتفاعل معها تخدمنا حقًا – أو ما إذا كنا نخدمها.

لذلك عندما حصلت على دعوة لحضور مؤتمر حول التطوير الذكاء الاصطناعي الآمن والأخلاقي في الفترة التي سبقت قمة باريس منظمة العفو الدولية، كنت مستعدًا تمامًا لسماع ماريا ريسا ، الصحفية الفلبينية و 2021 الحائز على جائزة نوبل للسلام، تحدث عن حجم التكنولوجيا الكبرى ، مع الإفلات من العقاب ، سمحت لشبكاتها بتغلبها على التضليل والكراهية والتلاعب بطرق كان لها تأثير حقيقي وسلبي للغاية على الانتخابات.

لكنني لم أكن مستعدًا لسماع بعض “عرابين منظمة العفو الدولية” ، مثل Yoshua Bengio و Geoffrey Hinton و Stuart Russell و Max Tegmark ، يتحدثون عن كيف يمكن أن تسير الأمور بعيدًا عن القضبان. في مركز مخاوفهم ، كان السباق تجاه Agi (الذكاء العام الاصطناعي ، على الرغم من أن Tegmark يعتقد أن “A” يجب أن تشير إلى “مستقلة”) مما يعني أنه لأول مرة في تاريخ الحياة على الأرض ، سيكون هناك كيان بخلاف البشر الذين يمتلكون في وقت واحد الحكم الذاتي العالي والعمومية العالية والذكاء العالي ، وقد يطور ذلك أهدافًا “غير متوازنة” مع الرفاهية البشرية. ربما سيحدث ذلك نتيجة لاستراتيجية أمن الدولة القومية ، أو البحث عن أرباح الشركات بأي ثمن ، أو ربما جميعها بمفردها.

أخبرني تيجارك: “ليس من الذكاء الاصطناعى اليوم ، نحتاج إلى القلق بشأنه ، إنه العام المقبل”. “يبدو الأمر كما لو كنت تجري مقابلة معي في عام 1942 ، وسألتني:” لماذا لا يقلق الناس من سباق التسلح النووي؟ ” إلا أنهم يعتقدون أنهم نكون في سباق التسلح ، لكنه في الواقع سباق انتحاري “.

لقد جلبت إلى الذهن إعادة تخيل Battlestar Galactica ، التي يظهر فيها مسؤول في العلاقات العامة ، الصحفيين: “الأشياء التي تبدو غريبة ، أو حتى قديمة ، إلى العيون الحديثة ، مثل الهواتف ذات الحبال ، والصمامات اليدوية المحرجة ، وأجهزة الكمبيوتر التي لا تكاد تستحقها اسم”. “لقد تم تصميمه جميعًا للعمل ضد عدو يمكن أن يتسلل ويعطل كل أنظمة الكمبيوتر باستثناء أنظمة الكمبيوتر الأساسية … لقد شعرنا بالخوف من أعدائنا لدرجة أننا نظرنا حرفيًا إلى الوراء للحماية.”

ربما نحتاج إلى اختصار جديد، فكرت. بدلاً من التدمير المؤكد بشكل متبادل ، يجب أن نتحدث عن “الذات-تدمير مؤثر “مع التركيز الإضافي: حزين! اختصار قد يخترق حتى دونالد ترامب.

إن فكرة أننا ، على الأرض ، قد نفقد السيطرة على agi التي تحولنا بعد ذلك ، تبدو مثل الخيال العلمي-ولكن هل من المبتكر حقًا بالنظر إلى النمو الأسي لتطوير الذكاء الاصطناعي؟ كما أشار Bengio ، فإن بعض نماذج الذكاء الاصطناعى الأكثر تقدمًا بالفعل حاول خداع المبرمجين البشريين أثناء الاختبار ، سواء في السعي لتحقيق أهدافها المعينة والهروب من حذفها أو استبدالها بتحديث.

عندما كانت الاختراقات في الاستنساخ البشري في متناول العلماء ، علماء الأحياء جاء معا يقول ستيوارت راسل ، الذي كتب حرفيا الكتاب المدرسي على الذكاء الاصطناعي. وبالمثل ، يفضل كل من Tegmark و Russell وقفًا على السعي وراء AGI ، ونهج المخاطر المتدرج – أكثر صرامة من لدي الفعل -حيث ، كما هو الحال مع عملية الموافقة على المخدرات ، يجب أن تُظهر أنظمة الذكاء الاصطناعي في المستويات ذات الخطورة العالية للمنظم أنها لا تعبر خطوطًا حمراء معينة ، مثل القدرة على نسخ أنفسهم إلى أجهزة الكمبيوتر الأخرى.

ولكن حتى لو بدا المؤتمر مرجحًا تجاه هذه المخاوف التي تحركها في المستقبل ، كان هناك انقسام واضح إلى حد ما بين خبراء السلامة والأخلاقيات من الذكاء الاصطناعى من الصناعة والأوساط الأكاديمية والحكومة في الحضور. إذا كان “العرابون” قلقين بشأن AGI ، فإن الديموغرافيين الأصغر سناً والأكثر تنوعًا كان يركز على التركيز المكافئ على المخاطر التي تشكلها AIS بالفعل على المناخ والديمقراطية.

لا يتعين علينا أن ننتظر أن يقرر Agi ، من تلقاء نفسه ، إغراق العالم من خلال ماركات البيانات لتطور نفسه بسرعة أكبر – يقوم Microsoft و Meta و Alphabet و Openai ونظرائهم الصينيين بذلك بالفعل. أو لكي يقرر Agi ، من تلقاء نفسه ، التلاعب بالناخبين بشكل جماعي من أجل وضع السياسيين في أجندة إلغاء القيود التنظيمية – والتي ، مرة أخرى ، يتبع دونالد ترامب وإيلون موسك بالفعل. وحتى في المراحل الحالية والمبكرة من الذكاء الاصطناعى ، فإن استخدام الطاقة كارثية: وفقًا لكيت كروفورد ، رئيسة زيارة منظمة العفو الدولية والعدالة في سوبريور النمي ، تمثل مراكز البيانات بالفعل أكثر من 6 ٪ من استهلاك الكهرباء في الولايات المتحدة والصين ، والطلب سوف يستمر فقط في الارتفاع.

“بدلاً من التعامل مع الموضوعات على أنها حصرية متبادلة ، نحتاج إلى صانعي السياسات والحكومات لحساب كليهما” ، أخبرني ساشا ألانوكا ، باحثة دكتوراه في حوكمة الذكاء الاصطناعي في ستانفورد. “ويجب أن نعطي الأولوية لقضايا مدفوعة تجريبياً مثل الأضرار البيئية ، والتي لديها بالفعل حلول ملموسة.”

تحقيقًا لهذه الغاية ، أعلنت Sasha Luccioni و AI و Climate Lead في Hugging Face – وهي منصة تعاونية لنماذج AI مفتوحة المصدر – هذا الأسبوع أن بدء التشغيل قد طرحت نقاط طاقة الذكاء الاصطناعي، تصنيف 166 نموذجًا على استهلاك الطاقة عند إكمال المهام المختلفة. ستقدم بدء التشغيل أيضًا نظام تصنيف من فئة من فئة الخمس نجوم ، مماثلة لتسمية الطاقة في الاتحاد الأوروبي للأجهزة المنزلية ، لتوجيه المستخدمين نحو الخيارات المستدامة.

تخطي ترويج النشرة الإخبارية السابقة

يقول راسل: “هناك ميزانية علمية في العالم ، وهناك الأموال التي ننفقها على الذكاء الاصطناعي”. “كان بإمكاننا القيام بشيء مفيد ، وبدلاً من ذلك ، نصب الموارد في هذا السباق للخروج من حافة الهاوية.” لم يحدد البدائل ، ولكن بعد شهرين فقط من العام ، ما يقرب من 1 دولار في منظمة العفو الدولية الاستثمارات كانت أعلن، في حين أن العالم لا يزال أقل بكثير مما هو مطلوب للبقاء حتى في غضون 2C من التسخين ، أقل بكثير من 1.5 درجة مئوية.

يبدو أن لدينا فرصة تقلص لوضع حوافز الشركات لإنشاء نوع من الذكاء الاصطناعى الذي يفيد بالفعل حياتنا الفردية والجماعية: مستدامة وشاملة ومتوافقة مع الديمقراطية. وإلى ما وراء التنظيم ، “للتأكد من وجود ثقافة المشاركة المضمنة في تطوير الذكاء الاصطناعي بشكل عام” ، كما وضع Eloïse Gabadou ، مستشار منظمة التعاون الاقتصادي والتنمية في التكنولوجيا والديمقراطية.

في ختام المؤتمر ، قلت لروسيل أننا بدا أننا نستخدم كمية لا تصدق من الطاقة والموارد الطبيعية الأخرى للسباق إلى شيء ربما لا ينبغي أن ننشئه في المقام الأول ، وأيها الإصدارات الحميدة نسبيًا من بالفعل ، من نواح كثيرة ، غير متوازنة مع أنواع المجتمعات التي نريد بالفعل العيش فيها.

“نعم” ، أجاب.

Source Link