الارتفاع السريع ل AI التوليدي قامت ببناء صناعة بمليارات الدولارات بين عشية وضحاها تقريبًا ، لكن أعضاء اللجنة في جنوب جنوب غرب إن شركات الذكاء الاصطناعى الكبيرة تواجه إشرافًا أقل من الشركات التي تصطف خارج مؤتمر أوستن ، تكساس.
وقالت إميليا جافورسكي ، مديرة برنامج المستقبل في معهد مستقبل الحياة ، خلال لجنة في SXSW يوم الاثنين: “هناك تنظيم أكثر على شاحنة طعام أكثر من هذه التكنولوجيا”.
“جزءًا من ذلك هو أننا نفهم شاحنة الطعام أكثر مما نفهم هذه التكنولوجيا” ، أشار دانييل كوكوتولو ، باحث سابق في السلامة في صانع شاتغبت أوب أوباي الذي ترك الشركة في عام 2024 للتحدث عن الحاجة إلى سلامة وشفافية إضافية في الصناعة.
إن الارتفاع النشط للذكاء الاصطناعي والتعقيد المتأصل في التكنولوجيا يجعل من الصعب بشكل خاص صياغة القواعد والإدراج وراء الاعتبارات السياسية لإنجاز شيء ما.
ولكن هناك الكثير من الأفكار ، بما في ذلك واحدة من أستاذ القانون بجامعة هارفارد لورانس ليسيج: مطالبة مطوري الذكاء الاصطناعى بحمل التأمين.
وقال ليسيج على خشبة المسرح في اللوحة “من المهم حقًا أن نفهم اللوائح لا تدمر ، فهو يمكّن ، إذا كان ذكيًا”.
الحاجة إلى الشفافية
كانت فكرة “الثقة” في أذهان العديد من المتحدثين حول الذكاء الاصطناعي في SXSW ، مع الخبراء ليس فقط حول إمكانات سبر الخيال العلمي لخبراء الفواصل ، ولكن أيضًا حول الآثار اليومية العملية للتحيز والأخطاء في منتجات أكثر إثارة للدردشة مثل chatbots.
والسؤال هو كيفية التأكد من أن كل مطور منظمة العفو الدولية يبني تلك الثقة. سلامة الذكاء الاصطناعي هي موضوع تعرف الشركات أنها بحاجة إلى معالجتها. فقط شاهد الصفحات المخصصة لها في Openaiو جوجلو Microsoft ، الإنسانو adobe وفي مكان آخر.
اقترح Javorsky هيكلًا تنظيميًا لا يختلف عن ذلك حول تطور الأدوية الموصوفة: فكر في إدارة الغذاء والدواء لمنظمة العفو الدولية. تتجه معظم الموارد المستخدمة في تطوير الأدوية إلى إثبات أنها آمنة ، مما يخلق الثقة في تلك المنتجات بمجرد وصولها إلى السوق. عندما يشعر المستهلكون بوجود منتج آمن ، فإنهم أقل قلقًا بشأن استخدامه.
وقال جافورسكي: “حتى من منظور شخص يريد فقط أن يرى الذكاء الاصطناعي يزدهر كصناعة ، فإن السلامة شيء يجب أن تهتم به”.
دفع كوكوتاجلو و ليسيج على حماية المبلغين عن المخالفات للعمال في شركات الذكاء الاصطناعى. قوانين المبلغين عن المخالفات الحالية تحمي العمال الذين ينادون نشاطًا غير قانوني ، ولكن العديد من الأنشطة التي يحتمل أن تكون خطرة تتضمن تقنيات جديدة مثل الذكاء الاصطناعي قانونية. ببساطة لا توجد قوانين على الكتب لهذه الأنواع من الأشياء.
قال ليسيج الاتحاد الأوروبي لوائح الذكاء الاصطناعي معقدة للغاية ولا تجبر الشركات على فعل الشيء الصحيح بشكل افتراضي.
وقال “أعتقد أنه يتعين علينا بدلاً من ذلك تطوير محادثة جادة حول الحد الأدنى من المنتجات القابلة للحياة للتنظيم”. “المنتج القابل للحياة هو بناء حوافز داخل هذه الشركات للتصرف بالطريقة الصحيحة.”
التأمين كائحة منظمة العفو الدولية
قال ليسيج إن مطالبة مطوري الذكاء الاصطناعى بحمل التأمين سيخلق حوافز السوق للمسؤولية. من شأن شركات التأمين أن تحدد أسعارًا بناءً على مدى مخاطرة منتجات الشركة والسلوكيات ، مما يعني أنه سيكون من أغلى ثمناً على إنتاج المنتجات التي تفتقر إلى الدرابزين الكافيين.
توجد متطلبات التغطية التأمينية في سياقات أخرى لوضع سعر ، بشكل أساسي ، على السلوك المحفوف بالمخاطر وغير المسؤول. فكر في كيفية ارتفاع معدلات التأمين على السيارات إذا كان لديك سجل قيادة ضعيفًا وأسفل إذا كان لديك تاريخ قيادة آمن.
وقال ليسيج لـ CNET بعد اللوحة “سيكون الأمر خامًا في البداية ، وبعد ذلك سيكون لديك بعض شركات التأمين التي تخرج والتفكير في كيفية تسويق سعره بشكل مختلف”. “هذا هو نوع الحافز الذي نحتاجه إلى إنشاء هذا النوع من التأثير التنافسي لتحديد ما هو بالضبط مخاطر السلامة التي يحتاجون إليها لضمان”.
وقال ليسيج إن شرط التأمين لن يحل كل شيء ، لكنه سيخلق بعض الحوافز للشركات لتطوير متطلبات سلامة قوية ومساءلة لأنها تدفع لأنظمة الذكاء الاصطناعى الأكثر ذكاءً والأكثر ذكاءً.
وقال “التأمين ، بالنسبة لي ، هو الشيء الذي يعالج المخاطر الأساسية المتهورة من أن هذا سيؤدي إلى أضرار جسيمة للمجتمع”.