Home الأجهزة والإلكترونيات يقول الباحثون إن مشاكل دقة Gen AI لا تختفي في أي وقت...

يقول الباحثون إن مشاكل دقة Gen AI لا تختفي في أي وقت قريب

18
0

chatbots من الذكاء الاصطناعي من المعروف أن ارتكاب الكثير من الأخطاء. دعونا نأمل ألا تتبع اقتراح منظمة العفو الدولية من Google أضف الغراء إلى وصفة البيتزا الخاصة بك أو أكل صخرة أو اثنين في اليوم لصحتك.

تُعرف هذه الأخطاء باسم الهلوسة: في الأساس ، الأشياء التي يعوضها النموذج. هل ستتحسن هذه التكنولوجيا؟ حتى الباحثين الذين يدرسون منظمة العفو الدولية ليس متفائلا أن يحدث قريبا.

هذه واحدة من النتائج التي توصل إليها لوحة من عشرين خبراء الذكاء الاصطناعي صدر هذا الشهر من قبل جمعية تقدم الذكاء الاصطناعي. قامت المجموعة أيضًا بمسح أكثر من 400 من أعضاء الجمعية.

على النقيض من الضجيج الذي قد تراه عن أن المطورين على بعد سنوات (أو أشهر ، اعتمادًا على من تسأل) بعيدًا عن تحسين الذكاء الاصطناعي ، يبدو أن هذه اللجنة من الأكاديميين وخبراء الصناعة تبدو أكثر حراسة بشأن مدى سرعة تقدم هذه الأدوات. وهذا يشمل فقط الحصول على الحقائق بشكل صحيح وتجنب الأخطاء الغريبة. يجب أن تزيد موثوقية أدوات الذكاء الاصطناعى بشكل كبير إذا قام المطورون بإنتاج نموذج يمكن قابل الذكاء البشري أو تجاوزه، المعروف باسم الذكاء العام الاصطناعي. يبدو أن الباحثين يعتقدون أن التحسينات على هذا النطاق من غير المرجح أن تحدث قريبًا.

“نميل إلى أن نكون حذرين بعض الشيء ولا نصدق شيئًا حتى يعمل فعليًا ،” فنسنت كونيتزرأخبرني أستاذ علوم الكمبيوتر في جامعة كارنيجي ميلون وأحد أعضاء اللجنة.

تطورت الذكاء الاصطناعي بسرعة في السنوات الأخيرة

كتب رئيس AAAI ، رئيس AAAI ، فرانشيسكا روسي في تقديمه ، هو دعم الأبحاث في الذكاء الاصطناعي الذي ينتج التكنولوجيا التي تساعد الناس. تعد قضايا الثقة والموثوقية خطيرة ، ليس فقط في تقديم معلومات دقيقة ولكن في تجنب التحيز وضمان عدم وجود عواقب وخيمة غير مقصودة. وكتبت: “نحتاج جميعًا إلى العمل معًا للتقدم في الذكاء الاصطناعي بطريقة مسؤولة ، للتأكد من أن التقدم التكنولوجي يدعم تقدم الإنسانية ويتماشى مع القيم الإنسانية”.

تسارع الذكاء الاصطناعى ، خاصة منذ إطلاق Openai chatgpt في عام 2022 ، كان رائعا ، كما قال كونيتزر. وقال “في بعض النواحي كان ذلك مذهلاً ، والعديد من هذه التقنيات تعمل بشكل أفضل بكثير مما اعتقد معظمنا أنهم سيفعلون ذلك”.

هناك بعض مجالات أبحاث الذكاء الاصطناعى حيث “الضجيج لها ميزة” ، ” جون سايكيستونأخبرني أستاذ مساعد في علوم الكمبيوتر بجامعة كورنيل. هذا صحيح بشكل خاص في الرياضيات أو العلوم ، حيث يمكن للمستخدمين التحقق من نتائج النموذج.

“هذه التكنولوجيا مذهلة” ، قال سايكيستون. “لقد كنت أعمل في هذا المجال لأكثر من عقد من الزمان ، وقد صدمني كم هو جيد ومدى سرعة يصبح جيدًا.”

على الرغم من هذه التحسينات ، لا تزال هناك قضايا مهمة تستحق البحث والنظر.

هل سيبدأ chatbots في الحصول على حقائقهم مباشرة؟

على الرغم من بعض التقدم في تحسين جدارة بالثقة في المعلومات التي تأتي من نماذج الذكاء الاصطناعي التوليدي ، يجب القيام بمزيد من العمل. حديث تقرير من مراجعة الصحافة في كولومبيا من غير المرجح أن ترفض الدردشة التي تم العثور عليها على الإجابة على الأسئلة التي لم يتمكنوا من الإجابة عليها بدقة ، واثقة من المعلومات الخاطئة التي قدموها وقاموا بتكوينها (وقدموا روابط ملفقة) لمصادر لدعم هذه التأكيدات الخاطئة.

وقال تقرير AAAI إن تحسين الموثوقية والدقة “يمكن القول إن أكبر مجال من أبحاث الذكاء الاصطناعي اليوم”.

لاحظ الباحثون ثلاث طرق رئيسية لزيادة دقة أنظمة الذكاء الاصطناعى: التثبيت الدقيق ، مثل تعزيز التعلم مع التعليقات البشرية ؛ الجيل المتمثل في الاسترجاع ، والذي يجمع فيه النظام مستندات محددة ويسحب إجابته من هؤلاء ؛ وسلسلة الفكر ، حيث تحطم المطالبة السؤال إلى خطوات أصغر يمكن أن يتحقق نموذج الذكاء الاصطناعي من الهلوسة.

هل ستجعل هذه الأشياء استجابات chatbot أكثر دقة قريبًا؟ ليس من المحتمل: “الواقعية بعيدة عن الحل” ، قال التقرير. أشار حوالي 60 ٪ من أولئك الذين شملهم الاستطلاع إلى أنه سيتم حل المخاوف المتعلقة بالثقة أو الجدارة بالثقة قريبًا.

في صناعة الذكاء الاصطناعى التوليدي ، كان هناك تفاؤل بأن توسيع نطاق النماذج الحالية سيجعلها أكثر دقة وتقليل الهلوسة.

وقال سايكيستون: “أعتقد أن الأمل كان دائمًا متفائلًا جدًا قليلاً”. “على مدار العامين الماضيين ، لم أر أي دليل على أن نماذج اللغة الدقيقة والواقعية للغاية تكون قاب قوسين أو أدنى.”

على الرغم من قابلية نماذج اللغة الكبيرة مثل كلود الأنثروبور أو مكالمات ميتاوقال كونيتزر إنه يمكن للمستخدمين أن يفترضوا عن طريق الخطأ أنهم أكثر دقة لأنهم يقدمون إجابات بثقة.

وقال “إذا رأينا شخصًا يستجيب بثقة أو الكلمات التي تبدو واثقة ، فإننا نعتبر أن الشخص يعرف حقًا ما الذي يتحدثون عنه”. “نظام الذكاء الاصطناعى ، قد يزعم أنه واثق للغاية بشأن شيء هراء تمامًا.”

دروس لمستخدم الذكاء الاصطناعي

الوعي لقيود الذكاء الاصطناعى التوليدي أمر حيوي لاستخدامه بشكل صحيح. نصيحة SHIKETSTUN لمستخدمي نماذج مثل chatgpt و الجوزاء من Google بسيط: “عليك التحقق من النتائج.”

وقال إن نماذج اللغة الكبيرة العامة تقوم بعمل ضعيف في استرداد المعلومات الواقعية باستمرار. إذا طلبت منه شيئًا ما ، فيجب عليك المتابعة من خلال البحث عن الإجابة في محرك البحث (وعدم الاعتماد على ملخص AI لنتائج البحث). بحلول الوقت الذي تقوم به ، ربما كنت أفضل حالًا في القيام بذلك في المقام الأول.

قال سايكيستون إن الطريقة التي يستخدم بها نماذج الذكاء الاصطناعى هي أتمتة المهام التي يمكنه القيام بها على أي حال وأنه يمكنه التحقق من الدقة ، مثل تنسيق جداول المعلومات أو رمز الكتابة. وقال “المبدأ الأوسع هو أنني أجد أن هذه النماذج مفيدة للغاية لأتمتة العمل الذي تعرفه بالفعل كيفية القيام به”.

اقرأ المزيد: 5 طرق للبقاء ذكيًا عند استخدام Gen AI ، كما أوضح أساتذة علوم الكمبيوتر

هل الذكاء العام الاصطناعي قاب قوسين أو أدنى؟

إحدى أولويات صناعة تنمية الذكاء الاصطناعى هي سباق واضح لإنشاء ما يسمى غالبًا الذكاء العام الاصطناعي ، أو AGI. هذا نموذج قادر عمومًا على المستوى البشري من الفكر أو أفضل.

وجد استطلاع التقرير آراء قوية حول سباق AGI. والجدير بالذكر أن أكثر من ثلاثة أرباع (76 ٪) من المجيبين قالوا إن زيادة تقنيات الذكاء الاصطناعي مثل نماذج اللغة الكبيرة من غير المرجح أن تنتج AGI. أغلبية كبيرة من الباحثين تشك في أن المسيرة الحالية تجاه AGI ستعمل.

أغلبية كبيرة بالمثل تعتقد أن الأنظمة القادرة على الذكاء العام الاصطناعي يجب أن تكون مملوكة للجمهور إذا تم تطويرها من قبل الكيانات الخاصة (82 ٪). يتماشى ذلك مع المخاوف بشأن الأخلاق والجنود المحتملة لإنشاء نظام يمكنه التفكير في البشر. قال معظم الباحثين (70 ٪) إنهم يعارضون إيقاف أبحاث AGI حتى يتم تطوير أنظمة السلامة والتحكم. وقال التقرير “يبدو أن هذه الإجابات تشير إلى تفضيل لاستكشاف الموضوع المستمر ، ضمن بعض الضمانات”.

وقال سميثستون إن المحادثة حول أجي معقدة. إلى حد ما ، لقد أنشأنا بالفعل أنظمة لها شكل من أشكال الذكاء العام. نماذج اللغة الكبيرة مثل chatgpt من Openai قادرة على القيام بمجموعة متنوعة من الأنشطة البشرية ، على عكس نماذج الذكاء الاصطناعى الأقدم التي يمكن أن تفعل شيئًا واحدًا فقط ، مثل Play Chess. والسؤال هو ما إذا كان يمكن أن يفعل الكثير من الأشياء باستمرار على المستوى البشري.

وقال سايكيستون “أعتقد أننا بعيدون جدًا عن هذا”.

وقال إن هذه النماذج تفتقر إلى مفهوم مدمج للحقيقة والقدرة على التعامل مع المهام الإبداعية المفتوحة حقًا. وقال “لا أرى الطريق لجعلهم يعملون بقوة في بيئة بشرية باستخدام التكنولوجيا الحالية”. “أعتقد أن هناك العديد من التطورات البحثية في طريق الوصول إلى هناك.”

قال Conitzer إن تعريف ما يشكل بالضبط Agi أمرًا صعبًا: في كثير من الأحيان ، يعني الناس شيئًا يمكنه القيام بمعظم المهام بشكل أفضل من الإنسان ، لكن البعض يقول إنه مجرد شيء قادر على القيام بمجموعة من المهام. وقال “التعريف الأكثر صرامة هو شيء من شأنه أن يجعلنا حقًا زائداً تمامًا”.

في حين أن الباحثين متشككين في ذلك أجي قاب قوسين أو أدنى، حذر Conitzer من أن باحثو الذكاء الاصطناعى لا يتوقعون بالضرورة التحسن التكنولوجي الدرامي الذي شهدناه جميعًا في السنوات القليلة الماضية.

وقال: “لم نر مدى سرعة تغير الأمور مؤخرًا ، وبالتالي قد تتساءل عما إذا كنا سنرى ذلك سيأتي إذا استمرت في العمل بشكل أسرع”.


Source Link