Home الأجهزة والإلكترونيات نظرة عامة على Google AI تشرح التعبيرات المكياج مع هراء واثق

نظرة عامة على Google AI تشرح التعبيرات المكياج مع هراء واثق

16
0

يمكن أن تبدو اللغة معقدة بشكل لا نهائي تقريبًا ، حيث أن النكات الداخلية والتعابير لها معنى لمجموعة صغيرة من الناس فقط وتبدو لا معنى لها لبقية منا. شكرا ل AI التوليدي، حتى المعنى الذي لا معنى له هذا الأسبوع حيث انفجر الإنترنت مثل سمك السلمون المرقط على قدرة نظرة عامة على بحث Google Search لتحديد العبارات لم ينطق بها من قبل.

ما ، لم تسمع أبدًا عبارة “فجرت مثل تراوت بروك”؟ بالتأكيد ، لقد صنعت الأمر للتو ، لكن نظرة عامة على منظمة العفو الدولية من Google أخبرتني أنها “طريقة عامية لقول شيء ما انفجر أو أصبح إحساسًا سريعًا” ، من المحتمل أن تشير إلى ألوان وعلامات الأسماك الجذابة. لا ، هذا لا معنى له.

قد يكون الاتجاه قد بدأ على المواضيع، حيث المؤلف وكاتب السيناريو ميغان ويلسون أناستاسيوس شارك ما حدث عندما بحثت عن “الكعب منصة زبدة الفول السوداني”. عادت Google إلى نتيجة تشير إلى تجربة علمية (غير حقيقية) تم فيها استخدام زبدة الفول السوداني لإظهار إنشاء الماس تحت الضغط العالي.

انتقلت إلى مواقع التواصل الاجتماعي الأخرى ، مثل بلوزكي، حيث شارك الناس تفسيرات Google للعبارات مثل “لا يمكنك لعق غرير مرتين”. اللعبة: ابحث عن عبارة رواية لا معنى لها مع “معنى” في النهاية.

تدحرجت الأشياء من هناك.

لقطة شاشة من قبل جون ريد/CNET

لقطة شاشة من قبل جون ريد/CNET

هذه الميم مثيرة للاهتمام لأسباب أكثر من الإغاثة الهزلية. إنه يوضح كيف يمكن أن تتردد نماذج اللغة لتوفير إجابة الأصوات صحيح ، ليس ذلك يكون صحيح.

وقال “لقد تم تصميمها لتوليد استجابات بطلاقة وملاءمة ، حتى عندما تكون المدخلات غير منطقية تمامًا”. يافانغ لي، أستاذ مساعد في كلية فوغلمان للأعمال والاقتصاد بجامعة ممفيس. “إنهم ليسوا مدربين للتحقق من الحقيقة. يتم تدريبهم على إكمال الجملة.”

مثل الغراء على البيتزا

تعيد المعاني المزيفة للأقوال المتكيئة ذكريات القصص الحقيقية حول نظرة عامة على منظمة العفو الدولية التي تعطي إجابات خاطئة بشكل لا يصدق على الأسئلة الأساسية-مثل عندما تكون عندما كانت اقترح وضع الغراء على البيتزا لمساعدة الجبن عصا.

يبدو هذا الاتجاه أكثر ضررًا على الأقل لأنه لا يركز على نصيحة عملية. أعني ، أنا آمل أن لا يحاول أحد أن يلعق غرير مرة واحدة ، أقل بكثير مرتين. المشكلة وراء ذلك ، هي نفسها – أ نموذج لغة كبير، يحب الجوزاء من Google وراء نظرة عامة على الذكاء الاصطناعي ، يحاول الإجابة على أسئلتك وتقديم رد ممكن. حتى لو كان ما يعطيك هراء.

وقال متحدث باسم Google إن نظرة عامة على الذكاء الاصطناعي مصممة لعرض المعلومات التي تدعمها أفضل نتائج الويب ، وأنها لها معدل دقة مماثل لميزات البحث الأخرى.

وقال المتحدث باسم Google: “عندما يقوم الأشخاص بإجراء عمليات بحث غير منطقية أو” فرضية خاطئة “، ستحاول أنظمتنا إيجاد النتائج الأكثر صلة بناءً على محتوى الويب المحدود المتاح”. “هذا صحيح في البحث بشكل عام ، وفي بعض الحالات ، ستؤدي نظرة عامة على منظمة العفو الدولية أيضًا إلى تشغيل في محاولة لتوفير سياق مفيد.”

هذه الحالة بالذات عبارة عن “فراغ بيانات” ، حيث لا يوجد الكثير من المعلومات ذات الصلة المتاحة لاستعلام البحث. وقال المتحدث الرسمي إن Google تعمل على الحد من نظرة عامة على نظرة عامة على عمليات البحث عن عمليات البحث دون معلومات كافية ومنعها من توفير محتوى مضلل أو سخرية أو غير مفيدة. تستخدم Google معلومات حول استفسارات مثل هذه لفهم أفضل عندما يجب أن تظهر نظرة عامة على الذكاء الاصطناعي.

لن تحصل دائمًا على تعريف مكياج إذا طلبت معنى عبارة مزيفة. عند صياغة عنوان هذا القسم ، بحثت “مثل الغراء على معنى البيتزا” ، ولم يثير نظرة عامة على الذكاء الاصطناعي.

لا يبدو أن المشكلة عالمية عبر LLMS. سألت chatgpt لمعنى “لا يمكنك لعق غرير مرتين” وأخبرني العبارة “ليست تعبيرًا قياسيًا ، لكنها بالتأكيد الأصوات مثل هذا النوع من المثل الغريب والريفي الذي قد يستخدمه شخص ما. “ومع ذلك ، حاول تقديم تعريف على أي حال ، بشكل أساسي:” إذا فعلت شيئًا متهورًا أو استفزازًا مرة واحدة ، فقد لا تنجو من القيام بذلك مرة أخرى “.

اقرأ المزيد: منظمة العفو الدولية: 27 طريقة لجعل Gen AI تعمل من أجلك ، وفقًا لخبرائنا

سحب المعنى من العدم

هذه الظاهرة هي مثال مسلي لميل LLMS إلى تكوين الأشياء – ما يطلق عليه عالم الذكاء الاصطناعي “الهلوسة“عندما يهلل نموذج Gen AI ، فإنه ينتج معلومات تبدو وكأنها يمكن أن تكون معقولة أو دقيقة ولكنها ليست متجذرة في الواقع.

وقال لي ، إن LLMS “ليسوا مولدات حقيقة” ، فهي تتوقع فقط الأجزاء المنطقية التالية من اللغة بناءً على تدريبهم.

غالبية باحثو الذكاء الاصطناعى في أ مسح حديث ذكرت أنهم يشككون في دقة الذكاء الاصطناعي وجدارة القضايا سيتم حلها قريبًا.

لا تظهر التعاريف المزيفة عدم الدقة فحسب ، بل واثق عدم دقة LLMS. عندما تطلب من شخص ما معنى عبارة مثل “لا يمكنك الحصول على تركيا من Cybertruck” ، فمن المحتمل أن تتوقع منهم أن يقولوا إنهم لم يسمعوا بها وأنه لا معنى له. غالبًا ما تتفاعل LLMs مع نفس الثقة كما لو كنت تطلب تعريف التعبير الحقيقي.

في هذه الحالة ، تقول Google إن العبارة تعني أن Cybertruck من Tesla “غير مصمم أو قادر على توصيل الديوك الرومية في عيد الشكر أو غيرها من العناصر المماثلة” وتسلط الضوء على “تصميمها المتميز والمستقبلي الذي لا يفضي إلى حمل البضائع الضخمة”. يحرق.

هذا الاتجاه الفكاهي له درس مشؤوم: لا تثق بكل ما تراه من chatbot. قد يكون صنع الأشياء من الهواء الرقيق ، وهو لن يشير بالضرورة إلى أنه غير مؤكد.

وقال لي: “هذه لحظة مثالية للمعلمين والباحثين لاستخدام هذه السيناريوهات لتعليم الناس كيف يتم توليد المعنى وكيف يعمل الذكاء الاصطناعي ولماذا يهم”. “يجب أن يظل المستخدمون دائمًا متشككين والتحقق من المطالبات.”

كن حذرا ما تبحث عنه

نظرًا لأنك لا تستطيع الوثوق في LLM لتكون متشككًا نيابة عنك ، فأنت بحاجة إلى تشجيعها على أخذ ما تقوله مع حبة من الملح.

وقال لي: “عندما يدخل المستخدمون موجهًا ، يفترض النموذج أنه صحيح ثم يتابع إنشاء الإجابة الدقيقة على الأرجح لذلك”.

الحل هو إدخال الشكوك في مطالبك. لا تطلب معنى عبارة أو تعبير غير مألوف. اسأل عما إذا كان هذا حقيقيًا. اقترح لي أنك تسأل “هل هذا تعبير حقيقي؟”

وقالت “قد يساعد ذلك النموذج على التعرف على العبارة بدلاً من مجرد التخمين”.


Source Link