Home الأجهزة والإلكترونيات ChatGpt Glossary: ​​50 منظمة العفو الدولية يجب أن يعرفها الجميع

ChatGpt Glossary: ​​50 منظمة العفو الدولية يجب أن يعرفها الجميع

8
0

بشرط أكثر من نصف الأمريكيين يستخدمون بانتظام الذكاء الاصطناعي، سرعان ما أصبح جزءًا طبيعيًا من حياتنا اليومية. chatgptو جوجل الجوزاء و Microsoft Copilot يدفعون منظمة العفو الدولية إلى كل التكنولوجيا ، وتغيير كيفية تفاعلنا مع كل شيء. فجأة ، يمكن للناس إجراء محادثات ذات مغزى مع الآلات ، مما يعني أنه يمكنك طرح أسئلة على بثت في اللغة الطبيعية ويمكن أن تستجيب بإجابات جديدة ، مثل الإنسان.

لكن هذا الجانب من AI chatbots ليس سوى جزء واحد من مشهد الذكاء الاصطناعي. بالتأكيد ، وجود ChatGpt يساعد في القيام بواجبك أو إنشاء Midjourney صور رائعة للميكانيكية على أساس بلد المنشأ رائع ، لكن إمكانات الذكاء الاصطناعي التوليدي يمكن أن تعيد تشكيل الاقتصادات تمامًا. قد يكون ذلك يستحق 4.4 تريليون دولار للاقتصاد العالمي سنويًاوفقًا لمعهد ماكينزي العالمي ، ولهذا السبب يجب أن تتوقع سماع المزيد والمزيد عن الذكاء الاصطناعي.

إنها تظهر في مجموعة مذهلة من المنتجات – قائمة قصيرة قصيرة تشمل Google’s تَوأَم، Microsoft Copilot، الأنثروبور كلود، ال الحيرة أداة البحث AI والأدوات من إنسانية و أرنب. يمكنك قراءة مراجعاتنا والتقييمات العملية لتلك المنتجات والمنتجات الأخرى ، إلى جانب الأخبار والشرح والمنشورات ، في لدينا لديك Atlas Hub.

عندما يصبح الناس أكثر اعتمادًا على عالم متشابك مع الذكاء الاصطناعي ، تظهر مصطلحات جديدة في كل مكان. لذا ، سواء كنت تحاول أن تبدو ذكيًا على المشروبات أو التأثير في مقابلة عمل ، فإليك بعض شروط الذكاء الاصطناعى المهمة التي يجب أن تعرفها.

يتم تحديث هذا المسرد بانتظام.


الذكاء العام الاصطناعي ، أو AGI: مفهوم يشير إلى إصدار أكثر تقدماً من الذكاء الاصطناعى مما نعرفه اليوم ، يمكنه أداء المهام بشكل أفضل بكثير من البشر مع تدريس قدراتها الخاصة والتقدم بها.

الوكيل: الأنظمة أو النماذج التي تظهر الوكالة مع القدرة على متابعة الإجراءات بشكل مستقل لتحقيق هدف. في سياق الذكاء الاصطناعى ، يمكن للنموذج العامل أن يتصرف دون إشراف مستمر ، مثل سيارة مستقلة عالية المستوى. على عكس إطار عمل “وكيل” ، وهو في الخلفية ، فإن الأطر عمل في المقدمة ، مع التركيز على تجربة المستخدم.

أخلاقيات الذكاء الاصطناعي: المبادئ التي تهدف إلى منع منظمة العفو الدولية من إيذاء البشر ، تتحقق من خلال وسائل مثل تحديد كيفية جمع أنظمة الذكاء الاصطناعى أو التعامل مع التحيز.

سلامة الذكاء الاصطناعي: مجال متعدد التخصصات يهتم بالآثار الطويلة الأجل لمنظمة العفو الدولية وكيف يمكن أن يتقدم فجأة إلى ذكاء فائق يمكن أن يكون عدائيًا للبشر.

الخوارزمية: سلسلة من الإرشادات التي تسمح لبرنامج الكمبيوتر بتعلم وتحليل البيانات بطريقة معينة ، مثل التعرف على الأنماط ، ثم التعلم منها وإنجاز المهام من تلقاء نفسها.

تنسيق: تعديل الذكاء الاصطناعي لإنتاج النتيجة المرجوة بشكل أفضل. هذا يمكن أن يشير إلى أي شيء من المحتوى المعتدلة إلى الحفاظ على التفاعلات الإيجابية تجاه البشر.

مجسم: عندما يميل البشر إلى إعطاء الأشياء غير البشرية الخصائص البشرية. في الذكاء الاصطناعي ، يمكن أن يشمل ذلك الاعتقاد بأن chatbot أكثر إنسانية واعية مما هو في الواقع ، مثل الاعتقاد بأنه سعيد أو حزين أو حتى عاطفي تمامًا.

الذكاء الاصطناعي ، أو الذكاء الاصطناعي: استخدام التكنولوجيا لمحاكاة الذكاء البشري ، سواء في برامج الكمبيوتر أو الروبوتات. حقل في علوم الكمبيوتر يهدف إلى بناء أنظمة يمكن أن تؤدي المهام البشرية.

العوامل المستقلة: نموذج الذكاء الاصطناعى الذي لديه القدرات والبرمجة والأدوات الأخرى لإنجاز مهمة محددة. السيارة ذاتية القيادة هي عامل مستقل ، على سبيل المثال ، لأنها تحتوي على مدخلات حسية ، GPS وخوارزميات القيادة للتنقل في الطريق من تلقاء نفسها. باحثون في ستانفورد لقد أظهرت أن العوامل المستقلة يمكنها تطوير ثقافاتهم وتقاليدها واللغة المشتركة.

تحيز: فيما يتعلق بنماذج اللغة الكبيرة ، والأخطاء الناتجة عن بيانات التدريب. يمكن أن يؤدي ذلك إلى إسناد بعض الخصائص لبعض الأجناس أو المجموعات القائمة على الصور النمطية.

chatbot: برنامج يتواصل مع البشر من خلال النص الذي يحاكي اللغة البشرية.

chatgpt: chatbot منظمة العفو الدولية تم تطويرها بواسطة Openai التي تستخدم تقنية نموذج اللغة الكبيرة.

الحوسبة المعرفية: مصطلح آخر للذكاء الاصطناعي.

زيادة البيانات: إعادة خلع البيانات الحالية أو إضافة مجموعة أكثر تنوعًا من البيانات لتدريب الذكاء الاصطناعي.

التعلم العميق: طريقة من الذكاء الاصطناعي ، وحقل فرعي للتعلم الآلي ، تستخدم معلمات متعددة للتعرف على الأنماط المعقدة في الصور والصوت والنص. هذه العملية مستوحاة من الدماغ البشري وتستخدم الشبكات العصبية الاصطناعية لإنشاء أنماط.

انتشار: طريقة للتعلم الآلي تأخذ جزءًا موجودًا من البيانات ، مثل الصورة ، وتضيف ضوضاء عشوائية. تدريب نماذج الانتشار شبكاتها على إعادة هندسة أو استرداد تلك الصورة.

السلوك الناشئ: عندما يعرض نموذج الذكاء الاصطناعي قدرات غير مقصودة.

التعلم الشامل ، أو e2e: عملية تعليمية عميقة يتم فيها توجيه النموذج لأداء مهمة من البداية إلى النهاية. لم يتم تدريبه على إنجاز مهمة بالتتابع ولكن بدلاً من ذلك يتعلم من المدخلات ويحلها مرة واحدة.

الاعتبارات الأخلاقية: وعي بالآثار الأخلاقية لوكالة الذكاء الاصطناعى والقضايا المتعلقة بالخصوصية واستخدام البيانات والإنصاف وإساءة الاستخدام وقضايا السلامة الأخرى.

: المعروف أيضا باسم الإقلاع السريع أو الإقلاع الصعب. مفهوم أنه إذا قام شخص ما ببناء agi ، فقد يكون قد فات الأوان لإنقاذ الإنسانية.

شبكات الخصومة التوليدية ، أو Gans: نموذج AI التوليدي يتكون من شبكتين عصبيتين لإنشاء بيانات جديدة: مولد وتمييز. يقوم المولد بإنشاء محتوى جديد ، ويتحقق التمييز لمعرفة ما إذا كان أصيلًا.

AI التوليدي: تقنية توليد المحتوى تستخدم الذكاء الاصطناعي لإنشاء نص أو فيديو أو رمز الكمبيوتر أو الصور. يتم تغذية الذكاء الاصطناعي كميات كبيرة من بيانات التدريب ، ويجد أنماطًا لإنشاء استجاباته الجديدة ، والتي قد تكون في بعض الأحيان مشابهة للمادة المصدر.

Google Gemini: AI chatbot من Google تعمل بشكل مشابه لـ ChatGPT ولكنها تسحب المعلومات من الويب الحالية ، في حين أن ChatGPT يقتصر على البيانات حتى عام 2021 ولا يتم توصيله بالإنترنت.

الدرابزين: السياسات والقيود الموضوعة على نماذج الذكاء الاصطناعى لضمان معالجة البيانات بمسؤولية وأن النموذج لا يخلق محتوى مزعج.

هلوسة: استجابة غير صحيحة من الذكاء الاصطناعي. يمكن أن تشمل الإجابات التي تنتج AI من الذكاء الاصطناعي غير صحيحة ولكنها مذكورة بثقة كما لو كانت صحيحة. أسباب هذا غير معروفة تمامًا. على سبيل المثال ، عند سؤال chatbot منظمة العفو الدولية ، “متى قام ليوناردو دافنشي برسم المونالي ليزا؟” هو – هي يجوز للرد ببيان غير صحيح قائلاً: “قام ليوناردو دافنشي برسم المونالي ليزا في عام 1815” ، أي بعد 300 عام من رسمها بالفعل.

الاستدلال: تستخدم نماذج AI للعملية لإنشاء نص وصور ومحتوى آخر حول البيانات الجديدة ، بواسطة استنتاج من بيانات التدريب الخاصة بهم.

نموذج لغة كبير ، أو LLM: تم تدريب نموذج الذكاء الاصطناعي على كميات كبيرة من بيانات النص لفهم اللغة وإنشاء محتوى جديد بلغة تشبه الإنسان.

كمون: التأخير الزمني من عندما يتلقى نظام الذكاء الاصطناعى إدخال أو موجه وينتج إخراج.

التعلم الآلي ، أو مل: مكون في الذكاء الاصطناعي يسمح لأجهزة الكمبيوتر بالتعلم وجعل نتائج تنبؤية أفضل دون برمجة صريحة. يمكن أن تقترن بمجموعات التدريب لإنشاء محتوى جديد.

Microsoft Bing: محرك بحث من قبل Microsoft يمكنه الآن استخدام التكنولوجيا التي تعمل على تشغيل chatgpt لتقديم نتائج بحث مدعومة من الذكاء الاصطناعى. إنه يشبه Google Gemini في الاتصال بالإنترنت.

منظمة العفو الدولية متعددة الوسائط: نوع من الذكاء الاصطناعي الذي يمكنه معالجة أنواع متعددة من المدخلات ، بما في ذلك النص والصور ومقاطع الفيديو والكلام.

معالجة اللغة الطبيعية: فرع من الذكاء الاصطناعي الذي يستخدم التعلم الآلي والتعلم العميق لإعطاء أجهزة الكمبيوتر القدرة على فهم اللغة البشرية ، وغالبًا ما يستخدم خوارزميات التعلم والنماذج الإحصائية والقواعد اللغوية.

الشبكة العصبية: نموذج حسابي يشبه بنية الدماغ البشري ويهدف إلى التعرف على الأنماط في البيانات. يتكون من العقد المترابطة ، أو الخلايا العصبية ، التي يمكن أن تتعرف على الأنماط والتعلم بمرور الوقت.

التورط: خطأ في التعلم الآلي حيث يعمل بشكل وثيق إلى بيانات التدريب وقد يكون قادرًا فقط على تحديد أمثلة محددة في البيانات المذكورة ولكن ليس بيانات جديدة.

paperclips: نظرية Maximiser Paperclip ، التي صاغها الفيلسوف نيك بوستروم من جامعة أكسفورد ، هو سيناريو افتراضي حيث سيخلق نظام الذكاء الاصطناعي أكبر عدد ممكن من الدبوس الورقي الحرفي. في هدفها لإنتاج الحد الأقصى للكمية من الدبوس الورقي ، فإن نظام الذكاء الاصطناعى يستهلك افتراضيًا أو تحويل جميع المواد لتحقيق هدفه. قد يشمل ذلك تفكيك الآلات الأخرى لإنتاج المزيد من الدبوس الورقي ، الآلات التي قد تكون مفيدة للبشر. والنتيجة غير المقصودة لنظام الذكاء الاصطناعي هذا هي أنها قد تدمر الإنسانية في هدفها لصنع دبوسات ورقية.

حدود: القيم العددية التي تعطي بنية LLMS وسلوكها ، مما يتيح له إجراء تنبؤات.

الحيرة: اسم chatbot التي تعمل بالطاقة AI ومحرك البحث الذي يملكه AI Perplexity. يستخدم نموذج لغة كبير ، مثل تلك الموجودة في مجموعات الدردشة الأخرى من الذكاء الاصطناعي ، للإجابة على الأسئلة مع إجابات جديدة. يتيح اتصاله بالإنترنت المفتوح أيضًا التخلي عن المعلومات والسحب من النتائج من جميع أنحاء الويب. Perplexity Pro ، وهي طبقة مدفوعة من الخدمة ، متاحة أيضًا وتستخدم نماذج أخرى ، بما في ذلك GPT-4O و Claude 3 Opus و Mistral Large و Open Open Open Open و Sonar 32K. يمكن للمستخدمين المحترفين أيضًا تحميل المستندات للتحليل وإنشاء الصور وتفسير التعليمات البرمجية.

اِسْتَدْعَى: الاقتراح أو السؤال الذي تدخله في chatbot منظمة العفو الدولية للحصول على رد.

السلاسل الفوري: قدرة الذكاء الاصطناعى على استخدام المعلومات من التفاعلات السابقة لتلوين الاستجابات المستقبلية.

الببغاء العشوائي: تشبيه LLMS الذي يوضح أن البرنامج لا يحتوي على فهم أكبر للمعنى وراء اللغة أو العالم من حوله ، بغض النظر عن مدى مقنعة أصوات الإخراج. تشير العبارة إلى كيف يمكن للببغاء محاكاة الكلمات البشرية دون فهم المعنى وراءها.

نقل النمط: القدرة على تكييف نمط الصورة مع محتوى صورة أخرى ، مما يسمح لوكالة الذكاء الاصطناعى بتفسير السمات المرئية لصورة واحدة واستخدامها على صورة أخرى. على سبيل المثال ، أخذ المصورة الذاتية لـ Rembrandt وإعادة إنشاءها بأسلوب بيكاسو.

درجة حرارة: المعلمات تعيين للتحكم في مدى عشوائي إخراج نموذج اللغة. درجة الحرارة الأعلى تعني أن النموذج يتحمل المزيد من المخاطر.

جيل نص إلى صورة: إنشاء صور بناءً على الأوصاف النصية.

الرموز: أجزاء صغيرة من النص المكتوب التي تعالجها نماذج لغة الذكاء الاصطناعى لصياغة ردودها على المطالبات الخاصة بك. الرمز المميز يعادل أربعة أحرف باللغة الإنجليزية ، أو حوالي ثلاثة أرباع كلمة.

بيانات التدريب: مجموعات البيانات المستخدمة لمساعدة نماذج الذكاء الاصطناعي على التعلم ، بما في ذلك النص أو الصور أو التعليمات البرمجية أو البيانات.

نموذج المحولات: بنية الشبكة العصبية ونموذج التعلم العميق الذي يتعلم السياق من خلال تتبع العلاقات في البيانات ، كما هو الحال في الجمل أو أجزاء من الصور. لذا ، بدلاً من تحليل جملة كلمة واحدة في كل مرة ، يمكن أن تنظر إلى الجملة بأكملها وفهم السياق.

اختبار تورينج: سميت على اسم عالم الرياضيات الشهير وعالم الكمبيوتر آلان تورينج ، وهو يختبر قدرة الآلة على التصرف مثل الإنسان. يمر الجهاز إذا لم يتمكن الإنسان من التمييز بين استجابة الماكينة والإنسان الآخر.

التعلم غير الخاضع للإشراف: شكل من أشكال التعلم الآلي حيث لا يتم توفير بيانات التدريب المسمى للنموذج ، وبدلاً من ذلك يجب أن يحدد النموذج الأنماط في البيانات في حد ذاته.

منظمة العفو الدولية الضعيفة ، المعروفة أيضًا باسم الذكاء الضيق: منظمة العفو الدولية التي تركز على مهمة معينة ولا يمكن أن تتعلم ما وراء مجموعة المهارات. معظم الذكاء الاصطناعي اليوم ضعيف.

التعلم الصفر: الاختبار الذي يجب أن يكمل فيه النموذج المهمة دون إعطاء بيانات التدريب المطلوبة. مثال على ذلك هو التعرف على الأسد بينما يتم تدريبه فقط على النمور.


Source Link