Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار التقنية

تساعد Nvidia المؤسسات في توجيه استجابات الذكاء الاصطناعي والتحكم فيها باستخدام NeMo Guardrails


انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح.. يتعلم أكثر


يتمثل التحدي الأساسي للذكاء الاصطناعي التوليدي ونماذج اللغات الكبيرة (LLM) بشكل عام في خطر حصول المستخدم على استجابة غير مناسبة أو غير دقيقة.

إن الحاجة إلى حماية المؤسسات ومستخدميها مفهومة جيدًا من قبل Nvidia ، التي أصدرت اليوم إطار عمل NeMo Guardrails مفتوح المصدر الجديد للمساعدة في حل التحدي. يوفر مشروع NeMo Guardrails طريقة تمكن المؤسسات من بناء ونشر LLM لحالات استخدام مختلفة ، بما في ذلك روبوتات المحادثة ، التأكد من بقاء الردود على المسار الصحيح. توفر حواجز الحماية مجموعة من الضوابط المحددة بلغة سياسة جديدة للمساعدة في تحديد وفرض الحدود لضمان أن تكون استجابات الذكاء الاصطناعي موضعية وآمنة ولا تسبب أي مخاطر أمنية.

>> تابع تغطية الذكاء الاصطناعي التوليدية المستمرة من VentureBeat <

قال جوناثان كوهين ، نائب رئيس الأبحاث التطبيقية في Nvidia ، خلال مؤتمر صحفي ومحلل: “نعتقد أن كل مؤسسة ستكون قادرة على الاستفادة من الذكاء الاصطناعي التوليدي لدعم أعمالها”. “ولكن من أجل استخدام هذه النماذج في الإنتاج ، من المهم أن يتم نشرها بطريقة آمنة ومأمونة.”

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

لماذا تعتبر حواجز الحماية مهمة بالنسبة لـ LLMs

أوضح كوهين أن الدرابزين هو دليل يساعد على إبقاء المحادثة بين الإنسان والذكاء الاصطناعي على المسار الصحيح.

الطريقة التي تفكر بها Nvidia في حواجز الحماية للذكاء الاصطناعي ، هناك ثلاث فئات أساسية حيث توجد حاجة محددة. الفئة الأولى عبارة عن حواجز حماية موضعية ، والتي تتعلق كلها بالتأكد من أن استجابة الذكاء الاصطناعي تبقى فعليًا في موضوع ما. تدور حواجز الحماية الموضعية أيضًا حول التأكد من بقاء الاستجابة في النغمة الصحيحة.

حواجز السلامة هي الفئة الأساسية الثانية وهي مصممة للتأكد من دقة الردود والتحقق من الحقائق. يجب أيضًا التحقق من الردود للتأكد من أنها أخلاقية ولا تتضمن أي نوع من المحتوى السام أو المعلومات المضللة. أقر كوهين بالمفهوم العام لـ “هلوسة” الذكاء الاصطناعي حول سبب الحاجة إلى حواجز الأمان. مع هلوسة الذكاء الاصطناعي ، يولد LLM استجابة غير صحيحة إذا لم يكن لديه المعلومات الصحيحة في قاعدته المعرفية.

الفئة الثالثة من حواجز الحماية التي ترى Nvidia فيها حاجة هي الأمان. علق كوهين أنه نظرًا لأنه يُسمح لـ LLMs بالاتصال بواجهات برمجة تطبيقات وتطبيقات تابعة لجهات خارجية ، يمكن أن تصبح سطح هجوم جذاب لتهديدات الأمن السيبراني.

قال كوهين: “عندما تسمح لنموذج لغوي بتنفيذ بعض الإجراءات فعليًا في العالم ، فأنت تريد مراقبة الطلبات التي يتم إرسالها إلى نموذج اللغة هذا”.

كيف يعمل NeMo Guardrails

مع NeMo Guardrails ، ما تفعله Nvidia هو إضافة طبقة أخرى إلى مجموعة الأدوات والنماذج للمؤسسات التي يجب مراعاتها عند نشر التطبيقات التي تعمل بالذكاء الاصطناعي.

إطار عمل Guardrails هو رمز يتم نشره بين المستخدم والتطبيق الذي يدعم LLM. يمكن أن تعمل NeMo Guardrails مباشرة مع LLM أو مع LangChain. أشار كوهين إلى أن العديد من تطبيقات الذكاء الاصطناعي الحديثة تستخدم إطار عمل LangChain مفتوح المصدر للمساعدة في بناء التطبيقات التي تجمع بين مكونات مختلفة من LLMs.

أوضح كوهين أن NeMo Guardrails يراقب المحادثات من وإلى التطبيق المدعوم بـ LLM باستخدام محرك حوار سياقي متطور. يتتبع المحرك حالة المحادثة ويوفر طريقة قابلة للبرمجة للمطورين لتنفيذ حواجز الحماية.

يتم تمكين الطبيعة القابلة للبرمجة لـ NeMo Guardrails من خلال لغة سياسة Colang الجديدة التي أنشأتها Nvidia أيضًا. قال كوهين إن لغة كولانج هي لغة خاصة بالمجال لوصف تدفقات المحادثة.

قال كوهين: “إن شفرة مصدر كولانج تشبه إلى حد كبير اللغة الطبيعية”. “إنها أداة سهلة الاستخدام للغاية ، وهي قوية جدًا وتتيح لك بشكل أساسي كتابة نموذج اللغة إلى شيء يشبه اللغة الإنجليزية تقريبًا.”

عند الإطلاق ، توفر Nvidia مجموعة من القوالب للسياسات المشتركة المعدة مسبقًا لتنفيذ حواجز الحماية الموضعية والسلامة والأمن. التكنولوجيا متاحة مجانًا كمصدر مفتوح وستوفر Nvidia أيضًا دعمًا تجاريًا للمؤسسات كجزء من مجموعة أدوات Nvidia AI للمؤسسات.

قال كوهين: “هدفنا حقًا هو تمكين النظام البيئي للنماذج اللغوية الكبيرة من التطور بطريقة آمنة وفعالة ومفيدة”. “من الصعب استخدام النماذج اللغوية إذا كنت تخشى ما قد يقولونه ، ولذا أعتقد أن الدرابزين يحل مشكلة مهمة.”

مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى