أخبار التقنية

ماذا بعد البحث في نموذج اللغة الكبيرة (LLM)؟ إليك ما ينزل من رمح ML


هناك الكثير من الإثارة حول التطبيقات المحتملة لنماذج اللغات الكبيرة (LLM). نحن نرى بالفعل LLMs مستخدمة في العديد من التطبيقات ، بما في ذلك إنشاء رسائل البريد الإلكتروني وإنشاء رمز البرنامج.

ولكن مع تزايد الاهتمام بـ LLMs ، تزداد المخاوف بشأن حدودها ؛ هذا يمكن أن يجعل من الصعب استخدامها في تطبيقات مختلفة. وتشمل بعض هذه الحقائق الهلوسة الخاطئة ، والفشل في المهام التي تتطلب الفطرة السليمة ، واستهلاك كميات كبيرة من الطاقة.

فيما يلي بعض مجالات البحث التي يمكن أن تساعد في معالجة هذه المشكلات وإتاحة LLM لمزيد من المجالات في المستقبل.

استرجاع المعرفة

واحدة من المشاكل الرئيسية مع LLMs مثل ChatGPT و GPT-3 هي ميلهم إلى “الهلوسة”. يتم تدريب هذه النماذج على إنشاء نص معقول ، وليس قائمًا على حقائق حقيقية. هذا هو السبب في أنهم يستطيعون اختلاق أشياء لم تحدث أبدًا. منذ إصدار ChatGPT ، أشار العديد من المستخدمين إلى كيفية حث النموذج على إنشاء نص يبدو مقنعًا ولكنه غير صحيح في الواقع.

إحدى الطرق التي يمكن أن تساعد في معالجة هذه المشكلة هي فئة من التقنيات المعروفة باسم “استرجاع المعرفة”. الفكرة الأساسية وراء استرجاع المعرفة هي تزويد LLM بسياق إضافي من مصدر معرفة خارجي مثل Wikipedia أو قاعدة معرفية خاصة بالمجال.

قدمت Google “نموذج استرجاع اللغة المعزز قبل التدريب” (REALM) في عام 2020. عندما يقدم المستخدم موجهًا للنموذج ، تستخدم وحدة “المسترد العصبي” المطالبة لاسترداد المستندات ذات الصلة من مجموعة المعرفة. يتم بعد ذلك تمرير المستندات والموجه الأصلي إلى LLM ، والذي يقوم بإنشاء المخرجات النهائية في سياق مستندات المعرفة.

يستمر العمل على استرجاع المعرفة لإحراز تقدم. في الآونة الأخيرة ، قدمت AI21 Labs “نمذجة اللغة المعززة للاسترجاع في السياق” ، وهي تقنية تجعل من السهل تنفيذ استرجاع المعرفة في أنظمة LLM مختلفة في الصندوق الأسود ومفتوحة المصدر.

يمكنك أيضًا مشاهدة استرداد المعرفة في العمل في You.com وإصدار ChatGPT المستخدم في Bing. بعد تلقي المطالبة ، تقوم LLM أولاً بإنشاء استعلام بحث ، ثم استرداد المستندات وإنشاء مخرجاتها باستخدام تلك المصادر. كما يوفر روابط للمصادر ، وهو أمر مفيد للغاية للتحقق من المعلومات التي ينتجها النموذج. إن استرجاع المعرفة ليس حلاً مثاليًا ولا يزال يخطئ. لكن يبدو أنها خطوة واحدة في الاتجاه الصحيح.

تقنيات هندسية سريعة أفضل

على الرغم من نتائجها المثيرة للإعجاب ، فإن LLM لا تفهم اللغة والعالم – على الأقل ليس بالطريقة التي يفهمها البشر. لذلك ، ستكون هناك دائمًا حالات يتصرفون فيها بشكل غير متوقع ويرتكبون أخطاء تبدو غبية للبشر.

تتمثل إحدى طرق مواجهة هذا التحدي في “الهندسة السريعة” ، وهي مجموعة من التقنيات لصياغة المطالبات التي توجه LLM لإنتاج مخرجات أكثر موثوقية. تتضمن بعض أساليب الهندسة السريعة إنشاء أمثلة “للتعلم السريع” ، حيث تقوم مسبقًا بإرفاق موجهك ببعض الأمثلة المماثلة والمخرجات المرغوبة. يستخدم النموذج هذه الأمثلة كدليل عند إنتاج مخرجاته. من خلال إنشاء مجموعات بيانات من أمثلة قليلة اللقطات ، يمكن للشركات تحسين أداء LLM دون الحاجة إلى إعادة تدريبها أو ضبطها.

خط عمل آخر مثير للاهتمام هو “تحفيز سلسلة الأفكار (COT)” ، وهي سلسلة من التقنيات الهندسية السريعة التي تمكن النموذج من إنتاج ليس فقط إجابة ولكن أيضًا الخطوات التي يستخدمها للوصول إليها. تعد مطالبة CoT مفيدة بشكل خاص للتطبيقات التي تتطلب التفكير المنطقي أو الحساب خطوة بخطوة.

هناك طرق مختلفة لـ CoT ، بما في ذلك تقنية قليلة اللقطات تسبق المطالبة ببعض الأمثلة على الحلول خطوة بخطوة. هناك طريقة أخرى ، وهي عبارة عن طلقة صفرية CoT ، تستخدم عبارة تشغيل لإجبار LLM على إنتاج الخطوات التي تصل إلى النتيجة. وهناك تقنية أحدث تسمى “المنطق المتسلسل الأمين” تستخدم خطوات وأدوات متعددة للتأكد من أن مخرجات LLM هي انعكاس دقيق للخطوات التي تستخدمها للوصول إلى النتائج.

المنطق والمنطق من بين التحديات الأساسية للتعلم العميق التي قد تتطلب بنى وأساليب جديدة للذكاء الاصطناعي. ولكن في الوقت الحالي ، يمكن لتقنيات المطالبة الأفضل أن تساعد في تقليل الأخطاء المنطقية التي ترتكبها LLM وتساعد في استكشاف الأخطاء وإصلاحها.

تقنيات المحاذاة والضبط الدقيق

سيؤدي ضبط LLM مع مجموعات البيانات الخاصة بالتطبيق إلى تحسين متانتها وأدائها في تلك المجالات. يكون الضبط الدقيق مفيدًا بشكل خاص عند نشر LLM مثل GPT-3 في مجال متخصص حيث يكون أداء نموذج الأغراض العامة ضعيفًا.

يمكن لتقنيات الضبط الدقيق الجديدة تحسين دقة النماذج بشكل أكبر. وتجدر الإشارة إلى “التعلم المعزز من ردود الفعل البشرية” (RLHF) ، وهي التقنية المستخدمة لتدريب ChatGPT. في RLHF ، يصوت المعلقون البشريون على إجابات LLM المدربة مسبقًا. يتم استخدام ملاحظاتهم بعد ذلك لتدريب نظام المكافآت الذي يقوم بضبط LLM بشكل أفضل ليصبح أكثر توافقًا مع نوايا المستخدم. عملت RLHF بشكل جيد للغاية مع ChatGPT وهذا هو السبب في أنها أفضل بكثير من سابقاتها في إرشادات المستخدم التالية.

ستكون الخطوة التالية للمجال هي أن يقوم OpenAI و Microsoft وموفرو منصات LLM الآخرين بإنشاء أدوات تمكن الشركات من إنشاء خطوط أنابيب RLHF الخاصة بها وتخصيص النماذج لتطبيقاتها.

محسن LLMs

واحدة من المشاكل الكبيرة مع LLM هي تكاليفها الباهظة. يمكن أن يكون التدريب وتشغيل نموذج بحجم GPT-3 و ChatGPT مكلفًا للغاية بحيث يجعلهما غير متاحين لشركات وتطبيقات معينة.

هناك العديد من الجهود لخفض تكاليف ماجستير في القانون. يتمحور بعضها حول إنشاء أجهزة أكثر كفاءة ، مثل معالجات AI الخاصة المصممة لـ LLM.

اتجاه آخر مثير للاهتمام هو تطوير LLMs الجديدة التي يمكن أن تتطابق مع أداء النماذج الأكبر مع عدد أقل من المعلمات. أحد الأمثلة على ذلك هو LLaMA ، وهي عائلة من LLM صغيرة عالية الأداء تم تطويرها بواسطة Facebook. يمكن الوصول إلى نماذج LLaMa لمختبرات الأبحاث والمؤسسات التي لا تمتلك البنية التحتية لتشغيل نماذج كبيرة جدًا.

وفقًا لـ Facebook ، يتفوق إصدار LLaMa الذي تبلغ قيمته 13 مليار معلمة على إصدار 175 مليار معلمة من GPT-3 في المعايير الرئيسية ، ويتطابق المتغير البالغ 65 مليارًا مع أداء أكبر النماذج ، بما في ذلك المعلمة 540 مليار PaLM.

بينما تواجه LLM العديد من التحديات التي يجب التغلب عليها ، سيكون من المثير للاهتمام كيف ستساعد هذه التطورات في جعلها أكثر موثوقية ويمكن الوصول إليها من قبل المطورين ومجتمع البحث.

مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى