Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار التقنية

يضيف معيار MLPerf 3.0 LLMs ويظهر ارتفاعًا كبيرًا في أداء تدريب AI


انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح.. يتعلم أكثر


مع استمرار الضجيج والزخم وراء الذكاء الاصطناعي التوليدي في النمو ، كذلك يستمر أداء الأنظمة الأساسية التي تتيح تدريب التعلم الآلي (ML).

أعلنت MLCommons اليوم عن أحدث مجموعة من النتائج لمعيار MLPerf للتدريب 3.0. يهدف هذا إلى توفير مجموعة قياسية من القياسات الصناعية لأداء تدريب نموذج ML. MLCommons هو اتحاد هندسي مفتوح يركز على معايير ML ، ومجموعات البيانات وأفضل الممارسات لتسريع تطوير الذكاء الاصطناعي. لدى المجموعة سلسلة من معايير ML ، بما في ذلك استدلال MLPerf ، الذي تم تحديثه آخر مرة في أبريل. تم إصدار نتائج ML Perf Training 2.1 في نوفمبر 2022.

التضمين الجديد الكبير مع MLPerf Training 3.0 هو تقديم اختبار لتدريب نماذج اللغات الكبيرة (LLMs) ، بدءًا من GPT-3 تحديدًا. تأتي إضافة LLM إلى مجموعة المعايير في وقت حرج حيث تقوم المؤسسات ببناء تقنيات الذكاء الاصطناعي التوليفية.

بشكل عام ، تتضمن الجولة الأخيرة من معايير التدريب أكثر من 250 نتيجة أداء مختلفة من 16 بائعًا بما في ذلك: ASUSTek و Microsoft Azure و Dell و Fujitsu و GIGABYTE و H3C و IEI و Intel و Habana Labs و Krai و Lenovo و Nvidia و CoreWeave + Nvidia و تقنية كوانتا كلاود ، سوبرمايكرو و إكس فيوجن.

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

تفوق قدرات ML على قانون مور

بشكل أساسي ، ما تظهره نتائج اختبار MLPerf Training 3.0 المعياري عبر جميع النتائج هو تعزيز كبير في الأداء يكشف كيف تتفوق قدرات ML على قانون مور.

“كصناعة ، قانون مور هو ما يدفعنا إلى الأمام ؛ هذا هو المقياس الذي يستخدمه كثير من الناس في التفكير في التقدم في مجال الإلكترونيات ، “قال المدير التنفيذي لشركة MLCommons ، ديفيد كانتر ، خلال مؤتمر صحفي. “مكاسب الأداء التي شهدناها منذ عام 2018 هي شيء في حي من 30 إلى 50X ، وهو أمر لا يصدق ، وهذا أسرع بحوالي 10 أضعاف من قانون مور.”

بالنظر على وجه التحديد إلى بيانات MLPerf Training خلال العام الماضي وحده ، قال كانتر إن جميع النتائج قد شهدت مكاسب تتراوح بين 5 ٪ في النهاية المنخفضة و 54 ٪ في النهاية العليا.

لماذا يزداد تدريب ML بشكل أسرع

الائتمان: نفيديا

هناك عدد من الأسباب التي تجعل تدريب تعلم الآلة يزداد سرعة ، وبمعدل يفوق قانون مور.

أحد الروافع الأساسية لجعل التدريب أسرع هو السيليكون المُحسَّن ، وهو أمر كان بائعو الصناعة بما في ذلك Nvidia و Intel يكررونه بقوة. لاحظ كانتر أنه عندما بدأت معايير MLPerf ، استخدم السيليكون الأكثر تقدمًا عملية 16 نانومتر. على النقيض من ذلك ، فإن الأكثر تقدمًا اليوم هو 5 نانومتر ، مما يوفر كثافة وأداء أكبر نتيجة لذلك.

وراء هذه الأجهزة الخوارزميات والبرمجيات. وأشار كانتر إلى أن البائعين والباحثين يطورون باستمرار طرقًا جديدة وفعالة لتنفيذ العمليات. بالإضافة إلى ذلك ، هناك تحسينات عامة في سلسلة أدوات التطوير مع المكونات الأساسية مثل برامج التحويل البرمجي للكود. ثم هناك مسألة الحجم: بناء أنظمة أكبر مع مزيد من عرض النطاق الترددي للاتصال.

قامت Nvidia ببناء اتصالها القائم على InfiniBand في السنوات الأخيرة لدعم النطاق الترددي للاتصالات عالية السرعة. من جانبها ، تعمل إنتل على تحسين إيثرنت لدعم الأداء المتزايد لعمليات ML.

أظهرنا ذلك مع [Intel] قال جوردان بلاونر ، كبير مديري منتجات الذكاء الاصطناعي في إنتل خلال المكالمة الصحفية لـ MLCommons ، أن Xeon يمكنك الحصول على 97 إلى 100٪ من التحجيم باستخدام نسيج Ethernet قياسي مضبوط بدقة.

إن تدريب LLM المعياري ليس بالمهمة السهلة

لم تكن الخطوة لدمج معيار تدريب LLM خصيصًا لـ GPT-3 مهمة صغيرة لـ MLCommons. GPT-3 هو نموذج 175 مليار معلمة ؛ في المقابل ، فإن نموذج BERT لمعالجة اللغة الطبيعية (NLP) أصغر بكثير عند 340 مليون معلمة.

قال كانتر: “هذا إلى حد بعيد هو الأكثر تطلبًا من الناحية الحسابية من معاييرنا”.

حتى بالنسبة إلى Nvidia ، استغرق معيار LLM قدرًا ملحوظًا من الجهد لإجراء التقييم. في إيجاز ، أوضح ديف سالفاتور ، مدير قياس الذكاء الاصطناعي وتقديم الخدمات السحابية في Nvidia ، أن شركته قامت بمشروع مشترك جنبًا إلى جنب مع مزود النظام الأساسي السحابي CoreWeave للمعيار. استخدم التقييم 3484 وحدة معالجة رسومات عبر العديد من معايير MLPerf Training 3.0.

أشار سالفاتور إلى أن CoreWeave قد أعلنت عن التوفر العام لمثيلاتها الضخمة من GPU في حدث Nvidia GTC في مارس. وأضاف أن CoreWeave كان المحرك الأول لإتاحة مثيلات HGX H100 بشكل عام.

قال سالفاتور: “من خلال هذا ، إما أن نضع أو نكسر الأرقام القياسية في كل عبء عمل تقريبًا”. “الشيء المثير للاهتمام أيضًا في هذا هو أن المثال هو مثال تجاري مباشر.”

يتم أيضًا استخدام مثيلات CoreWeave HGX H100 المستخدمة لمعايير MLPerf بواسطة بدء التشغيل Inflection AI ، الذي طور الذكاء الاصطناعي الخاص به والذي يطلق عليه Pi. أشار سالفاتور إلى أن Inflection AI ساعد أيضًا Nvidia و CoreWeave في بعض الضبط الدقيق لمثيلات وحدة معالجة الرسومات.

قال سالفاتور: “نتائج الاختبار التي نحصل عليها في MLPerf ليست نوعًا من المختبر المعقم المعقم بالهواء الذي لا يمثل بيئة حقيقية”. “هذا مثال متوفر تجاريًا في العالم الحقيقي جدًا حيث نشهد هذه النتائج ، ولدينا عميل مثل Inflection AI الذي يعمل على LLM متطور ويستخدم نفس الحالة ويحقق نتائج رائعة.”

مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى