Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار التقنية

إطلاق العنان لقوة مراكز البيانات: حوسبة عالية الأداء للجميع


توجه إلى مكتبتنا عند الطلب لعرض الجلسات من VB Transform 2023. سجل هنا


هذه المقالة جزء من إصدار خاص لـ VB. اقرأ السلسلة الكاملة هنا: مستقبل مركز البيانات: التعامل مع متطلبات أكبر وأكبر.

كان إطلاق ChatGPT قبل سبعة أشهر لحظة فاصلة ، حيث حوّل انتباه العالم إلى الذكاء الاصطناعي التوليدي (AI). مبنيًا على سلسلة GPT الخاصة بـ OpenAI ، يعرض برنامج chatbot الشامل استعدادًا للمحادثات الديناميكية ، مما يتيح للأفراد فرصة الخوض في عالم الذكاء الآلي واكتشاف إمكاناته في تعزيز كل من استفساراتهم المهنية والشخصية.

بالنسبة للمؤسسات ، كان ChatGPT بعيدًا عن المثال الأول لتعرض الذكاء الاصطناعي. قبل ظهور الأداة التوليدية في المقدمة ، كانت الشركات عبر القطاعات تستخدم بالفعل الذكاء الاصطناعي والتعلم الآلي (ML) في جوانب مختلفة من عملها – في شكل رؤية الكمبيوتر وأنظمة التوصية والتحليلات التنبؤية وغير ذلك الكثير. إذا كان هناك أي شيء ، فقد تأكد روبوت OpenAI فقط من مضاعفة هذه الجهود للبقاء في المنافسة.

اليوم ، تراهن الشركات بشكل كبير على جميع أنواع أعباء العمل من الجيل التالي. ومع ذلك ، هذه ليست قطعة من الكعكة. خذ GPT-3 ، أحد النماذج وراء ChatGPT. احتاجت تقنية 175 مليار متغير إلى حوالي 3640 بيتافلوب-يوم في قوة الحوسبة للتدريب. هذا ما يقرب من كوادريليون عملية حسابية في الثانية لفترة متصلة تبلغ 3640 يومًا.

حدث

VB Transform 2023 حسب الطلب

هل فاتتك جلسة من VB Transform 2023؟ سجل للوصول إلى المكتبة عند الطلب لجميع جلساتنا المميزة.

سجل الان

كيف يمكن لمراكز البيانات تلبية متطلبات الحوسبة الواسعة هذه؟

للتعامل مع العمليات الحسابية التي تتطلبها أعباء العمل من الجيل التالي بسرعة وفعالية ، تحتاج المؤسسات إلى حوسبة متوازية على نطاق واسع (MPP) في مراكز البيانات الخاصة بها. MPP هي تقنية مستخدمة في الحوسبة عالية الأداء (HPC) والتي تأخذ مهمة معقدة (مثل الاستعلام عن قاعدة بيانات معقدة) وتقسيمها إلى العديد من المهام الأصغر ، والتي تعمل بعد ذلك على عقد منفصلة تعمل في وقت واحد. يتم دمج النتائج للحصول على الناتج النهائي.

تعمل العديد من مراكز البيانات على معالجات للأغراض العامة ، والتي يمكنها التعامل مع أعباء العمل التقليدية ولكنها ليست بالسرعة الكافية لإجراء العديد من العمليات الحسابية المعقدة ، مثل مضاعفة المصفوفات الكبيرة وإضافة متجهات معقدة في نفس الوقت. يدفع هذا العيب الشركات إلى إعادة التفكير في مراكز البيانات الخاصة بها والتركيز على المعالجات المتخصصة مثل وحدات معالجة الرسومات.

قال براندون واردلو ، المدير المساعد للاستشارات التقنية في شركة بروتيفيتي الاستشارية: “من أبرز التحولات هو الاتجاه نحو تفريغ أعباء العمل على الأجهزة المتخصصة”. “عقد الحوسبة للأغراض العامة ذات السعة الثقيلة لوحدة المعالجة المركزية ليست ببساطة كافية وغير فعالة من حيث التكلفة لأحمال العمل من الجيل التالي ، وكان هناك ابتكار هائل بين مصنعي GPU ومقدمي أجهزة FPGA (مصفوفة بوابات قابلة للبرمجة ميدانيًا) وأجهزة ASIC (دائرة متكاملة خاصة بالتطبيقات) لدعم الحساب المتوازي للغاية الضروري لتدريب النماذج.”

Nvidia هي إحدى الشركات التي تقود التحول نحو مراكز البيانات المتخصصة المسرعة بالأجهزة. توفر منصة مركز البيانات الخاصة بها مجموعة متنوعة من خيارات وحدة معالجة الرسومات – من أعلى أداء H100 إلى مستوى الدخول A30 – لتلبية متطلبات الحوسبة المكثفة لأحمال العمل الحديثة ، من الحوسبة والبحث إلى تدريب النموذج العلمي للغة كبيرة (LLM) ، والتحليل في الوقت الفعلي لكفاءة الماكينة وتوليد المواد القانونية.

في إحدى الحالات ، تستخدم شركة الاتصالات Telconet ومقرها الإكوادور DGX H100 من Nvidia ، وهو نظام مكون من ثماني وحدات معالجة رسومات H100 مجتمعة ، لبناء تحليلات فيديو ذكية للمدن الآمنة والخدمات اللغوية لدعم العملاء عبر اللهجات الإسبانية. وبالمثل ، في اليابان ، يتم استخدام وحدات معالجة الرسومات عالية الأداء هذه بواسطة CyberAgent ، وهي شركة خدمات إنترنت ، لإنشاء إعلانات رقمية ذكية وصور رمزية للمشاهير.

تعمل شركة ميتسوي وشركاه ، إحدى أكبر التكتلات التجارية في اليابان ، على الاستفادة من DGX H100 ، باستخدام ما يصل إلى 16 حالة من هذا النظام (128 وحدة معالجة رسومات) لتشغيل محاكاة ديناميكية جزيئية عالية الدقة ونماذج ذكاء اصطناعي توليدية تهدف إلى تسريع اكتشاف الأدوية.

يأتي التسريع المستند إلى وحدة معالجة الرسومات مصحوبًا بالتحديات

على الرغم من أن التسريع المستند إلى GPU يلبي متطلبات أعباء العمل عبر مختلف القطاعات ، إلا أنه لا يمكن أن يكون فعالاً بشكل كامل ما لم تتم معالجة قيود معينة.

المشكلة ذات شقين. أولاً ، يجلب تنفيذ هذه البطاقات الإضافية تحديًا ماديًا كبيرًا لأن خوادم “pizza-box” التقليدية المكونة من وحدة واحدة أو رفين لا تحتوي على مساحة لاستيعابها. ثانيًا ، ينتج عن هذا النوع من أجهزة الحوسبة الكثيفة أيضًا سحبًا عاليًا للطاقة (DGX H100 له استهلاك متوقع يبلغ حوالي 10.2 كيلو واط كحد أقصى) وإخراج حراري ، مما يؤدي إلى اختناقات تشغيلية وزيادة التكلفة الإجمالية لملكية مركز البيانات.

لمعالجة هذا الأمر ، اقترح واردلاو إجراء تسهيلات تعويضية في مكان آخر ، مثل زيادة كثافة الحوسبة باستخدام شرائح x64 عالية النواة وترحيل أعباء العمل ذات الأغراض العامة إلى هذه الأنظمة الأساسية. كما أكد على اتباع نهج أكثر استباقية للإدارة الحرارية وتحسين تخطيطات مركز البيانات لزيادة كفاءة التبريد وكفاءته.

وفقًا لستيف كونرز ، نائب رئيس المبيعات وهندسة الحلول في Vantage Data Centers ، فإن مفتاح دعم HPC هو الابتعاد عن البصمة المبردة بالهواء. هذا لأنه يتعين على المرء التحكم في درجات الحرارة على وحدات المعالجة المركزية ووحدات معالجة الرسومات ، والطريقة الوحيدة للقيام بذلك هي الانتقال إلى نوع من الوسط الذي يتميز بملف تعريف تبادل حراري أفضل بكثير من الهواء – على سبيل المثال التبريد بمساعدة السوائل.

ما رأيناه يعمل مع منصات أخرى من وجهة نظر HPC [is that] الطريقة الوحيدة للحصول على هذا الأداء الأقصى هي توصيل هذا السائل إلى المشتت الحراري ، سواء على جانب وحدة معالجة الرسومات (GPU) ووحدة المعالجة المركزية (CPU) بالمنزل ، “قال لـ VentureBeat.

اختيارات إضافية

إلى جانب الأجهزة المتخصصة ، يمكن للمؤسسات التفكير في الحلول البديلة مثل التسريع المستند إلى البرامج لدعم بعض أعباء العمل من الجيل التالي في مراكز البيانات الخاصة بهم.

على سبيل المثال ، تقدم شركة ThirdAI ومقرها تكساس محركًا خوارزميًا قائمًا على التجزئة يقلل من العمليات الحسابية ويمكّن وحدات المعالجة المركزية السلعية x86 من تدريب نماذج التعلم العميق أثناء مطابقة أداء وحدات معالجة رسومات معينة. لا يمكن أن يكون هذا أكثر تكلفة (اعتمادًا على عبء العمل) فحسب ، بل يؤدي أيضًا إلى إنشاء عدد أقل من الحواجز التشغيلية والمادية.

هناك أيضًا خيار التحسين ، باستخدام تقنيات مثل تقطير المعرفة لتقليل حجم النموذج وتسهيل دعمه.

يمكن أن تؤدي هذه الأساليب إلى بعض فقدان الدقة. لكن بارس جوهاس ، كبير مسؤولي التكنولوجيا والشريك المؤسس لمولد المحتوى Undetectable AI ، قال إن نموذج الشركة المقطر أسرع بنسبة 65٪ من النموذج الأساسي ، مع الاحتفاظ بـ 90٪ من الدقة – وهي مقايضة جديرة بالاهتمام.

“يمكن التفكير في قياس أداء النماذج بطريقة مماثلة لمكدسات التكنولوجيا الحالية ، أي أفقيًا ورأسيًا. قد تكون إضافة المزيد من وحدات معالجة الرسومات أقرب إلى القياس الأفقي ، في حين أن تحسين النموذج واستخدام البرنامج المعجل سيكون أقرب إلى القياس الرأسي. مفتاح تجديد الأداء هو فهم المواصفات الفنية للنموذج [workload] واختيار خيار التسريع المناسب للمطابقة “.

وفقًا لـ Wardlaw ، إذا كانت أعباء عمل AI / ML عملية “دائمة التشغيل” للأعمال ، فإن امتلاك وإدارة الأجهزة المتخصصة محليًا في مركز البيانات سيكون فعالاً من حيث التكلفة على نطاق واسع.

ومع ذلك ، إذا لم تكن أعباء العمل هذه عملية “دائمة التشغيل” وقد لا تقوم الشركة بتشغيل أعباء العمل هذه بالمقياس أو التردد المطلوبين لتبرير الاستثمار ، فسيكون من الأفضل البحث عن طرق تسريع بديلة أو أجهزة مُحسّنة للذكاء الاصطناعي / تعلم الآلة يقدمها موفر مخصص أو فائق السحاب على نموذج البنية التحتية كخدمة (IaaS).

مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى