تدخل رقائق Grace Hopper الفائقة من Nvidia للذكاء الاصطناعي التوليدي مرحلة الإنتاج الكامل
تواصل مع كبار قادة الألعاب في لوس أنجلوس في GamesBeat Summit 2023 في الفترة من 22 إلى 23 مايو. سجل هنا.
أعلنت Nvidia أن Nvidia GH200 Grace Hopper Superchip قيد الإنتاج الكامل ، معدة لأنظمة الطاقة التي تشغل برامج الذكاء الاصطناعي المعقدة.
كما أن أعباء عمل الحوسبة عالية الأداء المستهدفة (HPC) ، تنضم الأنظمة التي تعمل بنظام GH200 إلى أكثر من 400 تكوين للنظام استنادًا إلى أحدث أبنية وحدة المعالجة المركزية ووحدة معالجة الرسومات من Nvidia – بما في ذلك Nvidia Grace و Nvidia Hopper و Nvidia Ada Lovelace – التي تم إنشاؤها للمساعدة في تلبية الطلب المتزايد للذكاء الاصطناعي التوليدي.
في معرض Computex التجاري في تايوان ، كشف الرئيس التنفيذي لشركة Nvidia Jensen Huang عن أنظمة وشركاء وتفاصيل إضافية حول GH200 Grace Hopper Superchip ، والتي تجمع بين معمارية Nvidia Grace CPU و Hopper GPU باستخدام تقنية Nvidia NVLink-C2C.
يوفر هذا عرض نطاق ترددي إجمالي يصل إلى 900 جيجابت / ثانية – أو عرض نطاق ترددي أعلى بسبع مرات من ممرات PCIe Gen5 القياسية الموجودة في الأنظمة التقليدية المتسارعة ، مما يوفر قدرة حوسبة مذهلة لمعالجة تطبيقات الذكاء الاصطناعي و HPC الأكثر تطلبًا.
حدث
GamesBeat Summit 2023
انضم إلى مجتمع GamesBeat في يومنا الافتراضي والمحتوى حسب الطلب! ستسمع من ألمع العقول في صناعة الألعاب لمشاركة تحديثاتهم حول آخر التطورات.
سجل هنا
قال إيان باك ، نائب رئيس الحوسبة المتسارعة في Nvidia ، في بيان: “يعمل الذكاء الاصطناعي التوليدي على إحداث تحول سريع في الأعمال التجارية ، وإطلاق العنان لفرص جديدة ، وتسريع الاكتشاف في مجالات الرعاية الصحية والتمويل وخدمات الأعمال والعديد من الصناعات الأخرى”. “مع إنتاج Grace Hopper Superchips بكامل طاقته ، سيوفر المصنعون في جميع أنحاء العالم قريبًا البنية التحتية المتسارعة التي تحتاجها مؤسسات الذكاء الاصطناعي لبناء ونشر تطبيقات الذكاء الاصطناعي التوليدية التي تستفيد من بيانات الملكية الفريدة الخاصة بهم.”
تعد مراكز الحوسبة الفائقة العالمية ومراكز الحوسبة الفائقة في أوروبا والولايات المتحدة من بين العديد من العملاء الذين سيتمكنون من الوصول إلى الأنظمة التي تعمل بنظام GH200.
قال باك في إيجاز صحفي: “نحن جميعًا نشعر بالسعادة لما يمكن أن تفعله نماذج الذكاء الاصطناعي العملاقة”.
المئات من الأنظمة المتسارعة والمثيلات السحابية
يُعد المصنعون التايوانيون من بين العديد من مصنعي الأنظمة في جميع أنحاء العالم الذين يقدمون أنظمة مدعومة بأحدث تقنيات Nvidia ، بما في ذلك Aaeon و Advantech و Aetina و ASRock Rack و Asus و Gigabyte و Ingrasys و Inventec و Pegatron و QCT و Tyan و Wistron و Wiwynn.
بالإضافة إلى ذلك ، تقدم الشركات المصنعة للخوادم العالمية Cisco و Dell Technologies و Hewlett Packard Enterprise و Lenovo و Supermicro و Eviden ، وهي شركة Atos ، مجموعة واسعة من أنظمة Nvidia المتسارعة.
يشمل شركاء السحابة لـ Nvidia H100 Amazon Web Services (AWS) و Cirrascale و CoreWeave و Google Cloud و Lambda و Microsoft Azure و Oracle Cloud Infrastructure و Paperspace و Vultr.
تقدم Nvidia AI Enterprise ، طبقة البرامج لمنصة Nvidia AI ، أكثر من 100 إطار عمل ونماذج مسبقة التدريب وأدوات تطوير لتبسيط تطوير ونشر الذكاء الاصطناعي للإنتاج ، بما في ذلك الذكاء الاصطناعي التوليدي ورؤية الكمبيوتر والذكاء الاصطناعي للكلام.
من المتوقع أن تكون الأنظمة المزودة بشرائح GH200 Super متاحة في وقت لاحق من هذا العام.
تكشف Nvidia عن مواصفات خادم MGX
لتلبية احتياجات الحوسبة المتسارعة المتنوعة لمراكز البيانات ، كشفت Nvidia اليوم عن Nvidia
مواصفات خادم MGX ، التي تزود مصنعي الأنظمة بهندسة مرجعية معيارية لبناء أكثر من 100 نوع من الخوادم بسرعة وفعالية من حيث التكلفة لتناسب مجموعة واسعة من تطبيقات الذكاء الاصطناعي والحوسبة عالية الأداء وتطبيقات Omniverse.
سوف تتبنى ASRock Rack و ASUS و GIGABYTE و Pegatron و QCT و Supermicro MGX ، والتي يمكنها خفض تكاليف التطوير بما يصل إلى ثلاثة أرباع وتقليل وقت التطوير بمقدار الثلثين إلى ستة أشهر فقط.
قال Kaustubh Sanghani ، نائب رئيس منتجات GPU في Nvidia ، في بيان: “تبحث الشركات عن المزيد من خيارات الحوسبة السريعة عند تصميم مراكز البيانات التي تلبي احتياجات الأعمال والتطبيقات المحددة الخاصة بهم”. “لقد أنشأنا MGX لمساعدة المؤسسات على التمهيد للذكاء الاصطناعي للمؤسسات ، مع توفير قدر كبير من الوقت والمال.”
مع MGX ، يبدأ المصنعون ببنية نظام أساسية محسّنة للحوسبة السريعة لهيكل الخادم الخاص بهم ، ثم يختارون GPU و DPU و CPU. يمكن أن تعالج اختلافات التصميم أعباء العمل الفريدة ، مثل HPC وعلوم البيانات ونماذج اللغات الكبيرة والحوسبة المتطورة والرسومات والفيديو والذكاء الاصطناعي للمؤسسات والتصميم والمحاكاة.
يمكن التعامل مع مهام متعددة مثل تدريب الذكاء الاصطناعي والجيل الخامس على جهاز واحد ، بينما يمكن أن تكون الترقيات للأجيال القادمة من الأجهزة خالية من الاحتكاك. قال Nvidia إنه يمكن أيضًا دمج MGX بسهولة في مراكز البيانات السحابية والمؤسسات.
سيكون QCT و Supermicro أول من يتم تسويقه ، مع ظهور تصاميم MGX في أغسطس. سيشمل نظام Supermicro’s ARS-221GL-NR ، الذي تم الإعلان عنه اليوم ، رقاقة Nvidia Grace TM CPU Superchip ، بينما سيستخدم نظام QCT’s S74G-2U ، الذي تم الإعلان عنه اليوم أيضًا ، Nvidia GH200 Grace Hopper Superchip.
بالإضافة إلى ذلك ، تخطط SoftBank لطرح عدة مراكز بيانات فائقة النطاقات في جميع أنحاء اليابان واستخدام MGX لتخصيص موارد GPU ديناميكيًا بين تطبيقات AI و 5G التوليدية.
قال جونيتشي مياكاوا ، الرئيس التنفيذي لشركة SoftBank ، في بيان: “نظرًا لتغلغل الذكاء الاصطناعي التوليدي في أنماط حياة الأعمال والمستهلكين ، فإن بناء البنية التحتية المناسبة بالتكلفة المناسبة يعد أحد أكبر التحديات التي يواجهها مشغلو الشبكات”. “نتوقع أن تتمكن Nvidia MGX من مواجهة مثل هذه التحديات والسماح بتعدد استخدامات الذكاء الاصطناعي والجيل الخامس
والمزيد اعتمادًا على متطلبات عبء العمل في الوقت الفعلي “.
تختلف MGX عن Nvidia HGX من حيث أنها توفر توافقًا مرنًا ومتعدد الأجيال مع منتجات Nvidia لضمان قدرة منشئي الأنظمة على إعادة استخدام التصميمات الحالية واعتماد منتجات الجيل التالي بسهولة دون إعادة تصميم باهظة الثمن. في المقابل ، يعتمد HGX على وحدة معالجة رسومات متعددة متصلة بـ NVLink
لوحة أساسية مصممة لتوسيع نطاقها لإنشاء أفضل أنظمة الذكاء الاصطناعي و HPC.
تعلن Nvidia عن DGX GH200 AI Supercomputer
أعلنت Nvidia أيضًا عن فئة جديدة من أجهزة الكمبيوتر العملاقة ذات الذاكرة الكبيرة والذكاء الاصطناعي – وهو كمبيوتر فائق Nvidia DGX مدعوم من Nvidia GH200 Grace Hopper Superchips ونظام Nvidia NVLink Switch System – الذي تم إنشاؤه لتمكين تطوير نماذج عملاقة من الجيل التالي لتطبيقات لغة الذكاء الاصطناعي التوليدية ، التوصية. أعباء عمل الأنظمة وتحليل البيانات.
تستخدم مساحة الذاكرة المشتركة في Nvidia DGX GH200 تقنية NVLink interconnect مع نظام NVLink Switch System للجمع بين 256 GH200 Superchips ، مما يسمح لها بالعمل كوحدة معالجة رسومات واحدة. يوفر هذا 1 إكسا فلوب من الأداء و 144 تيرابايت من الذاكرة المشتركة – ما يقرب من 500 ضعف الذاكرة مقارنة بنظام واحد Nvidia DGX A100.
قال هوانغ: “الذكاء الاصطناعي التوليدي ونماذج اللغات الكبيرة وأنظمة التوصية هي المحركات الرقمية للاقتصاد الحديث”. تدمج أجهزة الكمبيوتر العملاقة DGX GH200 AI أكثر تسريعًا تقدمًا من Nvidia
تقنيات الحوسبة والشبكات لتوسيع حدود الذكاء الاصطناعي. “
تلغي رقائق GH200 الفائقة الحاجة إلى اتصال PCIe تقليدي من وحدة المعالجة المركزية إلى GPU من خلال الجمع بين وحدة المعالجة المركزية Nvidia Grace القائمة على الذراع مع وحدة معالجة الرسومات Nvidia H100 Tensor Core في نفس الحزمة ، باستخدام التوصيلات البينية لشريحة Nvidia NVLink-C2C. يؤدي ذلك إلى زيادة عرض النطاق الترددي بين وحدة معالجة الرسومات ووحدة المعالجة المركزية بمقدار 7 أضعاف مقارنة بأحدث تقنيات PCIe ، ويقلل من استهلاك طاقة التوصيل البيني بأكثر من 5x ، ويوفر لبنة بناء GPU بهندسة هوبر سعة 600 جيجابايت لأجهزة الكمبيوتر العملاقة DGX GH200.
DGX GH200 هو أول كمبيوتر عملاق يقرن Grace Hopper Superchips مع نظام Nvidia NVLink Switch System ، وهو اتصال داخلي جديد يمكّن جميع وحدات معالجة الرسومات في نظام DGX GH200 من العمل معًا كوحدة واحدة. تم توفير نظام الجيل السابق لثمانية وحدات معالجة رسومات فقط ليتم دمجها مع NVLink كوحدة معالجة رسومات واحدة دون المساس بالأداء.
توفر بنية DGX GH200 نطاقًا تردديًا أكبر بمقدار 10 أضعاف من الجيل السابق ، مما يوفر قوة كمبيوتر عملاق AI مع بساطة برمجة وحدة معالجة رسومات واحدة.
تعد Google Cloud و Meta و Microsoft من بين أوائل المتوقعين للوصول إلى DGX GH200 لاستكشاف إمكاناتها لأعباء عمل الذكاء الاصطناعي التوليدية. تعتزم Nvidia أيضًا توفير تصميم DGX GH200 كمخطط لمقدمي الخدمات السحابية وغيرهم من أجهزة القياس الفائقة حتى يتمكنوا من تخصيصها بشكل أكبر لبنيتهم التحتية.
قال مارك لومير ، نائب رئيس Compute في Google Cloud ، في بيان: “يتطلب بناء نماذج إنتاجية متقدمة مناهج مبتكرة للبنية التحتية للذكاء الاصطناعي”. “يعالج مقياس NVLink الجديد والذاكرة المشتركة لـ Grace Hopper Superchips الاختناقات الرئيسية في الذكاء الاصطناعي على نطاق واسع ونتطلع إلى استكشاف قدراته في Google Cloud ومبادرات الذكاء الاصطناعي التوليدية الخاصة بنا.”
من المتوقع أن تكون أجهزة الكمبيوتر العملاقة Nvidia DGX GH200 متاحة بحلول نهاية العام.
أخيرًا ، أعلن هوانغ أن حاسوبًا عملاقًا جديدًا يسمى Nvidia Taipei-1 سيجلب المزيد من موارد الحوسبة المتسارعة إلى آسيا لتعزيز تطوير تطبيقات الذكاء الاصطناعي والتطبيقات الصناعية.
سوف تقوم Taipei-1 بتوسيع نطاق خدمة الحوسبة الفائقة Nvidia DGX Cloud AI في المنطقة مع 64
أجهزة الكمبيوتر العملاقة DGX H100 AI. وسيشمل النظام أيضًا 64 نظامًا من أنظمة Nvidia OVX للتسريع محليًا
البحث والتطوير وشبكات Nvidia لتشغيل الحوسبة المسرَّعة بكفاءة عالية على أي نطاق.
تمتلك Nvidia وتديرها ، ومن المتوقع أن يبدأ تشغيل النظام في وقت لاحق من هذا العام.
ستكون معاهد التعليم والبحث الرائدة في تايوان من بين أول من يصل إلى تايبيه -1 للتقدم
الرعاية الصحية ونماذج اللغات الكبيرة وعلوم المناخ والروبوتات والتصنيع الذكي والصناعي الرقمي
توأمان. تخطط جامعة تايوان الوطنية لدراسة تعلم الكلام بنموذج كبير للغة كمشروع تايبيه -1 الأولي.
يكرس باحثو جامعة تايوان الوطنية جهودهم لتطوير العلوم عبر مجموعة واسعة من المجالات
قال شاو هوا سون ، المساعد ، إنه التزام يتطلب بشكل متزايد الحوسبة السريعة
أستاذ بقسم الهندسة الكهربائية بجامعة تايوان الوطنية ، في بيان. “سيساعد الكمبيوتر الفائق Nvidia Taipei-1 الباحثين وأعضاء هيئة التدريس والطلاب لدينا على الاستفادة من الذكاء الاصطناعي والتوائم الرقمية لمواجهة التحديات المعقدة في العديد من الصناعات.”
عقيدة GamesBeat عندما تكون تغطية صناعة الألعاب “حيث يلتقي الشغف بالعمل”. ماذا يعني هذا؟ نريد أن نخبرك كيف تهمك الأخبار – ليس فقط كصانع قرار في استوديو ألعاب ، ولكن أيضًا كمشجع للألعاب. سواء كنت تقرأ مقالاتنا أو تستمع إلى ملفاتنا الصوتية أو تشاهد مقاطع الفيديو الخاصة بنا ، فإن GamesBeat ستساعدك على التعرف على الصناعة والاستمتاع بالتفاعل معها. اكتشف إحاطاتنا.
اكتشاف المزيد من إشراق التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.