يقول قائد Google هذا إن البنية التحتية لـ ML هي “ قناة ” لنجاح الذكاء الاصطناعي للشركة
انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح.. يتعلم أكثر
قبل عامين ، أنشأت Google مجموعة جديدة تركز على البنية التحتية للتعلم الآلي ، بقيادة نائب الرئيس للهندسة من قسم أبحاث الذكاء الاصطناعي التابع لها – كجزء من حملة لتحقيق “مكاسب كبيرة” في الذكاء الاصطناعي. في مؤتمر Google I / O لهذا العام ، أصبح من الواضح أن مجموعة Core ML هذه ، التي تم تطويرها لتكون بمثابة “مركز ثقل” في تطبيق ML على منتجات Google ، قد نجحت بالتأكيد في مهمتها.
قال ناداف إيرون ، الذي بنى وقاد الفريق المكون من 1200 عضو ، لموقع VentureBeat: “يمكنني رؤية بصمات الفريق على كل شيء يحدث على المسرح”. “لقد كانت لحظة فخر للغاية بالنسبة لي.”
في مقابلة حصرية ، ناقش Eiron الدور الأساسي الذي لعبته Core ML في سباق Google الأخير لتطبيق الذكاء الاصطناعي التوليدي في منتجاتها – لا سيما كيف تعمل البنية التحتية لـ ML كقناة بين فرق البحث في Google DeepMind وفرق منتجات الشركة. (ملاحظة المحرر: تم تحرير هذه المقابلة من أجل الطول والوضوح).
>> تابع تغطية الذكاء الاصطناعي التوليدية المستمرة من VentureBeat <
حدث
تحويل 2023
انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.
سجل الان
VentureBeat: كيف تصف مهمة فريق Core ML في Google؟
نداف للحديد: نتطلع إلى فريق Core ML لتمكين الابتكارات من أن تصبح منتجات فعلية. أخبر فريقي دائمًا أننا بحاجة إلى إلقاء نظرة على الرحلة بأكملها من النقطة التي يمتلك فيها الباحث فكرة رائعة أو يحتاج منتجًا ويجد باحثًا لحلها – وصولاً إلى النقطة التي تغيرت فيها حياة مليار شخص بهذه الفكرة. هذه الرحلة مثيرة للاهتمام بشكل خاص هذه الأيام لأن ML يمر برحلة متسارعة لتصبح صناعة ، بينما كانت حتى عامين أو ثلاثة أعوام مضت ، مجرد موضوع بحث أكاديمي.
VB: كيف يجلس فريقك داخل مؤسسة Google؟
حديد: نحن نعمل في مؤسسة للبنية التحتية ، وهدفنا هو توفير الخدمات لجميع منتجات Google وكذلك خارجيًا ، مثل نظام TensorFlow البيئي بأكمله ، والمشاريع مفتوحة المصدر التي يمتلكها ويطورها فريقي.
الرحلة من فكرة رائعة إلى منتج رائع طويلة جدًا ومعقدة جدًا. إنه معقد ومكلف بشكل خاص عندما لا يكون منتجًا واحدًا ولكن مثل 25 ، أو على الرغم من الإعلان عن العديد من Google I / O. ومع التعقيد الذي يصاحب القيام بكل ذلك بطريقة قابلة للتطوير ومسؤولة ومستدامة وقابلة للصيانة.
نحن نبني شراكة ، من ناحية ، مع Google DeepMind لمساعدتهم ، منذ البداية ، على التفكير في كيفية تأثير أفكارهم على المنتجات وما الذي يعنيه بناء هذه الأفكار بطريقة من السهل دمجه في المنتجات لاحقًا. ولكن هناك أيضًا شراكة وثيقة مع الأشخاص الذين يقومون ببناء المنتجات – تزويدهم بالأدوات والخدمات والتكنولوجيا التي يمكنهم دمجها في منتجاتهم.
بينما ننظر إلى ما كان يحدث في الأشهر القليلة الماضية ، تسارع هذا المجال حقًا لأن بناء تجربة ذكاء اصطناعي توليدية أمر معقد. إنه برنامج أكثر بكثير من مجرد القدرة على توفير مدخلات إلى نموذج ثم أخذ الإخراج من هذا النموذج. هناك الكثير مما يدخل في ذلك ، بما في ذلك امتلاك النموذج بمجرد أن يصبح شيئًا بحثيًا ، ولكنه في الواقع يصبح جزءًا من البنية التحتية.
VB: هذا يعطيني رؤية أخرى كاملة لما تفعله Google. من وجهة نظرك ، ما الذي يفعله فريقك والذي تعتقد أن الناس لا يعرفون عنه حقًا عندما يتعلق الأمر بـ Google؟
حديد: إذن يتعلق الأمر بـ Google ، لكنني أعتقد أنه اتجاه أوسع حول كيفية تحول ML من السعي الأكاديمي إلى صناعة. إذا كنت تفكر في الكثير من التغييرات الكبيرة في المجتمع ، فقد بدأ الإنترنت كمشروع بحثي كبير ، وبعد 20 عامًا أصبح صناعة وحولها الناس إلى عمل تجاري. أعتقد أن ML على وشك فعل نفس الشيء. إذا قمت بإجراء هذا التغيير بطريقة متعمدة ، يمكنك جعل العملية تتم بشكل أسرع والحصول على نتائج أفضل.
هناك أشياء تقوم بها بشكل مختلف في مجال الصناعة مقارنةً بالبحث. أنا أنظر إليها على أنها منشئ البنية التحتية. نريد حقًا التأكد من وجود معايير صناعية. لقد أعطيت هذا المثال لفريقي في اليوم الآخر: إذا كنت ترغب في تحسين الشحن ، فقد تجادل حول ما إذا كانت حاوية الشحن يجب أن تكون 35 أو 40 أو 45 قدمًا. ولكن بمجرد أن تقرر أن حاويات الشحن هي السبيل للذهاب ، فإن حقيقة أن الجميع يتفقون على الحجم أهم بكثير من الحجم.
هذا مجرد مثال على نوع الأشياء التي تقوم بتحسينها عند إجراء البحث ولا تريد أن تقلق بشأن إنشاء صناعة. لهذا السبب ، على سبيل المثال ، أنشأنا OpenXLA [an open-source ML compiler ecosystem co-developed by AI/ML industry leaders to compile and optimize models from all leading ML frameworks] لأن الواجهة في المترجم في المنتصف شيء سيفيد الجميع إذا كان سلعيًا وموحدًا.
VB: كيف تصف الطريقة التي ينتقل بها المشروع من ورقة بحث Google DeepMind إلى منتج Google؟
حديد: اعتاد ML أن يكون حول الحصول على مجموعة من البيانات ، واكتشاف بنية ML ، وتدريب نموذج من الصفر ، وتقييمه ، وشطفه وتكراره. ما نراه اليوم هو أن تعلم الآلة أصبح أشبه بالبرنامج. أنت تدرب نموذجًا تأسيسيًا ثم تحتاج إلى صقله ثم يتغير النموذج الأساسي ثم ربما تتغير بيانات الضبط الدقيق ثم ربما ترغب في استخدامه لمهمة مختلفة. لذلك يخلق سير عمل. هذا يعني أنك بحاجة إلى أدوات مختلفة وأشياء مختلفة مهمة. تريد أن تتمتع هذه النماذج بطول العمر والاستمرارية.
لذلك نسأل أنفسنا أسئلة مثل ، “كيف يمكنك إجراء تحديثات على النموذج دون أن يزعج الناس به؟” هذه مشكلة كبيرة عند إنشاء برنامج لأنه سيكون لديك العديد من الأشخاص الذين يقومون ببناء المطالبات ، وتريد أن تكون قادرًا على تحديث النموذج الأساسي دون إرجاع 20 منتجًا. يمكنك القول أن هذه المشاكل الفريدة تأتي من الحجم. يمكنك أيضًا القول إنهم يأتون من الحاجة إلى توفير الاستمرارية للمستخدم النهائي ، أو من التركيز على تقديم تجربة المنتج حقًا. هناك فجوة كبيرة بين “لدينا نموذج رائع” و “لدينا تجربة ذكاء اصطناعي رائعة.”
VB: ما هو شكل عملك اليومي؟
حديد: يعمل الكثير منها على إنشاء روابط بين أجزاء مختلفة من المنظمة تفكر بشكل مختلف في الأشياء. على سبيل المثال ، تحدثنا عن الطرق المختلفة التي يفكر بها المنتجون عن المشكلات مقابل الباحثين. لأننا نعمل مع كل هؤلاء الأشخاص ، يمكننا تمثيلهم لبعضنا البعض. نجد أنفسنا في منتديات البحث نمثل الصالح العام لجميع المنتجات. نجد أنفسنا في منتديات المنتجات ، ونساعدهم على فهم مصدر الأبحاث وكيف يمكننا مساعدتهم. ومن الواضح أنه يتم قضاء الكثير من الوقت مع الأشخاص الذين يدعمون المنتج – خبراء الذكاء الاصطناعي المسؤولين وخبراء السياسة ، واستكشاف ما هو ممكن وما هو مرغوب فيه.
يمتد الفريق بشكل أساسي إلى المجموعة بأكملها – بدءًا من تصميم الأجهزة منخفضة المستوى ورموز البرامج وصولاً إلى تطبيق الذكاء الاصطناعي – العمل مع المنتجات ، وتقديم المشورة لهم بشأن النماذج التي يجب استخدامها ، ومساعدتهم على بناء الأدوات وكونهم شركاء كاملين . في الإطلاق.
VB: هل تم الإعلان عن أي منتجات في Google I / O شعرت بها بشدة فيما يتعلق بكل العمل الذي قام به فريقك؟
حديد: يعجبني بشكل خاص تعاوننا مع Google Workspace لعدة أسباب. أولاً ، أعتقد أن Workspace لديه فرصة فريدة في مساحة الذكاء الاصطناعي التوليدية لأن الذكاء الاصطناعي التوليدي يدور حول إنشاء المحتوى وأدوات مساحة العمل تتعلق كثيرًا بإنشاء المحتوى. وأشعر برغبة في امتلاك الذكاء الاصطناعي معك في الأداة ، فوجود ملاك صغير يجلس على كتفك أثناء قيامك بعملك هو شيء قوي للغاية يجب القيام به.
أنا أيضًا فخور بذلك بشكل خاص لأنني أعتقد أن فريق Workspace دخل في ثورة الذكاء الاصطناعي التوليدية هذه بخبرة واتصال أقل بفرق البحث الخاصة بنا مقارنة ببعض الفرق الأخرى. على سبيل المثال ، لدى Search تقليد طويل الأمد للعمل على أحدث تقنيات ML. لكن Workspace احتاج إلى المزيد من المساعدة من فريقي ، باعتباره الفريق المركزي الذي لديه خبراء ولديهم أدوات يمكنهم خلعها من الرف واستخدامها.
VB: أعلم أنك كنت تعمل في Google لأكثر من 17 عامًا ، لكنني أشعر بالفضول حقًا بشأن شكل الأشهر الستة الماضية. هل هناك قدر هائل من الضغط الآن؟
حديد: ما تغير هو هذا التسارع في استخدام الذكاء الاصطناعي التوليدي في المنتجات. لقد ارتفعت وتيرة العمل بالتأكيد. لقد كان جنونياً. لم آخذ إجازة حقيقية لفترة طويلة.
ولكن هناك أيضًا الكثير من الطاقة القادمة من ذلك. مرة أخرى ، من منظور شخص يبني البنية التحتية ويهتم بهذا الانتقال من البحث إلى الصناعة إلى المنتج ، فإنه يخلق ضغوطًا لتسريع هذا التحول.
على سبيل المثال ، تمكنا من إظهار أنه يمكن استخدام نموذج تأسيسي واحد عبر منتجات مختلفة ، مما أدى إلى تسريع تطوير المنتجات التي تستخدم هذه التكنولوجيا وسمح لنا بالحصول على مقعد في الصف الأول لمعرفة كيفية استخدام الأشخاص فعليًا للتكنولوجيا لبناء المنتجات . .
أعتقد اعتقادًا راسخًا أن أفضل بنية تحتية تأتي من تجربة محاولة القيام بالأمر دون امتلاك البنية التحتية. بسبب ضغط الوقت هذا وعدد الأشخاص الذين يعملون عليه ، الأفضل والأكثر ذكاءً ، تمكنا من رؤية: إليك ما يفعله الأشخاص عندما يتعين عليهم إطلاق تجربة ذكاء اصطناعي مولدة ، وهنا يمكننا أن نقدم لهم كمزودي البنية التحتية أدوات وخدمات وكتل بناء أفضل لتكون قادرًا على القيام بذلك بشكل أسرع في المرة القادمة.
VB: هل يمكنك التحدث عن كيفية تنظيم فريق Core ML؟
حديد: في طبقات. هناك أشخاص يركزون على الأجهزة والبرامج وتصميم الكود والتحسين على المجمعين ، الطبقات السفلية من المكدس. يقوم الأشخاص في المنتصف ببناء اللبنات الأساسية لتعلم الآلة – لذلك سيقومون ببناء خدمة تدريب وخدمة إدارة البيانات وخدمة الإشارة. يقومون أيضًا ببناء أطر عمل – لذا فهم مسؤولون عن Jax و TensorFlow وأطر عمل أخرى.
ثم في الجزء العلوي ، لدينا أشخاص يركزون على تجربة ML المطبقة لبناة المنتج – لذا فهم يعملون جنبًا إلى جنب مع الأشخاص المنتجين ويعيدون هذه المعرفة لما يلزم لبناء منتج فعليًا وكذلك بنية تحتية. هذه حقًا طليعة حيث نتفاعل مع المنتجات من ناحية والبحث من ناحية أخرى.
نحن نوعا ما كقناة للتكنولوجيا تتحرك عبر الفضاء. لكننا نمتلك الكثير من هذه البنية التحتية. على سبيل المثال ، نتحدث عن بناء هذه المجموعة الجديدة بالكامل من الخدمات لخلق تجربة ذكاء اصطناعي مولدة. مثل ، كيف تدير RLHF؟ كيف تدير التصفية؟ كيف تدير عمليات الإزالة؟ كيف تدير تنظيم البيانات للضبط الدقيق لهذه المنتجات؟ كل هذه مكونات نمتلكها على المدى الطويل. لا يتعلق الأمر فقط بـ “هذا هو الشيء الذي تحتاجه” ، بل هو أكثر “لقد لاحظت أن هذا شيء يحتاجه الكثير من الناس الآن ، لذلك أقوم ببنائه وتقديمه.”
VBe: هل هناك أي شيء تفعله أو تراه قادمًا لتحسين البنية التحتية؟
حديد: أحد الأشياء التي أنا متحمس جدًا لها هو توفير وصول API إلى هذه النماذج. أنت لا ترى حقًا مجتمع المصادر المفتوحة فحسب ، بل بائعي البرامج المستقلين يبنون منتجات على رأس تجارب الذكاء الاصطناعي التوليدية هذه. أعتقد أننا في وقت مبكر جدًا في رحلة الذكاء الاصطناعي التوليدية هذه ، سنرى الكثير من المنتجات القادمة إلى السوق. آمل أن يأتي الكثير منهم من Google ، لكنني أعرف العديد من الأفكار ، والعديد من الأفكار الجيدة ستحدث في أماكن أخرى. وأعتقد حقًا أن خلق بيئة مفتوحة حيث يمكن للناس أن يبتكروا فوق هذه القطع الرائعة من التكنولوجيا هو أمر مثير حقًا بالنسبة لي. أعتقد أننا سنرى الكثير من الأشياء الممتعة التي ستحدث خلال السنوات القليلة القادمة.
>> لا تفوّت إصدارنا الخاص: بناء الأساس لجودة بيانات العملاء. <
مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.