Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار التقنية

تضيف أخبار Meta و Google الوقود إلى نيران الذكاء الاصطناعي مفتوحة المصدر


انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح.. يتعلم أكثر


أصبح النقاش حول الذكاء الاصطناعي مفتوح المصدر أكثر سخونة في Big Tech ، وذلك بفضل العناوين الرئيسية الأخيرة من Google و Meta.

في مساء الثلاثاء ، أفادت قناة CNBC أن أحدث نموذج لغوي كبير (LLM) PaLM 2 من Google “يستخدم ما يقرب من خمسة أضعاف البيانات النصية للتدريب مقارنة بسابقه” ، على الرغم من أنه عندما أعلن عن النموذج الأسبوع الماضي ، قالت Google إنه كان أصغر من النموذج السابق . PaLM ولكنه يستخدم “تقنية” أكثر كفاءة. وأكد المقال أن “الشركة لم تكن راغبة في نشر حجم بيانات التدريب الخاصة بها أو غيرها من التفاصيل”.

بينما رفض متحدث باسم Google التعليق على تقارير CNBC ، كان مهندسو Google ، بعبارة ملطفة ، غاضبين من التسريب ومتحمسون لمشاركة أفكارهم. في تغريدة تمت إزالتها الآن ، قام ديمتري (ديما) ليبيخين ، كبير مهندسي برامج الموظفين في Google DeepMind ، بالتغريد: “كل من سرب تفاصيل PaLM2 إلى cnbc ، اللعنة عليك بصدق!”

كما أن أليكس بولوزوف ، كبير الباحثين في فريق البحث في Google ، راعى أيضًا ما أسماه “التشدق” ، مشيرًا إلى أن التسرب يمثل سابقة لزيادة صومعة البحث.

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

وافق لوكاس باير ، الباحث في الذكاء الاصطناعي في Google في زيورخ ، على تويتر: “ليس عدد الرموز (الذي لا أعرف حتى ما إذا كان صحيحًا) هو الذي يزعجني ، إنه التآكل الكامل للثقة والاحترام. تؤدي تسريبات كهذه إلى التحدث عن الجسد وقلة الانفتاح بمرور الوقت ، وبيئة عمل / بحث أسوأ بشكل عام. و لماذا؟ FFS. ”

ليس ردًا على تسريب Google – ولكن في توقيت مصادفة – أجرى كبير علماء الذكاء الاصطناعي في Meta Yann LeCun مقابلة ركزت على جهود Meta مفتوحة المصدر للذكاء الاصطناعي مع نيويورك تايمزالذي تم نشره هذا الصباح.

يصف المقال إصدار Meta لنموذج اللغة الكبير LLaMA في فبراير على أنه “التخلي عن جواهر تاج الذكاء الاصطناعي الخاصة به” – منذ أن أصدر الكود المصدري للنموذج إلى “الأكاديميين والباحثين الحكوميين وغيرهم ممن قدموا عنوان بريدهم الإلكتروني إلى Meta” [and could then] تنزيل الكود بمجرد أن تقوم الشركة بفحص الفرد “.

قال LeCun في المقابلة: “المنصة التي ستفوز ستكون مفتوحة” ، مضيفًا لاحقًا أن السرية المتزايدة في Google و OpenAI هي “خطأ فادح” و “نظرة سيئة حقًا لما يحدث”.

في موضوع على تويتر ، الصحفي في VentureBeat شون مايكل كيرنر يشير الى خارج أن Meta قد “تخلت بالفعل عن واحدة من أكثر أدوات الذكاء الاصطناعي / تعلم الآلة أهمية على الإطلاق – PyTorch. يجب أن تكون العناصر التأسيسية مفتوحة / وهي كذلك. بعد كل شيء ، أين سيكون OpenAI بدون PyTorch؟ ”

لكن حتى Meta و LeCun لن يذهبوا إلى هذا الحد إلا فيما يتعلق بالانفتاح. على سبيل المثال ، أتاحت Meta أوزان نموذج LLa للأكاديميين والباحثين على أساس كل حالة على حدة – بما في ذلك ستانفورد لمشروع Alpaca – ولكن تم تسريب هذه الأوزان لاحقًا على 4chan. هذا التسريب هو ما سمح للمطورين في جميع أنحاء العالم بالوصول الكامل إلى LLM على مستوى GPT لأول مرة ، وليس إصدار Meta ، والذي لم يتضمن إطلاق نموذج LLaMA للاستخدام التجاري.

تحدثت VentureBeat مع Meta الشهر الماضي حول الفروق الدقيقة في تناولها للنقاش المفتوح مقابل المصادر المغلقة. قالت جويل بينو ، نائب الرئيس لأبحاث الذكاء الاصطناعي في Meta ، في مقابلتنا أن المساءلة والشفافية في نماذج الذكاء الاصطناعي ضرورية.

وقالت: “أكثر من أي وقت مضى ، نحتاج إلى دعوة الناس لرؤية التكنولوجيا بمزيد من الشفافية والالتزام بالشفافية” ، موضحة أن المفتاح هو تحقيق التوازن بين مستوى الوصول ، والذي يمكن أن يختلف اعتمادًا على الضرر المحتمل للنموذج.

وقالت: “أملي ، وهو ما ينعكس في استراتيجيتنا للوصول إلى البيانات ، هو معرفة كيفية السماح بالشفافية لعمليات تدقيق إمكانية التحقق من هذه النماذج”.

من ناحية أخرى ، قالت إن بعض مستويات الانفتاح تذهب بعيدًا. هذا هو السبب في أن نموذج LLaMA كان له إصدار مسور ، كما أوضحت. كان الكثير من الناس سعداء جدًا بالانفتاح التام. لا أعتقد أن هذا هو الشيء المسؤول الذي يجب القيام به اليوم “.

لا يزال LeCun صريحًا بشأن مخاطر الذكاء الاصطناعي المبالغة

ومع ذلك ، لا يزال LeCun صريحًا لصالح AI مفتوح المصدر ، وفي نيويورك مرات جادل أحد المقابلات بأن نشر المعلومات الخاطئة على وسائل التواصل الاجتماعي أكثر خطورة من أحدث تقنيات LLM.

قال: “لا يمكنك منع الناس من خلق هراء أو معلومات خطيرة أو أي شيء آخر”. “لكن يمكنك منعها من الانتشار.”

وبينما قد يصبح كل من Google و OpenAI أكثر انغلاقًا مع أبحاث الذكاء الاصطناعي الخاصة بهما ، أصر LeCun على أنه – و Meta – يظلان ملتزمين بفتح المصدر ، قائلاً “يكون التقدم أسرع عندما يكون مفتوحًا”.

مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى