مع نمو مخاطر الذكاء الاصطناعي ، يدعو الإنسان إلى زيادة تمويل المعهد القومي للمعايير والتكنولوجيا (NIST): “ هذا هو العام الذي يجب أن تكون فيه طموحًا “
انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح.. يتعلم أكثر
مع تزايد سرعة ونطاق ابتكارات الذكاء الاصطناعي والمخاطر المرتبطة به ، تطالب شركة أبحاث الذكاء الاصطناعي Anthropic بمبلغ 15 مليون دولار لتمويل المعهد الوطني للمعايير والتكنولوجيا (NIST) لدعم جهود قياس الذكاء الاصطناعي والمعايير.
نشرت أنثروبيك مذكرة دعوة للعمل أمس ، بعد يومين من الاستماع إلى الميزانية حول تمويل 2024 من وزارة التجارة الأمريكية حيث كان هناك دعم من الحزبين للحفاظ على القيادة الأمريكية في تطوير التقنيات الحيوية. NIST ، وهي وكالة تابعة لوزارة التجارة الأمريكية ، عملت لسنوات على قياس أنظمة الذكاء الاصطناعي وتطوير المعايير التقنية ، بما في ذلك اختبار بائع التعرف على الوجوه وإطار عمل إدارة مخاطر الذكاء الاصطناعي الأخير.
قالت المذكرة إن زيادة التمويل الفيدرالي لـ NIST هي “واحدة من أفضل الطرق لتوجيه هذا الدعم … بحيث تكون في وضع جيد للقيام بعملها لتعزيز الابتكار التكنولوجي الآمن.”
نهج مخاطر الذكاء الاصطناعي “المجرفة الجاهزة”
بينما كانت هناك مقترحات أخرى طموحة مؤخرًا – دعوات إلى “وكالة دولية” للذكاء الاصطناعي ، ومقترحات تشريعية لـ “نظام تنظيمي” للذكاء الاصطناعي ، وبالطبع رسالة مفتوحة “لإيقاف” تطوير الذكاء الاصطناعي مؤقتًا – قالت مذكرة أنثروبيك: إن الدعوة إلى تمويل NIST هي فكرة أبسط و “جاهزة للمجرفة” متاحة لواضعي السياسات.
حدث
تحويل 2023
انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.
سجل الان
قال جاك كلارك ، أحد مؤسسي الأنشطة البشرية في مقابلة مع VentureBeat: “هذا شيء يمكننا القيام به اليوم لا يتطلب أي شيء شديد الوحشية”. أضاف كلارك ، الذي كان نشطًا في عمل سياسة الذكاء الاصطناعي لسنوات (بما في ذلك فترة عمله في أوبن إيه آي) ، أن “هذا هو العام الذي يجب أن تكون فيه طموحة بشأن هذا التمويل ، لأن هذا هو العام الذي بدأ فيه معظم صانعي السياسات في الاستيقاظ على الذكاء الاصطناعي و اقتراح الأفكار “.
الساعة تدق في التعامل مع مخاطر الذكاء الاصطناعي
اعترف كلارك بأن شركة مثل Anthropic التي تمولها Google ، والتي تعد واحدة من أفضل الشركات التي تبني نماذج لغة كبيرة (LLMs) ، فإن اقتراح هذا النوع من الإجراءات “غريب بعض الشيء”.
وأوضح قائلاً: “ليس هذا نموذجيًا ، لذا أعتقد أن هذا يوضح ضمنيًا أن عقارب الساعة تدق” عندما يتعلق الأمر بمعالجة مخاطر الذكاء الاصطناعي. لكنه أضاف أنها تجربة أيضًا: “نحن ننشر المذكرة لأنني أريد أن أرى رد الفعل في كل من العاصمة وعلى نطاق أوسع ، لأنني آمل أن يقنع ذلك الشركات والأكاديميين الآخرين وغيرهم بقضاء المزيد من الوقت نشر هذا النوع من الأشياء “.
وأشار إلى أنه إذا تم تمويل المعهد القومي للمعايير والتكنولوجيا (NIST) ، “فسنحصل على عمل أكثر صلابة بشأن القياس والتقييم في مكان يجمع بشكل طبيعي الأوساط الأكاديمية الحكومية والصناعة معًا.” من ناحية أخرى ، إذا لم يتم تمويلها ، فسيتم إجراء المزيد من عمليات التقييم والقياس “من قِبل الجهات الفاعلة في الصناعة فقط ، لأنهم من ينفقون الأموال”. تعد محادثة الذكاء الاصطناعي أفضل مع وجود المزيد من الأشخاص على الطاولة ، وهذه مجرد طريقة منطقية لجذب المزيد من الأشخاص إلى المائدة “.
سلبيات “الاستحواذ الصناعي” في الذكاء الاصطناعي
من الجدير بالملاحظة أنه في الوقت الذي يسعى فيه Anthropic المليارات لمواجهة OpenAI ، وكان مرتبطًا بشكل مشهور بانهيار إمبراطورية التشفير Sam Bankman-Fried ، Clark محادثات حول سلبيات “الاستيلاء الصناعي”.
قال: “في العقد الماضي ، انتقلت أبحاث الذكاء الاصطناعي من كونها تمرينًا أكاديميًا في الغالب إلى تمرين صناعي ، إذا نظرت إلى أين يتم إنفاق الأموال”. “هذا يعني أن الكثير من الأنظمة التي تكلف الكثير من المال تقودها هذه الأقلية من الجهات الفاعلة ، التي يوجد معظمها في القطاع الخاص.”
وأوضح كلارك أن هناك طريقتان مهمتان لتحسين ذلك ، وهما إنشاء بنية تحتية حكومية تمنح الحكومة والأوساط الأكاديمية طريقة لتدريب الأنظمة على الحدود وبناءها وفهمها بأنفسهم. “بالإضافة إلى ذلك ، يمكن أن يكون لديك المزيد من الأشخاص الذين يطورون القياسات وأنظمة التقييم لمحاولة إلقاء نظرة فاحصة على ما يحدث في الحدود واختبار النماذج.”
محادثة على مستوى المجتمع يحتاج صانعو السياسات إلى تحديد أولوياتها
مع تزايد الأحاديث حول مخاطر مجموعات البيانات الضخمة التي تدرب نماذج اللغة الكبيرة الشائعة مثل ChatGPT ، قال كلارك إن البحث عن سلوك مخرجات أنظمة الذكاء الاصطناعي ، وقابلية التفسير ، ومستوى الشفافية الذي يجب أن يبدو أمرًا مهمًا. قال “آمل واحدًا هو أن مكانًا مثل NIST يمكن أن يساعدنا في إنشاء نوع من مجموعات البيانات العامة ذات المعايير الذهبية ، والتي ينتهي بها المطاف باستخدامها كجزء من النظام أو كمدخل في النظام”.
بشكل عام ، قال كلارك إنه انخرط في عمل سياسة الذكاء الاصطناعي لأنه رأى أهميتها تتزايد باعتبارها “محادثة عملاقة على مستوى المجتمع”.
عندما يتعلق الأمر بالعمل مع صانعي السياسات ، أضاف أن معظمه يتعلق بفهم الأسئلة التي لديهم ومحاولة أن يكونوا مفيدًا.
الأسئلة هي أشياء مثل “أين مرتبة الولايات المتحدة مع الصين في أنظمة الذكاء الاصطناعي؟” أو “ما هو الإنصاف في سياق أنظمة نصية الذكاء الاصطناعي التوليدية؟” “أنت فقط تحاول مقابلتهم أينما كانوا والإجابة على هذا السؤال ، ثم استخدمه للتحدث عن قضايا أوسع – أعتقد حقًا أن الناس أصبحوا أكثر دراية بهذا المجال بسرعة كبيرة.”
مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.
اكتشاف المزيد من إشراق التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.