تُصدر NIST إطار عمل جديدًا لإدارة مخاطر الذكاء الاصطناعي من أجل الذكاء الاصطناعي “الجدير بالثقة”
تحقق من جميع الجلسات عند الطلب من قمة الأمن الذكي هنا.
أصدر المعهد الوطني للمعايير والتكنولوجيا (NIST) التابع لوزارة التجارة الأمريكية الإصدار الأول من إطار عمل إدارة مخاطر الذكاء الاصطناعي الجديد (AI RMF 1.0) ، وهو “وثيقة توجيهية للاستخدام الطوعي من قبل المنظمات التي تصمم أنظمة الذكاء الاصطناعي أو تطورها أو تنشرها أو تستخدمها. . ” للمساعدة في إدارة المخاطر العديدة لتقنيات الذكاء الاصطناعي. “
إن إطار عمل إدارة مخاطر الذكاء الاصطناعي من NIST مصحوبًا بكتيب لعب مصاحب يقترح طرقًا للتنقل واستخدام إطار العمل “لدمج اعتبارات الجدارة بالثقة في تصميم أنظمة الذكاء الاصطناعي وتطويرها ونشرها واستخدامها”.
وجه الكونجرس المعهد القومي للمعايير والتقنية (NIST) لتطوير إطار عمل إدارة مخاطر الذكاء الاصطناعي في عام 2020
وجه الكونجرس المعهد القومي للمعايير والتقنية (NIST) لتطوير إطار العمل من خلال قانون الذكاء الاصطناعي الوطني لعام 2020 ، وتقوم NIST بتطوير إطار العمل منذ يوليو 2021 ، للحصول على تعليقات من خلال ورش العمل والتعليقات العامة. تم إصدار أحدث مسودة في أغسطس 2022.
أوضح بيان صحفي أن AI RMF ينقسم إلى جزأين. يناقش الأول كيف يمكن للمؤسسات تأطير المخاطر المتعلقة بالذكاء الاصطناعي ويحدد خصائص أنظمة الذكاء الاصطناعي الجديرة بالثقة. يصف الجزء الثاني ، وهو جوهر إطار العمل ، أربع وظائف محددة – الحكم والتخطيط والقياس والإدارة – لمساعدة المؤسسات على معالجة مخاطر أنظمة الذكاء الاصطناعي في الممارسة.
حدث
قمة أمنية ذكية عند الطلب
تعرف على الدور الحاسم للذكاء الاصطناعي وتعلم الآلة في الأمن السيبراني ودراسات الحالة الخاصة بالصناعة. شاهد الجلسات عند الطلب اليوم.
مشاهدة هنا
في مقطع فيديو مباشر للإعلان عن إطلاق RMF ، قالت وكيلة وزارة التجارة للتكنولوجيا ومديرة NIST لوري لوكاسيو “لقد أدرك الكونجرس بوضوح الحاجة إلى هذا التوجيه التطوعي وعيّنه لـ NIST كأولوية قصوى”. وأضافت أن المعهد القومي للمعايير والتكنولوجيا (NIST) يعتمد على المجتمع الواسع “لمساعدتنا على تحسين أولويات خارطة الطريق هذه”.
وأشار نائب وزير التجارة دون جريفز إلى أن برنامج AI RMF لا يأتي في وقت قريب جدًا. وقال: “إنني مندهش من سرعة ومدى ابتكارات الذكاء الاصطناعي في الفترة القصيرة بين بدء وتقديم هذا الإطار”. مثل الكثيرين منكم ، أدهشني أيضًا ضخامة التأثيرات المحتملة ، الإيجابية والسلبية ، التي تصاحب التقدم العلمي والتكنولوجي والتجاري.
ومع ذلك ، أضاف ، “لقد كنت متواجدًا في مجال الأعمال لفترة كافية لأعرف أن القيمة الحقيقية لهذا الإطار ستعتمد على استخدامه الفعلي وما إذا كان يغير العمليات ، والثقافات ، وممارساتنا.”
طريقة شاملة للتفكير في إدارة مخاطر الذكاء الاصطناعي والتعامل معها
في بيان لـ VentureBeat ، قالت كورتني لانج ، كبيرة مديري السياسات والثقة والبيانات والتكنولوجيا في مجلس صناعة تكنولوجيا المعلومات ، إن AI RMF يقدم “طريقة شاملة للتفكير في إدارة مخاطر الذكاء الاصطناعي والتعامل معها ، وما يرتبط بها من دمج كتيبات التشغيل في مكان واحد مراجع إعلامية ، والتي ستساعد المستخدمين على تفعيل مبادئ الجدارة بالثقة الرئيسية “.
وقالت إن المنظمات من جميع الأحجام ستكون قادرة على استخدام إطار العمل المرن القائم على النتائج لإدارة المخاطر مع تسخير الفرص التي يوفرها الذكاء الاصطناعي. ولكن بالنظر إلى حقيقة أن جهود التقييس مستمرة ، أضافت أن إطار العمل سيحتاج أيضًا إلى التطور “من أجل عكس المشهد المتغير وتعزيز التوافق الأكبر”.
ينتقد البعض الطبيعة “عالية المستوى” و “العامة” لمؤسسة رينه معوض
في حين أن NIST AI RMF هي نقطة انطلاق ، “من الناحية العملية ، هذا لا يعني الكثير” ، كما قال برادلي ميريل طومسون ، المحامي الذي يركز على تنظيم الذكاء الاصطناعي في شركة المحاماة Epstein Becker Green ، لـ VentureBeat في رسالة بريد إلكتروني.
وقال: “إنه عالي المستوى وعام لدرجة أنه لا يعمل إلا كنقطة انطلاق حتى للتفكير في إطار عمل لإدارة المخاطر ليتم تطبيقه على منتج معين”. هذه هي مشكلة محاولة شبه تنظيم كل الذكاء الاصطناعي. التطبيقات مختلفة إلى حد كبير مع مخاطر مختلفة إلى حد كبير “.
وافق غوراف كابور ، الرئيس التنفيذي المشارك للحوكمة والمخاطر والامتثال لمزود الحلول MetricStream ، على أن إطار العمل هو مجرد نقطة انطلاق. لكنه أضاف أن إطار العمل يساعد في “وضع العمليات المستدامة حول إدارة الأداء المستمرة ، ومراقبة المخاطر ، ومخاطر التحيز الناجم عن الذكاء الاصطناعي ، وحتى التدابير لضمان أمان معلومات التعريف الشخصية.” وأضاف أنه من الواضح أنه “يجب إشراك جميع أصحاب المصلحة عندما يتعلق الأمر بأفضل الممارسات في إدارة المخاطر”.
هل سيعزز NIST AI RMF إحساسًا زائفًا بالأمان؟
صرح Kjell Carlsson ، رئيس إستراتيجية علوم البيانات والتبشير في Domino Data Lab ، لـ VentureBeat أنه من المرجح أن تدير المؤسسات مخاطر الذكاء الاصطناعي الخاصة بها بنجاح من خلال تمكين فرق علوم البيانات لديها من تطوير وتنفيذ أفضل ممارساتها ومنصاتها وتحسينها باستمرار.
وقال: “نأمل أن يوفر إطار العمل هذا بعض التوجيه لهذه الجهود” ، لكنه أضاف أن العديد من المؤسسات “ستغري بتطبيق إطار كهذا ، من أعلى إلى أسفل ، في المبادرات التي يديرها متخصصون في إدارة المخاطر ليسوا من ذوي الخبرة . ” بتقنيات الذكاء الاصطناعي. ”
وأكد أن مثل هذه الجهود “من المرجح أن تؤدي إلى أسوأ ما في العوالم – شعور زائف بالأمان ، وعدم وجود مخاطر فعلية منخفضة ، ومجهود إضافي ضائع يخنق كلاً من التبني والابتكار”.
NIST “في وضع فريد” لملء الفراغ
قال أندرو بيرت ، الشريك الإداري في شركة المحاماة BNH.AI ، لموقع VentureBeat ، إن أفضل الممارسات المقبولة على نطاق واسع حول إدارة مخاطر الذكاء الاصطناعي غير متوفرة ، ويحتاج الممارسون على الصعيدين التقني والقانوني إلى إرشادات واضحة.
قال: “عندما يتعلق الأمر بإدارة مخاطر الذكاء الاصطناعي ، يشعر الممارسون ، في كثير من الأحيان ، وكأنهم يعملون في الغرب المتوحش”. “NIST في وضع فريد لملء هذا الفراغ ، ويتكون إطار عمل إدارة مخاطر الذكاء الاصطناعي من توجيهات واضحة وفعالة حول كيف يمكن للمؤسسات إدارة مخاطر الذكاء الاصطناعي بشكل مرن وفعال. أتوقع أن يضع RMF معيارًا لكيفية إدارة المنظمات لمخاطر الذكاء الاصطناعي للمضي قدمًا ، ليس فقط في الولايات المتحدة ، ولكن على مستوى العالم أيضًا “.
مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.
اكتشاف المزيد من إشراق التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.