الذكاء الاصطناعي المسؤول أمر لا بد منه لتحقيق الذكاء الاصطناعي على نطاق واسع
هذه المقالة جزء من إصدار خاص لـ VB. اقرأ السلسلة الكاملة هنا: السعي وراء السكينة: تطبيق الذكاء الاصطناعي على نطاق واسع.
عندما يتعلق الأمر بتطبيق الذكاء الاصطناعي على نطاق واسع ، لا يمكن أن يكون الذكاء الاصطناعي المسؤول فكرة متأخرة ، كما يقول الخبراء.
الذكاء الاصطناعي هو ذكاء اصطناعي مسؤول – لا يوجد حقًا أي فرق بينهما [them]قال تاد روسيلوند ، العضو المنتدب والشريك الأول في مجموعة بوسطن الاستشارية (BCG).
وأكد أن الذكاء الاصطناعي المسؤول (RAI) ليس شيئًا تفعله في نهاية العملية. “إنه شيء يجب إدراجه مباشرة من وقت بدء الذكاء الاصطناعي ، على منديل كفكرة حول الطاولة ، إلى شيء يتم نشره بعد ذلك بطريقة قابلة للتطوير عبر المؤسسة.”
كان التأكد من أن الذكاء الاصطناعي المسؤول في المقدمة عند تطبيق الذكاء الاصطناعي على نطاق واسع هو موضوع مقال حديث في المنتدى الاقتصادي العالمي كتبه أبهيشيك جوبتا ، كبير مسؤولي الذكاء الاصطناعي في BCG ومؤسس معهد مونتريال لأخلاقيات الذكاء الاصطناعي ؛ ستيفن ميلز ، الشريك وكبير مسؤولي أخلاقيات الذكاء الاصطناعي في BCG ؛ وكاي فيرث باترفيلد ، رئيس منظمة العفو الدولية و ML وعضو اللجنة التنفيذية في المنتدى الاقتصادي العالمي.
قالت المقالة: “مع بدء المزيد من المنظمات رحلات الذكاء الاصطناعي الخاصة بها ، فإنها على وشك اتخاذ قرار بشأن استثمار الموارد النادرة لتوسيع نطاق جهود الذكاء الاصطناعي الخاصة بها أو توجيه الاستثمارات إلى توسيع نطاق الذكاء الاصطناعي المسؤول مسبقًا”. نعتقد أنه ينبغي عليهم القيام بالأمر الأخير لتحقيق نجاح مستدام وعائدات أفضل على الاستثمار.
قد يبدو الذكاء الاصطناعي المسؤول (RAI) مختلفًا لكل منظمة
لا يوجد تعريف متفق عليه لـ RAI. تُعرِّفه مجموعة أبحاث بروكينغز بأنها ذكاء اصطناعي “أخلاقي وخاضع للمساءلة” ، لكنها تقول: “[m]إن جعل أنظمة الذكاء الاصطناعي شفافة وعادلة وآمنة وشاملة هي العناصر الأساسية لأطر الذكاء الاصطناعي التي تم التأكيد عليها على نطاق واسع ، ولكن كيفية تفسيرها وتشغيلها من قبل كل مجموعة يمكن أن تختلف.
قال روسيلوند إن هذا يعني أنه ، على الأقل على السطح ، يمكن أن يبدو RAI مختلفًا قليلاً من منظمة إلى أخرى.
وقال “يجب أن يعكس القيم الأساسية والغرض من المنظمة”. “الشركات المختلفة لها بيانات قيمة مختلفة.”
وأشار إلى استطلاع حديث لـ BCG وجد أن أكثر من 80٪ من المنظمات تعتقد أن الذكاء الاصطناعي لديه إمكانات كبيرة لإحداث ثورة في العمليات.
قال: “يُنظر إليها على أنها الموجة التالية من الابتكار للعديد من العمليات الأساسية عبر المؤسسة”.
في الوقت نفسه ، قام 25٪ فقط بنشر RAI بالكامل.
وقال إن الحصول عليها بشكل صحيح يعني دمج الذكاء الاصطناعي المسؤول في الأنظمة والعمليات والثقافة والحوكمة والاستراتيجية وإدارة المخاطر. عندما تصارع المنظمات مع RAI ، فذلك لأن المفهوم والعمليات تميل إلى الانعزال في مجموعة واحدة.
كما أن دمج RAI في العمليات التأسيسية يقلل أيضًا من مخاطر الظل AI أو الحلول الخارجة عن سيطرة قسم تكنولوجيا المعلومات. وأشار روسيلوند إلى أنه على الرغم من أن المنظمات لا تتجنب المخاطرة ، “إلا أنها تنفر من المفاجأة”.
في النهاية ، قال “لا تريد أن يكون RAI شيئًا منفصلاً ، فأنت تريده أن يكون جزءًا من نسيج منظمة”.
يقود من أعلى إلى أسفل
استخدم Roselund استعارة مثيرة للاهتمام لنجاح RAI: سيارة سباق.
أحد الأسباب التي تجعل سيارة السباق تسير بسرعة كبيرة وتدير الزئير حول الزوايا هو أنها مزودة بمكابح مناسبة في مكانها. عندما سئل السائقون ، قالوا إن بإمكانهم التحرك حول المسار “لأنني أثق في مكابحتي”.
قال إن RAI مشابه للأجنحة C ومجالس الإدارة – لأنه عندما تكون العمليات في مكانها الصحيح ، يمكن للقادة تشجيع الابتكار وإطلاق العنان له.
قال: “إنها النغمة في القمة”. الرئيس التنفيذي [and] يحدد C-suite أي منظمة في الإشارة إلى ما هو مهم “.
وقال إنه ليس هناك شك في أن RAI هو كل الضجة. قال روسيلوند: “الجميع يتحدث عن هذا”. “يتم الحديث عنه في غرف الاجتماعات ، من قبل C-suites.”
إنه مشابه عندما تكون المنظمات جادة بشأن الأمن السيبراني أو الاستدامة. وأوضح أن أولئك الذين يفعلون ذلك بشكل جيد لديهم “ملكية على أعلى مستوى”.
المبادئ الرئيسية
قال ويل أبينجتون ، الرئيس التنفيذي لشركة اختبار لغة الآلة TruEra ، إن الخبر السار هو أنه في النهاية ، يمكن توسيع نطاق الذكاء الاصطناعي بشكل مسؤول.
وقال إنه تم تطوير العديد من الحلول لنواقص الذكاء الاصطناعي ، وتقوم المنظمات بتنفيذها ؛ كما أنها تدمج القابلية للتفسير والمتانة والدقة والتقليل من التحيز منذ بداية تطوير النموذج.
تمتلك المنظمات الناجحة أيضًا طرقًا للمراقبة والرصد والإبلاغ في النماذج بمجرد إطلاقها لضمان استمرار النماذج في العمل بطريقة فعالة وعادلة.
قال أبينجتون: “الخبر السار الآخر هو أن الذكاء الاصطناعي المسؤول هو أيضًا ذكاء اصطناعي عالي الأداء”.
حدد العديد من مبادئ RAI الناشئة:
- التفسير
- الشفافية والرجوع
- منع التمييز الظالم
- الرقابة البشرية
- المتانة
- الخصوصية وحوكمة البيانات
- مسئولية
- القابلية للتدوين
- التناسب (أي أن مدى الحوكمة والضوابط يتناسب مع الأهمية النسبية ومخاطر النموذج / النظام الأساسي)
تطوير استراتيجية RAI
أحد الأدلة المتفق عليها بشكل عام هو إطار عمل RAFT.
قال تريفيني غاندي ، مسؤول الذكاء الاصطناعي المسؤول في Dataiku: “هذا يعني العمل من خلال ما يمكن وينبغي أن تبدو عليه الموثوقية والمساءلة والإنصاف والشفافية لأنظمة الذكاء الاصطناعي على مستوى المؤسسة وعبر أنواع مختلفة من حالات الاستخدام”.
وقالت إن هذا المقياس مهم لأن RAI له آثار استراتيجية لتلبية طموح أعلى رتبة ، ويمكنه أيضًا تشكيل كيفية تنظيم الفرق.
وأضافت أن مناهج الخصوصية والأمن والمتمحورة حول الإنسان يجب أن تكون مكونات لاستراتيجية متماسكة للذكاء الاصطناعي. أصبح من المهم بشكل متزايد إدارة الحقوق المتعلقة بالبيانات الشخصية وعندما يكون من العدل جمعها أو استخدامها. تثير الممارسات الأمنية المتعلقة بكيفية إساءة استخدام الذكاء الاصطناعي أو تأثره من قبل جهات فاعلة سيئة النية مخاوف.
وقال غاندي ، “والأهم من ذلك ، أن النهج الذي يركز على الإنسان في التعامل مع الذكاء الاصطناعي يعني التراجع لفهم التأثير والدور الذي نريده للذكاء الاصطناعي على تجربتنا البشرية الدقيقة”.
يبدأ توسيع نطاق الذكاء الاصطناعي بمسؤولية من خلال تحديد الأهداف والتوقعات للذكاء الاصطناعي وتحديد حدود أنواع التأثير الذي تريد شركة ما أن يكون للذكاء الاصطناعي داخل مؤسستها وعلى العملاء. يمكن بعد ذلك ترجمتها إلى معايير قابلة للتنفيذ وعتبات مخاطر مقبولة ، وعملية توقيع ورقابة ، ومراجعة منتظمة.
لماذا RAI؟
قال غاندي إنه ليس هناك شك في أن “الذكاء الاصطناعي المسؤول يمكن أن يبدو شاقًا كمفهوم”.
وقالت: “فيما يتعلق بالإجابة” لماذا يكون الذكاء الاصطناعي مسؤولاً؟ “: اليوم ، تدرك المزيد والمزيد من الشركات التكاليف الأخلاقية والمتعلقة بالسمعة وعلى مستوى الأعمال لعدم إدارة المخاطر بشكل منهجي واستباقي والنتائج غير المقصودة لأنظمة الذكاء الاصطناعي الخاصة بهم.
وأضافت أن المنظمات التي يمكنها بناء وتنفيذ إطار عمل RAI جنبًا إلى جنب مع حوكمة أكبر للذكاء الاصطناعي قادرة على توقع وتخفيف – حتى تجنب بشكل مثالي – المزالق الحرجة في توسيع نطاق الذكاء الاصطناعي.
وقال Uppington ، يمكن لـ RAI تمكين اعتماد أكبر من خلال الانخراط في الثقة في أنه ستتم إدارة عيوب الذكاء الاصطناعي.
وقال: “بالإضافة إلى ذلك ، لا يمكن تصميم أنظمة الذكاء الاصطناعي بحيث لا تخلق تحيزات جديدة فحسب ، بل يمكن استخدامها لتقليل التحيز في المجتمع الموجود بالفعل في الأنظمة التي يقودها الإنسان”.
يجب على المنظمات اعتبار RAI أمرًا بالغ الأهمية لكيفية قيامهم بأعمالهم ؛ إنه يتعلق بالأداء وإدارة المخاطر والفعالية.
قال: “إنه شيء مدمج في دورة حياة الذكاء الاصطناعي منذ البداية ، لأن الحصول عليه بالشكل الصحيح يجلب فوائد هائلة”.
الخلاصة: بالنسبة للمؤسسات التي تسعى إلى النجاح في تطبيق الذكاء الاصطناعي على نطاق واسع ، فإن RAI ليس أقل من أهمية. Warned Uppington: “الذكاء الاصطناعي المسؤول ليس مجرد مشروع يبعث على الشعور بالرضا يتعين على الشركات تنفيذه.”
مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.
اكتشاف المزيد من إشراق التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.