Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار التقنية

سر نجاح الذكاء الاصطناعي في المؤسسة: اجعله مفهومًا وجديرًا بالثقة


توجه إلى مكتبتنا عند الطلب لعرض الجلسات من VB Transform 2023. سجل هنا


وعد الذكاء الاصطناعي بدأ أخيرًا في الحياة. سواء كان ذلك في مجال الرعاية الصحية أو التكنولوجيا المالية ، تتسابق الشركات عبر القطاعات لتطبيق LLM وأشكال أخرى من أنظمة التعلم الآلي لاستكمال سير العمل وتوفير الوقت للمهام الأخرى الأكثر إلحاحًا أو عالية القيمة. لكن كل شيء يتحرك بسرعة كبيرة لدرجة أن الكثيرين قد يتجاهلون سؤالًا رئيسيًا واحدًا: كيف نعرف أن الآلات التي تتخذ القرارات لا تميل نحو الهلوسة؟

في مجال الرعاية الصحية ، على سبيل المثال ، يمتلك الذكاء الاصطناعي القدرة على التنبؤ بالنتائج السريرية أو اكتشاف الأدوية. إذا انحرف النموذج عن المسار الصحيح في مثل هذه السيناريوهات ، فقد يوفر نتائج قد تؤدي في النهاية إلى إلحاق الأذى بشخص ما أو ما هو أسوأ. لا أحد يريد ذلك.

هذا هو المكان الذي يأتي فيه مفهوم قابلية تفسير الذكاء الاصطناعي. إنها عملية فهم الأسباب الكامنة وراء القرارات أو التنبؤات التي تتخذها أنظمة التعلم الآلي وجعل هذه المعلومات مفهومة لصانعي القرار والأطراف الأخرى ذات الصلة التي تتمتع بالاستقلالية لإجراء التغييرات.

عند القيام بذلك بشكل صحيح ، يمكن أن يساعد الفرق على اكتشاف السلوكيات غير المتوقعة ، مما يسمح لهم بالتخلص من المشكلات قبل أن تسبب ضررًا حقيقيًا.

حدث

VB Transform 2023 حسب الطلب

هل فاتتك جلسة من VB Transform 2023؟ سجل للوصول إلى المكتبة عند الطلب لجميع جلساتنا المميزة.

سجل الان

لكن هذا بعيد كل البعد عن كونه قطعة كعكة.

أولاً ، دعنا نفهم سبب أهمية تفسير الذكاء الاصطناعي

مع استمرار القطاعات الحيوية مثل الرعاية الصحية في نشر النماذج مع الحد الأدنى من الإشراف البشري ، أصبح تفسير الذكاء الاصطناعي مهمًا لضمان الشفافية والمساءلة في النظام المستخدم.

تضمن الشفافية أن المشغلين البشر يمكنهم فهم الأساس المنطقي لنظام غسل الأموال ومراجعته للتحقق من التحيزات والدقة والإنصاف والالتزام بالإرشادات الأخلاقية. وفي الوقت نفسه ، تضمن المساءلة معالجة الثغرات التي تم تحديدها في الوقت المناسب. هذا الأخير ضروري بشكل خاص في المجالات عالية المخاطر مثل تسجيل الائتمان الآلي والتشخيصات الطبية والقيادة الذاتية ، حيث يمكن أن يكون لقرار الذكاء الاصطناعي عواقب بعيدة المدى.

علاوة على ذلك ، تساعد إمكانية تفسير الذكاء الاصطناعي أيضًا على بناء الثقة والقبول في أنظمة الذكاء الاصطناعي. بشكل أساسي ، عندما يتمكن الأفراد من فهم الأسباب الكامنة وراء القرارات التي تتخذها الآلات والتحقق من صحتها ، فمن المرجح أن يثقوا في توقعاتهم وإجاباتهم ، مما يؤدي إلى قبول واعتماد على نطاق واسع. والأهم من ذلك ، عندما تكون هناك تفسيرات متاحة ، يكون من الأسهل معالجة أسئلة الامتثال الأخلاقي والقانوني ، سواء كان ذلك بسبب التمييز أو استخدام البيانات.

تفسير الذكاء الاصطناعي ليس بالمهمة السهلة

في حين أن هناك فوائد واضحة لقابلية تفسير الذكاء الاصطناعي ، فإن تعقيد وشفافية نماذج التعلم الآلي الحديثة تجعلها جحيم التحدي.

تستخدم معظم تطبيقات الذكاء الاصطناعي المتطورة اليوم شبكات عصبية عميقة (DNNs) تستخدم طبقات مخفية متعددة لتمكين وظائف معيارية قابلة لإعادة الاستخدام وتقديم كفاءة أفضل في استخدام المعلمات وتعلم العلاقة بين المدخلات والمخرجات. تنتج DNNs بسهولة نتائج أفضل من الشبكات العصبية الضحلة – غالبًا ما تستخدم لمهام مثل الانحدار الخطي أو استخراج الميزات – بنفس المقدار من المعلمات والبيانات.

ومع ذلك ، فإن بنية الطبقات المتعددة هذه والآلاف أو حتى الملايين من المعلمات تجعل DNNs شديدة الغموض ، مما يجعل من الصعب فهم كيفية مساهمة مدخلات محددة في قرار النموذج. على النقيض من ذلك ، فإن الشبكات الضحلة ، ببنيتها البسيطة ، قابلة للتفسير بدرجة كبيرة.

هيكل الشبكة العصبية العميقة (DNN) (صورة للمؤلف)

باختصار ، غالبًا ما يكون هناك مفاضلة بين القابلية للتفسير والأداء التنبئي. إذا كنت تبحث عن نماذج عالية الأداء ، مثل DNNs ، فقد لا يوفر النظام الشفافية ، بينما إذا كنت تبحث عن شيء أبسط وقابل للتفسير ، مثل شبكة ضحلة ، فقد لا تكون دقة النتائج على المستوى المطلوب.

لا يزال تحقيق التوازن بين الاثنين يمثل تحديًا للباحثين والممارسين في جميع أنحاء العالم ، خاصة بالنظر إلى عدم وجود تقنية تفسير موحدة.

ماذا يمكن ان يفعل؟

للعثور على أرضية وسطى ، يقوم الباحثون بتطوير نماذج قائمة على القواعد وقابلة للتفسير ، مثل أشجار القرار والنماذج الخطية ، والتي تعطي الأولوية للشفافية. تقدم هذه النماذج قواعد واضحة وتمثيلات مفهومة ، مما يسمح للمشغلين البشريين بتفسير عملية صنع القرار الخاصة بهم. ومع ذلك ، لا يزالون يفتقرون إلى التعقيد والتعبير للنماذج الأكثر تقدمًا.

كبديل ، يمكن أن يكون التفسير اللاحق ، حيث يستخدم المرء أدوات لشرح قرارات النماذج بمجرد تدريبها ، مفيدًا. حاليًا ، يمكن أن توفر طرق مثل LIME (التفسيرات المحلية غير المتوافقة مع النماذج القابلة للتفسير) و SHAP (SHAPley Additive exPlanations) رؤى حول سلوك النموذج من خلال تقريب أهمية الميزة أو إنشاء تفسيرات محلية. لديهم القدرة على سد الفجوة بين النماذج المعقدة وقابلية التفسير.

يمكن للباحثين أيضًا اختيار الأساليب الهجينة التي تجمع بين نقاط القوة في النماذج القابلة للتفسير ونماذج الصندوق الأسود ، مما يحقق التوازن بين القابلية للتفسير والأداء التنبئي. تستفيد هذه الأساليب من الأساليب الحيادية للنموذج ، مثل نماذج LIME والنماذج البديلة ، لتقديم تفسيرات دون المساس بدقة النموذج المعقد الأساسي.

قابلية تفسير الذكاء الاصطناعي: الاحتمالات الكبيرة

للمضي قدمًا ، ستستمر قابلية تفسير الذكاء الاصطناعي في التطور وتلعب دورًا محوريًا في تشكيل نظام بيئي مسؤول وجدير بالثقة للذكاء الاصطناعي.

يكمن مفتاح هذا التطور في التبني الواسع لتقنيات التفسير الحيادية للنموذج (المطبقة على أي نموذج للتعلم الآلي ، بغض النظر عن بنيته الأساسية) وأتمتة عملية التدريب والقابلية للتفسير. ستعمل هذه التطورات على تمكين المستخدمين من فهم خوارزميات الذكاء الاصطناعي عالية الأداء والثقة بها دون الحاجة إلى خبرة تقنية واسعة. ومع ذلك ، في الوقت نفسه ، سيكون من الأهمية بمكان تحقيق التوازن بين فوائد الأتمتة والاعتبارات الأخلاقية والبصيرة البشرية.

أخيرًا ، نظرًا لأن التدريب النموذجي والقابلية للتفسير يصبحان أكثر تلقائية ، فقد يتحول دور خبراء التعلم الآلي إلى مجالات أخرى ، مثل اختيار النماذج الصحيحة ، وتنفيذ هندسة الميزات الفورية ، واتخاذ قرارات مستنيرة بناءً على رؤى القابلية للتفسير.

لا يزالون موجودين ، فقط ليس للتدريب أو تفسير النماذج.

شاشانك أغاروال هو مدير علوم القرار في CVS Health.

صانعي القرار

مرحبًا بك في مجتمع VentureBeat!

DataDecisionMakers هو المكان الذي يمكن للخبراء ، بما في ذلك الأشخاص الفنيون الذين يقومون بعمل البيانات ، مشاركة الأفكار والابتكارات المتعلقة بالبيانات.

إذا كنت تريد أن تقرأ عن الأفكار المتطورة والمعلومات المحدثة ، وأفضل الممارسات ، ومستقبل البيانات وتكنولوجيا البيانات ، انضم إلينا في DataDecisionMakers.

يمكنك حتى التفكير في المساهمة بمقال خاص بك!

قراءة المزيد من DataDecisionMakers

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى