تسلط PWC الضوء على 11 ChatGPT واتجاهات أمان الذكاء الاصطناعي التوليفية لمشاهدتها في عام 2023
تحقق من جميع الجلسات عند الطلب من قمة الأمن الذكي هنا.
هل يعد ChatGPT والذكاء الاصطناعي التوليفي نعمة أم نقمة على فرق الأمن؟ في حين أن قدرة الذكاء الاصطناعي (AI) على إنشاء تعليمات برمجية ضارة ورسائل بريد إلكتروني تصيدية تمثل تحديات جديدة للمؤسسات ، إلا أنها فتحت الباب أيضًا أمام مجموعة من حالات الاستخدام الدفاعي ، بدءًا من اكتشاف التهديدات وإرشادات العلاج ، إلى تأمين Kubernetes والبيئات السحابية.
في الآونة الأخيرة ، تواصل VentureBeat مع بعض كبار محللي PWC ، الذين شاركوا أفكارهم حول كيفية تأثير الذكاء الاصطناعي والأدوات التوليدية مثل ChatGPT على مشهد التهديد وحالات الاستخدام التي ستظهر للمدافعين.
>> اتبع تغطية ChatGPT المستمرة من VentureBeat <
بشكل عام ، كان المحللون متفائلين بأن حالات الاستخدام الدفاعي سترتفع لمكافحة الاستخدامات الضارة للذكاء الاصطناعي على المدى الطويل. تشمل التنبؤات حول كيفية تأثير الذكاء الاصطناعي التوليفي على الأمن السيبراني في المستقبل ما يلي:
حدث
قمة أمنية ذكية عند الطلب
تعرف على الدور الحاسم للذكاء الاصطناعي وتعلم الآلة في الأمن السيبراني ودراسات الحالة الخاصة بالصناعة. شاهد الجلسات عند الطلب اليوم.
مشاهدة هنا
- استخدام الذكاء الاصطناعي الضار
- الحاجة إلى حماية تدريب وإخراج الذكاء الاصطناعي
- وضع سياسات استخدام الذكاء الاصطناعي التوليفية
- تحديث التدقيق الأمني
- تركيز أكبر على صحة البيانات وتقييم التحيز
- مواكبة المخاطر المتزايدة وإتقان الأساسيات
- خلق وظائف ومسؤوليات جديدة
- الاستفادة من الذكاء الاصطناعي لتحسين الاستثمارات الإلكترونية
- تعزيز استخبارات التهديد
- منع التهديدات وإدارة مخاطر الامتثال
- تنفيذ استراتيجية الثقة الرقمية
يوجد أدناه نسخة منقحة من ردودهم.
1. استخدام الذكاء الاصطناعي الضار
“نحن في نقطة انعطاف عندما يتعلق الأمر بالطريقة التي يمكننا بها الاستفادة من الذكاء الاصطناعي ، وهذا التحول النموذجي يؤثر على الجميع وكل شيء. عندما يكون الذكاء الاصطناعي في أيدي المواطنين والمستهلكين ، يمكن أن تحدث أشياء عظيمة.
“في الوقت نفسه ، يمكن استخدامه من قبل الجهات الفاعلة في مجال التهديد الضار لأغراض شائنة ، مثل البرامج الضارة ورسائل البريد الإلكتروني التصيدية المعقدة.
“نظرًا للعديد من المجهول حول قدرات وإمكانات الذكاء الاصطناعي المستقبلية ، فمن الأهمية بمكان أن تطور المؤسسات عمليات قوية لبناء المرونة ضد الهجمات الإلكترونية.
هناك أيضًا حاجة إلى تنظيم مدعوم بالقيم المجتمعية التي تنص على استخدام هذه التكنولوجيا بشكل أخلاقي. في غضون ذلك ، نحتاج إلى أن نصبح مستخدمين أذكياء لهذه الأداة ، وأن نفكر في الإجراءات الوقائية اللازمة لكي يوفر الذكاء الاصطناعي أقصى قيمة مع تقليل المخاطر إلى الحد الأدنى “.
شون جويس ، قائد الأمن السيبراني العالمي والخصوصية ، الولايات المتحدة الأمريكية ، مدير المخاطر والتنظيم ، PwC US
2. الحاجة إلى حماية تدريب الذكاء الاصطناعي ومخرجاته
“الآن بعد أن وصل الذكاء الاصطناعي التوليدي إلى نقطة يمكن أن يساعد فيها الشركات على تحويل أعمالها ، من المهم أن يعمل القادة مع الشركات بفهم عميق لكيفية التعامل مع اعتبارات الأمان والخصوصية المتزايدة.
السبب ذو شقين. أولاً ، يجب على الشركات حماية كيفية تدريبها على الذكاء الاصطناعي لأن المعرفة الفريدة التي تكتسبها من ضبط النماذج ستكون بالغة الأهمية في كيفية إدارة أعمالها وتقديم منتجات وخدمات أفضل والتفاعل مع موظفيها ونظام عملائها.
“ثانيًا ، يجب على الشركات أيضًا حماية المطالبات والاستجابات التي تحصل عليها من حلول الذكاء الاصطناعي التوليفية ، لأنها تعكس ما يفعله عملاء الشركة وموظفوها بالتكنولوجيا.”
محمد كاندي ، نائب الرئيس – القائد المشارك للحلول الاستشارية الأمريكية والرائد الاستشاري العالمي ، PwC US
3. وضع سياسات استخدام الذكاء الاصطناعي التوليفية
“تظهر العديد من حالات استخدام الأعمال المثيرة للاهتمام عندما تفكر في أنه يمكنك تدريب (تحسين) نماذج الذكاء الاصطناعي التوليدية باستخدام المحتوى والوثائق والأصول الخاصة بك حتى تتمكن من العمل على القدرات الفريدة لعملك ، في سياقك. بهذه الطريقة ، يمكن لأي شركة أن توسع نطاق الذكاء الاصطناعي التوليدي بالطرق التي تعمل بها مع IP الخاص بها ومعرفتها الفريدة.
هذا هو المكان الذي يصبح فيه الأمان والخصوصية مهمين. بالنسبة إلى الأعمال التجارية ، يجب أن تكون الطرق التي تطالب بها الذكاء الاصطناعي التوليدي لإنشاء المحتوى خاصة بعملك. لحسن الحظ ، اعتبرت معظم منصات الذكاء الاصطناعي التوليدية هذا الأمر منذ البداية وهي مصممة لتمكين أمان وخصوصية المطالبات والمخرجات وضبط المحتوى.
ومع ذلك ، فهم الآن جميع المستخدمين هذا. لذلك ، من المهم لأي شركة أن تضع سياسات لاستخدام الذكاء الاصطناعي التوليدي لتجنب البيانات السرية والخاصة من الدخول إلى الأنظمة العامة ، وإنشاء بيئات آمنة ومأمونة للذكاء الاصطناعي التوليدي داخل أعمالها “.
بريت جرينشتاين ، شريك ، البيانات والتحليلات والذكاء الاصطناعي ، PwC US
4. تحديث التدقيق الأمني
“إن استخدام الذكاء الاصطناعي التوليدي لابتكار التدقيق له إمكانيات مذهلة! يتمتع الذكاء الاصطناعي التوليدي المتطور بالقدرة على إنشاء استجابات تأخذ في الاعتبار مواقف معينة أثناء كتابتها بلغة بسيطة وسهلة الفهم.
ما تقدمه هذه التقنية هو نقطة واحدة للوصول إلى المعلومات والإرشادات مع دعم أتمتة المستندات وتحليل البيانات استجابةً لاستفسارات محددة – وهي فعالة. هذا هو الفوز.
ليس من الصعب أن نرى كيف يمكن لمثل هذه القدرة أن توفر تجربة أفضل بشكل ملحوظ لشعبنا. بالإضافة إلى ذلك ، توفر تجربة أفضل لموظفينا تجربة أفضل لعملائنا أيضًا “.
كاثرين كامينسكي ، نائبة الرئيس – القائد المشارك لحلول الثقة الأمريكية
5. زيادة التركيز على صحة البيانات وتقييم التحيز
أي إدخال بيانات في نظام ذكاء اصطناعي معرض لخطر السرقة أو إساءة الاستخدام المحتملة. للبدء ، سيساعد تحديد البيانات المناسبة لإدخالها في النظام على تقليل مخاطر فقدان المعلومات السرية والخاصة للهجوم.
“بالإضافة إلى ذلك ، من المهم ممارسة عملية جمع البيانات المناسبة لتطوير مطالبات مفصلة وموجهة يتم إدخالها في النظام ، حتى تتمكن من الحصول على مخرجات أكثر قيمة.
بمجرد حصولك على مخرجاتك ، قم بمراجعتها باستخدام مشط دقيق الأسنان بحثًا عن أي تحيزات متأصلة داخل النظام. في هذه العملية ، قم بإشراك فريق متنوع من المحترفين للمساعدة في تقييم أي تحيز.
“على عكس الحل المشفر أو المبرمج ، يعتمد الذكاء الاصطناعي التوليفي على النماذج التي تم تدريبها ، وبالتالي فإن الردود التي يقدمونها لا يمكن التنبؤ بها بنسبة 100٪. يتطلب الناتج الأكثر موثوقية من الذكاء الاصطناعي التوليدي تعاونًا بين التقنية التي تعمل خلف الكواليس والأشخاص الذين يستفيدون منها “.
جاكي واجنر ، مدير الأمن السيبراني والمخاطر والتنظيم ، برايس ووترهاوس كوبرز الولايات المتحدة
6. مواكبة المخاطر المتزايدة وإتقان الأساسيات
“الآن بعد أن وصل الذكاء الاصطناعي التوليدي إلى نطاق واسع من التبني ، فإن تنفيذ تدابير أمنية قوية أمر لا بد منه للحماية من الجهات الفاعلة المهددة. تتيح إمكانيات هذه التقنية للمجرمين الإلكترونيين إمكانية إنشاء مزيفات عميقة وتنفيذ هجمات البرامج الضارة وبرامج الفدية بسهولة أكبر ، وتحتاج الشركات إلى الاستعداد لهذه التحديات.
“تستمر الإجراءات الإلكترونية الأكثر فاعلية في تلقي أقل تركيز: من خلال مواكبة النظافة الإلكترونية الأساسية وتكثيف الأنظمة القديمة المترامية الأطراف ، يمكن للشركات تقليل سطح الهجوم لمجرمي الإنترنت.
“يمكن لبيئات التشغيل الموحدة أن تقلل التكاليف ، مما يسمح للشركات بتحقيق أقصى قدر من الكفاءة والتركيز على تحسين تدابير الأمن السيبراني الخاصة بهم.”
جو نوسيرا ، الشريك الرائد في برايس ووترهاوس كوبرز ، التسويق السيبراني والمخاطر والتسويق التنظيمي
7. خلق وظائف ومسؤوليات جديدة
“بشكل عام ، أقترح أن تفكر الشركات في تبني الذكاء الاصطناعي التوليدي بدلاً من إنشاء جدران الحماية والمقاومة – ولكن مع تطبيق الضمانات المناسبة وتخفيف المخاطر. يتمتع الذكاء الاصطناعي التوليدي ببعض الإمكانات المثيرة للاهتمام حقًا حول كيفية إنجاز العمل ؛ يمكن أن يساعد في الواقع على توفير الوقت للتحليل البشري والإبداع.
“قد يؤدي ظهور الذكاء الاصطناعي التوليدي إلى وظائف ومسؤوليات جديدة تتعلق بالتكنولوجيا نفسها – ويخلق مسؤولية للتأكد من استخدام الذكاء الاصطناعي بشكل أخلاقي ومسؤول.”
سيتطلب أيضًا من الموظفين الذين يستخدمون هذه المعلومات تطوير مهارة جديدة – القدرة على تقييم وتحديد ما إذا كان المحتوى الذي تم إنشاؤه دقيقًا أم لا.
يشبه إلى حد كبير كيفية استخدام الآلة الحاسبة للقيام بمهام بسيطة متعلقة بالرياضيات ، لا يزال هناك العديد من المهارات البشرية التي يجب تطبيقها في الاستخدام اليومي للذكاء الاصطناعي التوليدي ، مثل التفكير النقدي والتخصيص للغرض – بالترتيب لإطلاق العنان للقوة الكاملة للذكاء الاصطناعي التوليدي.
“لذلك ، بينما يبدو ظاهريًا أنه يمثل تهديدًا في قدرته على أتمتة المهام اليدوية ، يمكنه أيضًا إطلاق العنان للإبداع وتقديم المساعدة وتحسين المهارات ومعالجة الفرص لمساعدة الأشخاص على التفوق في وظائفهم.”
جوليا لام ، شريك إستراتيجية القوى العاملة ، PwC US
8. الاستفادة من الذكاء الاصطناعي لتحسين الاستثمارات الإلكترونية
“حتى في خضم عدم اليقين الاقتصادي ، لا تتطلع الشركات بنشاط إلى تقليل الإنفاق على الأمن السيبراني في عام 2023 ؛ ومع ذلك ، يجب أن يكون CISOs اقتصاديًا في قراراتهم الاستثمارية.
“إنهم يواجهون ضغوطًا للقيام بالمزيد بموارد أقل ، مما يدفعهم إلى الاستثمار في التكنولوجيا التي تحل محل عمليات منع المخاطر اليدوية بشكل مفرط والتخفيف من حدتها ببدائل آلية.
“على الرغم من أن الذكاء الاصطناعي التوليدي ليس مثاليًا ، إلا أنه سريع جدًا ومنتج ومتسق ، مع تحسين المهارات بسرعة. من خلال تنفيذ التكنولوجيا المناسبة للمخاطر – مثل آليات التعلم الآلي المصممة لزيادة تغطية المخاطر واكتشافها – يمكن للمؤسسات توفير المال والوقت وعدد الموظفين ، وتكون أكثر قدرة على التنقل وتحمل أي حالة من عدم اليقين تنتظرنا “.
إليزابيث ماكنيكول ، قائدة حلول تكنولوجيا المؤسسات ، السيبرانية والمخاطر والتنظيم ، برايس ووترهاوس كوبرز الولايات المتحدة
9. تعزيز معلومات التهديد
“بينما تركز الشركات التي تطلق قدرات الذكاء الاصطناعي التوليدية على الحماية لمنع إنشاء وتوزيع البرامج الضارة أو المعلومات الخاطئة أو المعلومات المضللة ، نحتاج إلى افتراض أن الذكاء الاصطناعي التوليدي سيستخدم من قبل جهات فاعلة سيئة لهذه الأغراض وأن نبقى في طليعة هذه الاعتبارات.
“في عام 2023 ، نتوقع تمامًا رؤية المزيد من التحسينات في معلومات التهديد والقدرات الدفاعية الأخرى للاستفادة من الذكاء الاصطناعي التوليدي للأبد. سيسمح الذكاء الاصطناعي التوليدي بإحداث تطورات جذرية في الكفاءة وقرارات الثقة في الوقت الفعلي ؛ على سبيل المثال ، تكوين استنتاجات في الوقت الفعلي حول الوصول إلى الأنظمة والمعلومات بمستوى ثقة أعلى بكثير من نماذج الوصول والهوية المنتشرة حاليًا.
“من المؤكد أن الذكاء الاصطناعي التوليدي سيكون له آثار بعيدة المدى على كيفية عمل كل صناعة وشركة في تلك الصناعة ؛ تؤمن برايس ووترهاوس كوبرز أن هذه التطورات الجماعية ستستمر بقيادة بشرية ومدعمة بالتكنولوجيا ، حيث يظهر عام 2023 التطورات الأكثر تسارعًا التي حددت الاتجاه للعقود القادمة “.
مات هوبز ، قائد ممارسة مايكروسوفت ، برايس ووترهاوس كوبرز الولايات المتحدة
10. منع التهديدات وإدارة مخاطر الامتثال
مع استمرار تطور مشهد التهديد ، يواصل قطاع الصحة – وهو صناعة مليئة بالمعلومات الشخصية – العثور على نفسه في مرمى التهديدات.
“يعمل المسؤولون التنفيذيون في مجال الصحة على زيادة ميزانياتهم الإلكترونية والاستثمار في تقنيات الأتمتة التي لا تساعد فقط في منع الهجمات الإلكترونية ، ولكن أيضًا إدارة مخاطر الامتثال ، وحماية بيانات المرضى والموظفين بشكل أفضل ، وتقليل تكاليف الرعاية الصحية ، والقضاء على أوجه القصور في العمليات وأكثر من ذلك بكثير.
“مع استمرار تطور الذكاء الاصطناعي التوليدي ، تزداد المخاطر والفرص المرتبطة بتأمين أنظمة الرعاية الصحية ، مما يؤكد أهمية تبني الصناعة الصحية لهذه التكنولوجيا الجديدة مع بناء دفاعاتها الإلكترونية وقدرتها على الصمود في نفس الوقت.”
تيفاني غالاغر ، رئيس مخاطر الصناعات الصحية والقائد التنظيمي ، برايس ووترهاوس كوبرز الولايات المتحدة
11. تنفيذ استراتيجية الثقة الرقمية
تتطلب سرعة الابتكار التكنولوجي ، مثل الذكاء الاصطناعي التوليدي ، جنبًا إلى جنب مع خليط متطور من التنظيم وتآكل الثقة في المؤسسات ، نهجًا أكثر استراتيجية.
“من خلال اتباع إستراتيجية ثقة رقمية ، يمكن للمؤسسات التنسيق بشكل أفضل عبر الوظائف المنعزلة تقليديًا مثل الأمن السيبراني والخصوصية وإدارة البيانات بطريقة تسمح لها بتوقع المخاطر مع إطلاق العنان لقيمة الأعمال أيضًا.
“يحدد إطار عمل الثقة الرقمية في جوهره الحلول التي تتجاوز الامتثال – وبدلاً من ذلك يعطي الأولوية للثقة وتبادل القيمة بين المؤسسات والعملاء.”
توبي سبري ، مدير ، مخاطر البيانات والخصوصية ، PwC US
مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.
اكتشاف المزيد من إشراق التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.