Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار التقنية

يشارك المحللون 8 توقعات أمنية لـ ChatGPT لعام 2023


انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح.. يتعلم أكثر


هز إصدار ChatGPT-4 العالم الأسبوع الماضي ، لكن هيئة المحلفين ما زالت خارج نطاق مناقشة ما يعنيه ذلك بالنسبة لمشهد أمان البيانات. على جانب واحد من العملة ، أصبح إنشاء البرامج الضارة وبرامج الفدية أسهل من أي وقت مضى. من ناحية أخرى ، هناك مجموعة من حالات الاستخدام الدفاعي الجديدة.

في الآونة الأخيرة ، تحدث VentureBeat مع بعض أفضل محللي الأمن السيبراني في العالم لجمع توقعاتهم لـ ChatGPT والذكاء الاصطناعي التوليفي في عام 2023. وتشمل تنبؤات الخبراء ما يلي:

  • ستعمل ChatGPT على خفض حاجز الدخول للجرائم الإلكترونية.
  • ستصبح صياغة رسائل البريد الإلكتروني التصيدية المقنعة أسهل.
  • ستحتاج المنظمات إلى متخصصين في مجال الأمن على دراية بالذكاء الاصطناعي.
  • ستحتاج الشركات إلى التحقق من صحة مخرجات الذكاء الاصطناعي التوليدية.
  • سوف يعمل الذكاء الاصطناعي التوليدي على رفع مستوى التهديدات الحالية.
  • ستحدد الشركات التوقعات لاستخدام ChatGPT.
  • سوف يزيد الذكاء الاصطناعي من العنصر البشري.
  • ستظل المنظمات تواجه نفس التهديدات القديمة.

يوجد أدناه نسخة منقحة من ردودهم.

1. ستعمل ChatGPT على خفض حاجز الدخول للجرائم الإلكترونية

“يخفض ChatGPT حاجز الدخول ، مما يجعل التكنولوجيا التي تتطلب عادةً أفرادًا ذوي مهارات عالية وتمويلًا كبيرًا متاحة لأي شخص لديه إمكانية الوصول إلى الإنترنت. يمتلك المهاجمون الأقل مهارة الآن الوسائل لإنشاء تعليمات برمجية ضارة بكميات كبيرة.

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

“على سبيل المثال ، يمكنهم أن يطلبوا من البرنامج كتابة رمز يقوم بإنشاء رسائل نصية لمئات الأفراد ، مثلما يفعل فريق التسويق غير الإجرامي. بدلاً من نقل المستلم إلى موقع آمن ، فإنه يوجههم إلى موقع به حمولة ضارة. الشفرة بحد ذاتها ليست ضارة ، ولكن يمكن استخدامها لتقديم محتوى خطير.

“كما هو الحال مع أي تقنية أو تطبيق جديد أو ناشئ ، هناك إيجابيات وسلبيات. سيتم استخدام ChatGPT من قبل كل من الجهات الفاعلة الجيدة والسيئة ، ويجب أن يظل مجتمع الأمن السيبراني يقظًا بشأن الطرق التي يمكن استغلالها بها “.

– ستيف جروبمان ، نائب أول للرئيس وكبير مسؤولي التكنولوجيا في McAfee

2. ستصبح صياغة رسائل البريد الإلكتروني التصيدية المقنعة أسهل

“بشكل عام ، يعد الذكاء الاصطناعي التوليدي أداة ، ومثل جميع الأدوات ، يمكن استخدامه لأغراض جيدة أو شائنة. كان هناك بالفعل عدد من حالات الاستخدام التي تم الاستشهاد بها حيث يقوم المهاجمون والباحثون الفضوليون بصياغة رسائل بريد إلكتروني تصيدية أكثر إقناعًا ، وإنشاء تعليمات برمجية ونصوص أساسية ضارة لشن هجمات محتملة ، أو حتى مجرد الاستعلام عن معلومات استخباراتية أفضل وأسرع.

“ولكن بالنسبة لكل حالة إساءة استخدام ، ستستمر الضوابط الموضوعة لمواجهتها ؛ هذه هي طبيعة الأمن السيبراني – سباق لا ينتهي للتغلب على الخصم وتفوق المدافع.

“كما هو الحال مع أي أداة يمكن استخدامها لإلحاق الأذى ، يجب وضع حواجز حماية لحماية الجمهور من سوء الاستخدام. هناك خط أخلاقي جيد للغاية بين التجريب والاستغلال “.

– جاستن جريس ، شريك ، شركة McKinsey & Company

3. ستحتاج المنظمات إلى متخصصين في مجال الأمن على دراية بالذكاء الاصطناعي

“لقد اجتاحت ChatGPT العالم بالفعل ، لكننا ما زلنا بالكاد في مراحل الطفولة فيما يتعلق بتأثيرها على مشهد الأمن السيبراني. إنه يشير إلى بداية حقبة جديدة لاعتماد الذكاء الاصطناعي / التعلم الآلي على جانبي الخط الفاصل ، أقل بسبب ما يمكن أن يفعله ChatGPT وأكثر لأنه دفع الذكاء الاصطناعي / التعلم الآلي إلى دائرة الضوء العامة.

“من ناحية أخرى ، يمكن الاستفادة من ChatGPT لإضفاء الطابع الديمقراطي على الهندسة الاجتماعية – مما يمنح الجهات الفاعلة في مجال التهديد عديمي الخبرة القدرة المكتشفة حديثًا لإنشاء عمليات احتيال ذريعة بسرعة وسهولة ، ونشر هجمات التصيد الاحتيالي المعقدة على نطاق واسع.

من ناحية أخرى ، عندما يتعلق الأمر بإنشاء هجمات أو دفاعات جديدة ، فإن ChatGPT يكون أقل قدرة بكثير. هذا ليس إخفاقًا ، لأننا نطلب منه أن يفعل شيئًا لم يكن مدربًا على فعله.

ماذا يعني هذا لمحترفي الأمن؟ هل يمكننا تجاهل ChatGPT بأمان؟ لا. بصفتنا متخصصين في مجال الأمان ، فإن العديد منا لديه بالفعل ChatGPT لمعرفة مدى جودة اختباره لأداء الوظائف الأساسية. هل يمكنه كتابة مقترحات اختبار القلم لدينا؟ ذريعة التصيد؟ ماذا عن المساعدة في إعداد البنية التحتية للهجوم و C2؟ حتى الآن ، كانت هناك نتائج مختلطة.

“ومع ذلك ، فإن أكبر محادثة تتعلق بالأمان لا تتعلق بـ ChatGPT. يتعلق الأمر بما إذا كان لدينا اليوم أشخاص في أدوار أمنية يفهمون كيفية بناء تقنيات الذكاء الاصطناعي / تعلم الآلة واستخدامها وتفسيرها “.

– ديفيد هولزر ، زميل SANS في معهد SANS

4. ستحتاج الشركات إلى التحقق من صحة مخرجات الذكاء الاصطناعي التوليدية

“في بعض الحالات ، عندما لا يقوم موظفو الأمن بالتحقق من صحة مخرجاته ، يتسبب ChatGPT في حدوث مشكلات أكثر مما يحلها. على سبيل المثال ، ستفتقد حتماً نقاط الضعف وتعطي الشركات إحساسًا زائفًا بالأمان.

“وبالمثل ، فإنه سيفتقد هجمات التصيد التي يُطلب منه اكتشافها. سيوفر معلومات استخباراتية عن التهديدات غير الصحيحة أو المحددة.

“لذلك سنرى بالتأكيد حالات في عام 2023 حيث سيكون ChatGPT مسؤولاً عن الهجمات المفقودة ونقاط الضعف التي تؤدي إلى خروقات البيانات في المؤسسات التي تستخدمها.”

– أفيفاه ليتان ، محلل في شركة جارتنر

5. سوف يعمل الذكاء الاصطناعي التوليدي على رفع مستوى التهديدات الحالية

مثل الكثير من التقنيات الجديدة ، لا أعتقد أن ChatGPT سيقدم تهديدات جديدة – أعتقد أن التغيير الأكبر الذي سيحدثه على المشهد الأمني ​​هو توسيع نطاق التهديدات الحالية وتسريعها وتعزيزها ، وخاصة التصيد الاحتيالي.

“على المستوى الأساسي ، يمكن لـ ChatGPT تزويد المهاجمين برسائل بريد إلكتروني تصيدية صحيحة نحويًا ، وهو أمر لا نراه دائمًا اليوم.

“على الرغم من أن ChatGPT لا تزال خدمة غير متصلة بالإنترنت ، إلا أنها مسألة وقت فقط قبل أن يبدأ ممثلو التهديد في الجمع بين الوصول إلى الإنترنت والأتمتة والذكاء الاصطناعي لإنشاء هجمات متقدمة مستمرة.

مع روبوتات المحادثة ، لن تحتاج إلى مرسل بريد إلكتروني بشري لكتابة الإغراءات. بدلاً من ذلك ، يمكنهم كتابة نص نصي يقول “استخدم بيانات الإنترنت للتعرف على فلان وفلان والاستمرار في مراسلتهم حتى ينقروا على رابط”.

“لا يزال التصيد الاحتيالي أحد الأسباب الرئيسية لانتهاكات الأمن السيبراني. إن امتلاك روبوت بلغة طبيعية يستخدم أدوات التصيد بالرمح الموزعة للعمل على نطاق واسع على مئات المستخدمين في وقت واحد سيجعل من الصعب على فرق الأمن القيام بوظائفهم “.

– روب هيوز ، كبير مسؤولي أمن المعلومات في RSA

6. ستحدد الشركات التوقعات لاستخدام ChatGPT

بينما تستكشف المؤسسات حالات استخدام ChatGPT ، سيكون الأمان على رأس أولوياتها. فيما يلي بعض الخطوات للمساعدة في استباق الضجيج في عام 2023:

  1. ضع توقعات لكيفية استخدام ChatGPT والحلول المماثلة في سياق المؤسسة. تطوير سياسات استخدام مقبولة ؛ تحديد قائمة بجميع الحلول المعتمدة وحالات الاستخدام والبيانات التي يمكن للموظفين الاعتماد عليها ؛ والمطالبة بإجراء فحوصات للتحقق من دقة الردود.
  2. إنشاء عمليات داخلية لمراجعة الآثار المترتبة على اللوائح وتطورها فيما يتعلق باستخدام حلول الأتمتة المعرفية ، لا سيما إدارة الملكية الفكرية والبيانات الشخصية والتضمين والتنوع عند الاقتضاء.
  3. تنفيذ الضوابط التقنية السيبرانية ، مع إيلاء اهتمام خاص لاختبار التعليمات البرمجية من أجل المرونة التشغيلية والمسح الضوئي للحمولات الضارة. تشمل الضوابط الأخرى ، على سبيل المثال لا الحصر: المصادقة متعددة العوامل وتمكين الوصول فقط للمستخدمين المصرح لهم ؛ تطبيق حلول منع فقدان البيانات ؛ عمليات للتأكد من أن جميع التعليمات البرمجية التي تنتجها الأداة تخضع لمراجعات قياسية ولا يمكن نسخها مباشرة في بيئات الإنتاج ؛ وتكوين تصفية الويب لتقديم تنبيهات عند وصول الموظفين إلى حلول غير معتمدة. “

– مات ميلر ، مدير خدمات الأمن السيبراني ، KPMG

7. سوف يزيد الذكاء الاصطناعي من العنصر البشري

مثل معظم التقنيات الجديدة ، سيكون ChatGPT مصدرًا للخصوم والمدافعين على حد سواء ، مع حالات الاستخدام العدائي بما في ذلك إعادة الاستطلاع والمدافعين الذين يبحثون عن أفضل الممارسات بالإضافة إلى أسواق استخبارات التهديدات. وكما هو الحال مع حالات استخدام ChatGPT الأخرى ، ستختلف المسافة المقطوعة حيث يختبر المستخدمون دقة الردود حيث أن النظام المُدرب موجود بالفعل على مجموعة كبيرة ومتنامية باستمرار من البيانات.

“في حين أن حالات الاستخدام ستتوسع في كلا جانبي المعادلة ، فإن مشاركة معلومات التهديد لمطاردة التهديدات وتحديث القواعد ونماذج الدفاع بين الأعضاء في المجموعة أمر واعد. ChatGPT هو مثال آخر ، مع ذلك ، على زيادة الذكاء الاصطناعي ، وليس استبدال ، العنصر البشري المطلوب لتطبيق السياق في أي نوع من التحقيق في التهديد “.

– دوج كاهيل ، نائب أول للرئيس ، خدمات المحللين وكبير المحللين في ESG

8. ستظل المنظمات تواجه نفس التهديدات القديمة

“بينما يعد ChatGPT نموذجًا قويًا لتوليد اللغة ، فإن هذه التقنية ليست أداة قائمة بذاتها ولا يمكن أن تعمل بشكل مستقل. إنها تعتمد على مدخلات المستخدم وهي محدودة بالبيانات التي تم التدريب عليها.

على سبيل المثال ، لا يزال يتعين إرسال نص التصيد الذي تم إنشاؤه بواسطة النموذج من حساب بريد إلكتروني والإشارة إلى موقع ويب. كلاهما من المؤشرات التقليدية التي يمكن تحليلها للمساعدة في الكشف.

على الرغم من أن ChatGPT لديه القدرة على كتابة عمليات الاستغلال والحمولات ، فقد كشفت الاختبارات أن الميزات لا تعمل بالشكل الذي تم اقتراحه في البداية. يمكن للمنصة أيضًا كتابة برامج ضارة ؛ في حين أن هذه الرموز متاحة بالفعل على الإنترنت ويمكن العثور عليها في العديد من المنتديات ، فإن ChatGPT تجعلها في متناول الجماهير.

ومع ذلك ، لا يزال الاختلاف محدودًا ، مما يجعل من السهل اكتشاف مثل هذه البرامج الضارة من خلال الاكتشاف القائم على السلوك وطرق أخرى. لم يتم تصميم ChatGPT لاستهداف أو استغلال الثغرات الأمنية على وجه التحديد ؛ ومع ذلك ، قد يؤدي ذلك إلى زيادة تكرار الرسائل الآلية أو التي تنتحل صفة. إنه يقلل من شريط الدخول لمجرمي الإنترنت ، لكنه لن يدعو إلى أساليب هجوم جديدة تمامًا لمجموعات قائمة بالفعل “.

– Candid Wuest ، نائب الرئيس للبحوث العالمية في Acronis

مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى