Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار التقنية

دخلت GPT في دردشة استخبارات التهديدات الأمنية


انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح.. يتعلم أكثر


في أمن الشركات ، السرعة هي كل شيء. كلما أسرع المحلل في تحديد إشارات التهديد المشروعة ، زادت سرعة تحديد ما إذا كان هناك خرق ، وكيفية الرد. مع تطور حلول الذكاء الاصطناعي التوليدية مثل GPT ، يتمتع المحللون البشريون بالقدرة على تعزيز عملية صنع القرار لديهم.

أعلنت شركة ريكورديد فيوتشر ، مزود الاستخبارات الإلكترونية ، اليوم عن إطلاق ما تدعي أنه أول ذكاء اصطناعي لذكاء التهديدات. تستخدم الأداة نموذج OpenAI GPT لاستخبارات عملية التهديد وإنشاء تقييمات في الوقت الفعلي لمشهد التهديد.

قامت شركة Recorded Future بتدريب نموذج OpenAI على أكثر من 10 سنوات من الرؤى المأخوذة من فريقها البحثي (بما في ذلك 40.000 ملاحظة محللة) جنبًا إلى جنب مع 100 تيرابايت من النصوص والصور والبيانات التقنية المأخوذة من الويب المفتوح والويب المظلم والمصادر التقنية الأخرى لجعلها قادرة على ذلك إنشاء تقارير تهديد مكتوبة عند الطلب.

قبل كل شيء ، تسلط حالة الاستخدام هذه الضوء على أن أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT لها دور مهم تلعبه في إثراء معلومات التهديد من خلال تزويد المستخدمين البشريين بالتقارير التي يمكنهم استخدامها لاكتساب المزيد من السياق حول الحوادث الأمنية وكيفية الاستجابة بفعالية.

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

كيف يمكن أن يساعد الذكاء الاصطناعي التوليفي و GPT في إعطاء المدافعين مزيدًا من السياق

لا يزال اكتشاف الخرق والاستجابة له يمثلان تحديًا كبيرًا للمؤسسات ، حيث يستمر متوسط ​​دورة حياة خرق البيانات 287 يومًا – أي 212 يومًا لاكتشاف الخرق و 75 يومًا لاحتوائه.

أحد الأسباب الرئيسية لهذا الوقت البطيء للكشف والاستجابة هو أنه يتعين على المحللين البشريين التدقيق في جبل من بيانات استخبارات التهديدات عبر بيئات السحابة المعقدة. يجب عليهم بعد ذلك تفسير الإشارات المعزولة المقدمة من خلال التنبيهات الآلية وإجراء مكالمة بشأن ما إذا كانت هذه المعلومات غير المكتملة تتطلب مزيدًا من التحقيق.

يتمتع الذكاء الاصطناعي التوليدي بالقدرة على تبسيط هذه العملية من خلال تحسين السياق حول إشارات التهديد المعزولة حتى يتمكن المحللون البشريون من اتخاذ قرار أكثر استنارة حول كيفية الاستجابة للانتهاكات بشكل فعال.

قال كريستوفر أهلبرغ ، الرئيس التنفيذي لشركة ريكورديد فيوتشر: “تُعد GPT تقدمًا يغير قواعد اللعبة في صناعة الاستخبارات”. يتعرض المحللون اليوم للثقل بسبب كثرة البيانات وقلة عدد الأشخاص والجهات الفاعلة في التهديد – وكلها تحظر الكفاءة وتؤثر على الدفاعات. تمكن GPT محللي استخبارات التهديدات من توفير الوقت ، وأن يكونوا أكثر كفاءة ، وأن يكونوا قادرين على قضاء المزيد من الوقت في التركيز على الأشياء التي يكون البشر أفضل فيها ، مثل إجراء التحليل الفعلي “.

بهذا المعنى ، باستخدام GPT ، يتيح Recorded Future للمؤسسات جمع وتنظيم البيانات المجمعة تلقائيًا من النصوص والصور وغيرها من أوجه القصور التقنية باستخدام معالجة اللغة الطبيعية (NLP) والتعلم الآلي (ML) لتطوير رؤى في الوقت الفعلي حول التهديدات النشطة.

قال أهلبرج: “يقضي المحللون 80٪ من وقتهم في القيام بأشياء مثل التجميع والتجميع والمعالجة و 20٪ فقط يقومون بالتحليل الفعلي”. “تخيل لو تم توفير 80٪ من وقتهم لإنفاقه فعليًا على التحليل وإعداد التقارير واتخاذ الإجراءات لتقليل المخاطر وتأمين المؤسسة؟”

باستخدام سياق أفضل ، يمكن للمحلل تحديد التهديدات ونقاط الضعف بسرعة أكبر وإلغاء الحاجة إلى إجراء مهام تحليل التهديدات التي تستغرق وقتًا طويلاً.

البائعون يشكلون دور الذكاء الاصطناعي التوليدي في الأمن

تجدر الإشارة إلى أن Recorded Future ليست البائع التكنولوجي الوحيد الذي يختبر الذكاء الاصطناعي التوليدي لمساعدة المحللين البشريين على التنقل بشكل أفضل في مشهد التهديدات الحديثة.

في الشهر الماضي ، أصدرت Microsoft Security Copilot ، وهي أداة تحليل أمان مدعومة بالذكاء الاصطناعي تستخدم GPT4 ومزيجًا من بيانات الملكية لمعالجة التنبيهات التي تم إنشاؤها بواسطة أدوات SIEM مثل Microsoft Sentinel. ثم يقوم بإنشاء ملخص مكتوب لنشاط التهديد الذي تم التقاطه لمساعدة المحللين على إجراء استجابة أسرع للحوادث.

وبالمثل ، في كانون الثاني (يناير) الماضي ، أصدرت شركة Orca Security – شركة Orca Security – التي تقدر قيمتها حاليًا بـ 1.8 مليار دولار – تكاملًا قائمًا على GPT3 لمنصة أمان السحابة الخاصة بها. قام التكامل بإعادة توجيه تنبيهات الأمان إلى GPT3 ، والتي قامت بعد ذلك بإنشاء تعليمات إصلاح خطوة بخطوة لشرح كيفية استجابة المستخدم لاحتواء الخرق.

بينما تهدف جميع هذه المنتجات وحالات الاستخدام إلى تبسيط متوسط ​​الوقت لحل الحوادث الأمنية ، فإن الفارق الرئيسي ليس فقط حالة استخدام معلومات التهديد التي قدمتها شركة Recorded Future ، ولكن استخدام نموذج GPT.

توضح حالات الاستخدام هذه معًا أن دور المحلل الأمني ​​أصبح معززًا بالذكاء الاصطناعي. لا يقتصر استخدام الذكاء الاصطناعي في مركز العمليات الأمنية على الاعتماد على الأدوات التي تستخدم اكتشاف الشذوذ المدعوم بالذكاء الاصطناعي لإرسال تنبيهات للمحللين البشريين. تعمل الإمكانات الجديدة في الواقع على إنشاء محادثة ثنائية الاتجاه بين الذكاء الاصطناعي والمحلل البشري بحيث يمكن للمستخدمين طلب الوصول إلى رؤى التهديدات عند الطلب.

مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى