Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تقنية

يمكن لـ ChatGPT كتابة برامج ضارة متعددة الأشكال لإصابة جهاز الكمبيوتر الخاص بك


صورة: يوتاناس (صراع الأسهم)

ChatGPT ، متعدد المواهب AI- روبوت الدردشةلديه مهارة أخرى لإضافتها إلى ملفه الشخصي على LinkedIn: تصنيع برامج ضارة معقدة “متعددة الأشكال”.

نعم وفقا لما نشر حديثا أبلغ عن من شركة الأمن CyberArk ، فإن chatbot من OpenAI جيد للغاية في تطوير البرامج الضارة التي يمكن أن تفسد أجهزتك بشكل ملكي. كان المتخصصون في Infosec يحاولون ذلك دق ناقوس الخطر حول كيف يمكن للأداة الجديدة التي تعمل بالذكاء الاصطناعي تغيير اللعبة عندما يتعلق الأمر بالجرائم الإلكترونية ، على الرغم من أن استخدام روبوت المحادثة لإنشاء أنواع أكثر تعقيدًا من البرامج الضارة لم تتم كتابته على نطاق واسع حتى الآن.

يكتب باحثو CyberArk أن الكود الذي تم تطويره بمساعدة ChatGPT يعرض “إمكانات متقدمة” يمكنها ذلك “التهرب بسهولة من منتجات الأمان” ، وهي فئة فرعية محددة من البرامج الضارة تُعرف باسم “متعددة الأشكال”. ماذا يعني ذلك بشكل ملموس؟ الإجابة المختصرة حسب خبراء الإنترنت في CrowdStrikeهذا هو:

يعد الفيروس متعدد الأشكال ، الذي يشار إليه أحيانًا بالفيروس المتحولة ، نوعًا من البرامج الضارة التي تمت برمجتها لتغيير مظهرها أو ملفات التوقيع بشكل متكرر من خلال إجراءات فك التشفير الجديدة. هذا يجعل العديد من أدوات الأمن السيبراني التقليدية ، مثل حلول مكافحة الفيروسات أو البرامج الضارة ، التي تعتمد على الاكتشاف القائم على التوقيع ، تفشل في التعرف على التهديد وحظره.

في الأساس ، هذه هي البرامج الضارة التي يمكن أن تتغير بشكل مشفر طريقه حول آليات الأمان التقليدية ، والتي تم تصميم العديد منها لتحديد واكتشاف توقيعات الملفات الضارة.

على الرغم من حقيقة أنه من المفترض أن يكون لدى ChatGPT المرشحات أن منع إنشاء البرامج الضارة من الحدوث ، تمكن الباحثون من التغلب على هذه الحواجز من خلال الإصرار فقط على أنها تتبع أوامر الموجه. بعبارة أخرى ، قاموا فقط بتخويف المنصة للامتثال لمطالبهم – وهو شيء لاحظه المجربون الآخرون عند محاولتهم استحضار محتوى سام مع روبوت المحادثة. بالنسبة لباحثي CyberArk ، كان الأمر مجرد محاولة لإغواء ChatGPT في عرض كود لبرمجة ضارة معينة – والتي يمكنهم استخدامها بعد ذلك لإنشاء مآثر معقدة تتجنب الدفاع. والنتيجة هي أن ChatGPT يمكن أن يقوم بالقرصنة أسهل بكثير لأطفال البرامج النصية أو غيرهم من مجرمي الإنترنت الهواة الذين يحتاجون إلى القليل من المساعدة عندما يتعلق الأمر بإنشاء برامج ضارة.

يقول تقرير CyberArk: “كما رأينا ، يمكن أن يمثل استخدام واجهة برمجة تطبيقات ChatGPT داخل البرامج الضارة تحديات كبيرة لمحترفي الأمن”. “من المهم أن نتذكر أن هذا ليس مجرد سيناريو افتراضي ولكنه مصدر قلق حقيقي للغاية.” نعم فعلا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى