Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار التقنية

وجدت دراسة OpenAI و Georgetown و Stanford أن LLMs يمكن أن تعزز التلاعب بالرأي العام


تحقق من جميع الجلسات عند الطلب من قمة الأمن الذكي هنا.


تعد التطورات في نماذج اللغات الكبيرة التي تعمل بالذكاء الاصطناعي بتطبيقات جديدة في المستقبل القريب والبعيد ، مع المبرمجين والكتاب والمسوقين وغيرهم من المهنيين المستفيدين من LLMs المتقدمة. لكن دراسة جديدة أجراها علماء في جامعة ستانفورد وجامعة جورجتاون و OpenAI سلطت الضوء على التأثير الذي يمكن أن تحدثه LLM على عمل الجهات الفاعلة التي تحاول التلاعب بالرأي العام من خلال نشر المحتوى عبر الإنترنت.

توصلت الدراسة إلى أن LLM يمكن أن تعزز عمليات التأثير السياسي من خلال تمكين إنشاء المحتوى على نطاق واسع ، وتقليل تكاليف العمالة ، وزيادة صعوبة اكتشاف نشاط الروبوت.

تم إجراء الدراسة بعد أن استضاف مركز جامعة جورجتاون للأمن والتكنولوجيا الناشئة (CSET) و OpenAI ومرصد ستانفورد للإنترنت (SIO) ورشة عمل في عام 2021 لاستكشاف إمكانية إساءة استخدام LLM لأغراض الدعاية. ومع استمرار تحسن LLM ، هناك قلق من أن الجهات الخبيثة سيكون لديها المزيد من الأسباب لاستخدامها في أهداف شائنة.

توصلت الدراسة إلى أن LLMs تؤثر على الجهات الفاعلة والسلوكيات والمحتوى

يتم تحديد عمليات التأثير من خلال ثلاثة عناصر رئيسية: الفاعلون ، والسلوكيات ، والمحتوى. وجدت الدراسة التي أجرتها ستانفورد ، وجورج تاون ، وأوبن إيه آي أن LLMs يمكن أن تؤثر على الجوانب الثلاثة.

حدث

قمة أمنية ذكية عند الطلب

تعرف على الدور الحاسم للذكاء الاصطناعي وتعلم الآلة في الأمن السيبراني ودراسات الحالة الخاصة بالصناعة. شاهد الجلسات عند الطلب اليوم.

مشاهدة هنا

مع جعل LLM من السهل إنشاء امتدادات طويلة من النص المتماسك ، سيجد المزيد من الممثلين أنه من الجذاب استخدامها في عمليات التأثير. كان إنشاء المحتوى يتطلب في السابق كتابًا بشريين ، وهو أمر مكلف وسيئ الحجم ويمكن أن يكون محفوفًا بالمخاطر عندما يحاول الممثلون إخفاء عملياتهم. LLMs ليست مثالية ويمكن أن ترتكب أخطاء غبية عند إنشاء نص. لكن يمكن للكاتب المقترن بـ LLM أن يصبح أكثر إنتاجية عن طريق تحرير النص الذي تم إنشاؤه بواسطة الكمبيوتر بدلاً من الكتابة من البداية. هذا يجعل الكتاب أكثر إنتاجية ويقلل من تكاليف العمالة.

يقول الدكتور جوش أ. غولدشتاين ، المؤلف المشارك لـ قال الباحث وزميل البحث في مشروع CyberAI في CSET لـ VentureBeat.

فيما يتعلق بالسلوك ، لا تستطيع LLM تعزيز عمليات التأثير الحالية فحسب ، بل يمكنها أيضًا تمكين تكتيكات جديدة. على سبيل المثال ، يمكن للخصوم استخدام LLM لإنشاء محتوى شخصي ديناميكي على نطاق واسع أو إنشاء واجهات محادثة مثل روبوتات الدردشة التي يمكنها التفاعل مباشرة مع العديد من الأشخاص في وقت واحد. إن قدرة LLM على إنتاج محتوى أصلي ستجعل من السهل أيضًا على الممثلين إخفاء حملات التأثير الخاصة بهم.

نظرًا لأن أدوات إنشاء النص تنشئ مخرجات أصلية في كل مرة يتم تشغيلها ، فقد يكون من الصعب على الباحثين المستقلين اكتشاف الحملات التي تعتمد عليها لأنهم لن يعتمدوا على ما يسمى بـ “copypasta” (أو نسخ النص ولصقه المتكرر عبر الإنترنت) . حسابات) ، قال غولدشتاين.

ما زلنا لا نعرف الكثير

على الرغم من أدائها المثير للإعجاب ، فإن LLM محدودة في العديد من النواحي الهامة. على سبيل المثال ، حتى أكثر LLM تقدمًا تميل إلى الإدلاء بعبارات سخيفة وتفقد تماسكها لأن نصها أطول من بضع صفحات.

كما أنهم يفتقرون إلى سياق الأحداث التي لم يتم تضمينها في بيانات التدريب الخاصة بهم ، وإعادة تدريبهم عملية معقدة ومكلفة. هذا يجعل من الصعب استخدامها لحملات التأثير السياسي التي تتطلب التعليق على الأحداث في الوقت الحقيقي.

قال غولدشتاين إن هذه القيود لا تنطبق بالضرورة على جميع أنواع عمليات التأثير.

بالنسبة للعمليات التي تتضمن نصًا أطول ومحاولة إقناع الناس بسرد معين ، فقد تكون أكثر أهمية. بالنسبة للعمليات التي تحاول في الغالب “إغراق المنطقة” أو تشتيت انتباه الناس ، فقد تكون أقل أهمية “.

ومع استمرار نضج التكنولوجيا ، قد يتم رفع بعض هذه الحواجز. على سبيل المثال ، قال غولدشتاين ، تمت صياغة التقرير بشكل أساسي قبل إصدار ChatGPT ، والذي أظهر كيف يمكن لتقنيات جمع البيانات والتدريب الجديدة أن تحسن أداء LLMs.

في الورقة ، توقع الباحثون كيف أن بعض التطورات المتوقعة قد تزيل بعض هذه الحواجز. على سبيل المثال ، ستصبح LLM أكثر موثوقية وقابلة للاستخدام حيث يطور العلماء تقنيات جديدة لتقليل أخطائهم وتكييفها مع المهام الجديدة. يمكن أن يشجع هذا المزيد من الجهات الفاعلة على استخدامها في عمليات التأثير.

ويحذر مؤلفو الورقة أيضًا من “الأمور المجهولة المهمة”. على سبيل المثال ، اكتشف العلماء أنه مع نمو LLMs بشكل أكبر ، فإنها تظهر قدرات رائعة. مع استمرار الصناعة في الدفع نحو نماذج أوسع نطاقًا ، قد تظهر حالات استخدام جديدة يمكن أن تفيد الدعاة وتؤثر على الحملات.

ومع المزيد من المصالح التجارية في LLMs ، لا بد أن يتقدم هذا المجال بشكل أسرع في الأشهر والسنوات القادمة. على سبيل المثال ، فإن تطوير الأدوات المتاحة للجمهور لتدريب النماذج اللغوية وتشغيلها وضبطها سيقلل بشكل أكبر من الحواجز التقنية لاستخدام LLM في حملات التأثير.

تنفيذ سلسلة القتل

يقترح مؤلفو الورقة إطار عمل “سلسلة القتل” لأنواع استراتيجيات التخفيف التي يمكن أن تمنع إساءة استخدام LLM في حملات الدعاية.

يمكننا أن نبدأ في معالجة ما هو مطلوب لمكافحة سوء الاستخدام من خلال طرح سؤال بسيط: ما الذي يحتاجه الداعي لشن عملية تأثير باستخدام نموذج لغوي بنجاح؟ من خلال أخذ هذا المنظور ، حددنا أربع نقاط للتدخل: بناء النموذج ، والوصول إلى النموذج ، ونشر المحتوى ، وتكوين المعتقدات. قال غولدشتاين: “في كل مرحلة ، توجد مجموعة من التخفيفات المحتملة”.

على سبيل المثال ، في مرحلة البناء ، قد يستخدم المطورون تقنيات العلامات المائية لجعل البيانات التي تم إنشاؤها بواسطة النماذج التوليدية قابلة للاكتشاف. في الوقت نفسه ، يمكن للحكومات فرض التحكم في الوصول إلى أجهزة الذكاء الاصطناعي.

في مرحلة الوصول ، يمكن لمقدمي LLM وضع قيود استخدام أكثر صرامة على النماذج المستضافة وتطوير معايير جديدة حول إطلاق النماذج.

فيما يتعلق بنشر المحتوى ، يمكن للمنصات التي تقدم خدمات النشر (مثل منصات التواصل الاجتماعي والمنتديات ومواقع التجارة الإلكترونية مع ميزات المراجعة وما إلى ذلك) أن تفرض قيودًا مثل “إثبات الشخصية” ، مما سيجعل من الصعب على الأشخاص المدعومين بالذكاء الاصطناعي نظام لتقديم المحتوى على نطاق واسع.

بينما تقدم الورقة العديد من الأمثلة على تقنيات التخفيف ، شدد غولدشتاين على أن العمل لم يكتمل.

“فقط لأن التخفيف ممكن ، لا يعني أنه ينبغي تنفيذه. يجب على أولئك الذين في مكان لتطبيقه – سواء كان ذلك في شركات التكنولوجيا أو في الحكومة أو الباحثين – تقييم مدى الرغبة “.

تتضمن بعض الأسئلة التي يجب طرحها ما يلي: هل التخفيف ممكن من الناحية الفنية؟ ممكن اجتماعيا؟ ما هي مخاطر الجانب السلبي؟ ما هو تأثير ذلك؟

قال غولدشتاين: “نحن بحاجة إلى مزيد من البحث والتحليل والاختبار لمعالجة أفضل للتخفيفات المرغوبة ولإبراز عوامل التخفيف التي تجاهلناها”. “ليس لدينا حل سحري.”

مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى