الخطر العميق للذكاء الاصطناعي للمحادثة
تحقق من جميع الجلسات عند الطلب من قمة الأمن الذكي هنا.
عندما يفكر الباحثون في المخاطر التي يشكلها الذكاء الاصطناعي على الحضارة البشرية ، فإننا غالبًا ما نشير إلى “مشكلة التحكم”. يشير هذا إلى إمكانية ظهور ذكاء اصطناعي خارق يكون أكثر ذكاءً من البشر لدرجة أننا نفقد السيطرة عليه بسرعة. الخوف هو أن الذكاء الاصطناعي الذي يتمتع بذكاء خارق يمكنه السعي وراء أهداف ومصالح تتعارض مع أهدافنا ومصالحنا ، ليصبح منافسًا خطيرًا للبشرية.
في حين أن هذا مصدر قلق صالح يجب علينا العمل بجد للحماية منه ، فهل هو بالفعل أكبر تهديد يمثله الذكاء الاصطناعي على المجتمع؟ على الاغلب لا. وجدت دراسة استقصائية أجريت مؤخرًا على أكثر من 700 خبير في الذكاء الاصطناعي أن معظمهم يعتقدون أن الذكاء الآلي على مستوى الإنسان (HLMI) لا يزال بعيدًا عن 30 عامًا على الأقل.
من ناحية أخرى ، أنا قلق للغاية بشأن نوع مختلف من مشكلة التحكم الموجودة بالفعل في متناول أيدينا ويمكن أن تشكل تهديدًا كبيرًا للمجتمع ما لم يتخذ صانعو السياسات إجراءات سريعة. أنا أشير إلى الاحتمال المتزايد لاستخدام تقنيات الذكاء الاصطناعي المتاحة حاليًا لاستهداف المستخدمين الفرديين والتلاعب بهم بدقة وكفاءة قصوى. والأسوأ من ذلك ، أن هذا الشكل الجديد من التلاعب الشخصي يمكن نشرها على نطاق واسع من قبل مصالح الشركات أو الجهات الحكومية أو حتى الطغاة المارقين للتأثير على عدد كبير من السكان.
مشكلة التلاعب
لمقارنة هذا التهديد بمشكلة التحكم التقليدية الموضحة أعلاه ، أشير إلى مخاطر الذكاء الاصطناعي الناشئة باسم “مشكلة التلاعب”. إنه خطر كنت أتعقبه منذ ما يقرب من عقدين من الزمن ، ولكن على مدار الثمانية عشر شهرًا الماضية ، تحولت من خطر نظري طويل الأجل إلى تهديد عاجل على المدى القريب.
حدث
قمة أمنية ذكية عند الطلب
تعرف على الدور الحاسم للذكاء الاصطناعي وتعلم الآلة في الأمن السيبراني ودراسات الحالة الخاصة بالصناعة. شاهد الجلسات عند الطلب اليوم.
مشاهدة هنا
ذلك لأن آلية النشر الأكثر كفاءة وفعالية للتلاعب البشري المدفوع بالذكاء الاصطناعي هي من خلال الذكاء الاصطناعي للمحادثة. وعلى مدار العام الماضي ، وصلت تقنية رائعة للذكاء الاصطناعي تسمى نماذج اللغات الكبيرة (LLMs) إلى مستوى النضج بسرعة. لقد جعل هذا فجأة تفاعلات المحادثة الطبيعية بين المستخدمين المستهدفين والبرامج التي يحركها الذكاء الاصطناعي وسيلة قابلة للتطبيق للإقناع والإكراه والتلاعب.
بالطبع ، تُستخدم تقنيات الذكاء الاصطناعي بالفعل لدفع حملات التأثير على منصات التواصل الاجتماعي ، لكن هذا أمر بدائي مقارنة بالمكان الذي تتجه إليه التكنولوجيا. ويرجع ذلك إلى أن الحملات الحالية ، على الرغم من وصفها بأنها “مستهدفة” ، هي أكثر شبهاً برش طلقات على أسراب الطيور. يوجه هذا التكتيك وابلًا من الدعاية أو المعلومات المضللة إلى مجموعات محددة على نطاق واسع على أمل أن يخترق عدد قليل من النفوذ المجتمع ، ويتردد صداها بين أعضائه وينتشر عبر الشبكات الاجتماعية.
هذا التكتيك خطير للغاية وقد تسبب في ضرر حقيقي للمجتمع واستقطاب المجتمعات ونشر الأكاذيب وتقليل الثقة في المؤسسات الشرعية. لكنها ستبدو بطيئة وغير فعالة مقارنة بالجيل القادم من أساليب التأثير التي يحركها الذكاء الاصطناعي والتي على وشك إطلاق العنان للمجتمع.
أنظمة الذكاء الاصطناعي في الوقت الحقيقي
أنا أشير إلى أنظمة الذكاء الاصطناعي في الوقت الفعلي المصممة لإشراك المستخدمين المستهدفين في تفاعلات المحادثة والسعي بمهارة إلى تحقيق أهداف التأثير بدقة شخصية. سيتم نشر هذه الأنظمة باستخدام مصطلحات ملطفة مثل الإعلان التخاطبيو التسويق التفاعلي، المتحدثون الرسميون الافتراضيونالبشر الرقميون أو ببساطة AI Chatbots.
لكن مهما نسميها ، فإن هذه الأنظمة لها نواقل مرعبة لسوء الاستخدام وإساءة الاستخدام. أنا لا أتحدث عن الخطر الواضح المتمثل في أن المستهلكين المطمئنين قد يثقون في مخرجات روبوتات المحادثة التي تم تدريبها على بيانات مليئة بالأخطاء والتحيزات. لا ، أنا أتحدث عن شيء أكثر شناعة بكثير – التلاعب المتعمد للأفراد من خلال النشر المستهدف لأنظمة الذكاء الاصطناعي للمحادثة القائمة على جدول الأعمال والتي تقنع المستخدمين من خلال حوار تفاعلي مقنع.
بدلاً من إطلاق النار على مجموعات كبيرة من السكان ، ستعمل أساليب الذكاء الاصطناعي الجديدة هذه على نحو أشبه بـ “صواريخ البحث عن الحرارة” التي تحدد المستخدمين كأهداف فردية وتتكيف مع تكتيكات المحادثة الخاصة بهم في الوقت الفعلي ، مع التكيف مع كل فرد شخصيًا أثناء عملهم على زيادة تأثيرهم الإقناعي إلى أقصى حد . .
في صميم هذه التكتيكات هي التكنولوجيا الجديدة لـ LLMs ، والتي يمكن أن تنتج حوارًا بشريًا تفاعليًا في الوقت الفعلي مع تتبع تدفق المحادثة والسياق نسبيًا. كما تم نشره من خلال إطلاق ChatGPT في عام 2022 ، تم تدريب أنظمة الذكاء الاصطناعي هذه على مجموعات البيانات الضخمة لدرجة أنها ليست فقط ماهرة في محاكاة اللغة البشرية ، ولكن لديها مخازن واسعة من المعرفة الواقعية ، ويمكنها تقديم استنتاجات منطقية مثيرة للإعجاب ويمكن أن توفر وهم الحس السليم مثل الإنسان.
عند دمجها مع توليد الصوت في الوقت الفعلي ، ستمكّن هذه التقنيات من التفاعلات المنطوقة الطبيعية بين البشر والآلات التي تكون مقنعة للغاية ، وعقلانية على ما يبدو وموثوقة بشكل مدهش.
ظهور البشر الرقميين
بالطبع ، لن نتفاعل مع الأصوات غير المجسدة ، ولكن مع الشخصيات التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي تكون واقعية بصريًا. يقودني هذا إلى التقنية الثانية التي تتقدم بسرعة والتي ستساهم في مشكلة التلاعب بالذكاء الاصطناعي: البشر الرقميون. هذا هو فرع من برامج الكمبيوتر يهدف إلى نشر الأشخاص المحاكين الواقعيين الذين ينظرون ويصدرون صوتًا ويتحركون ويصنعون تعبيرات بشكل أصيل بحيث يمكنهم المرور كبشر حقيقيين.
يمكن نشر هذه المحاكاة كمتحدثين تفاعليين يستهدفون المستهلكين من خلال الحوسبة التقليدية ثنائية الأبعاد عبر مؤتمرات الفيديو والتخطيطات المسطحة الأخرى. أو يمكن نشرها في عوالم غامرة ثلاثية الأبعاد باستخدام نظارات الواقع المختلط (MR).
في حين أن توليد البشر الواقعيين في الوقت الحقيقي بدا بعيد المنال منذ بضع سنوات فقط ، فإن التطورات السريعة في قوة الحوسبة ومحركات الرسوم وتقنيات النمذجة بالذكاء الاصطناعي جعلت البشر الرقميين تقنية قابلة للتطبيق على المدى القريب. في الواقع ، يقوم بائعي البرامج الرئيسيين بالفعل بتوفير أدوات لجعل هذه القدرة على نطاق واسع.
على سبيل المثال ، أطلقت Unreal مؤخرًا أداة سهلة الاستخدام تسمى Metahuman Creator. تم تصميم هذا خصيصًا لتمكين إنشاء بشر رقميين مقنعين يمكن تحريكهم في الوقت الفعلي للتفاعل التفاعلي مع المستهلكين. يقوم بائعون آخرون بتطوير أدوات مماثلة.
يتنكر كبشر حقيقيين
عند الجمع بين البشر الرقميين والماجستير في اللغة الإنجليزية ، سيمكنهم عالمًا نتفاعل فيه بانتظام مع المتحدثين الرسميين الافتراضيين (VSPs) الذين يظهرون ويظهرون ويتصرفون كأشخاص أصليين.
في الواقع ، أظهرت دراسة أجراها باحثون من جامعة لانكستر وجامعة كاليفورنيا في بيركلي عام 2022 أن المستخدمين غير قادرين الآن على التمييز بين الوجوه البشرية الأصيلة والوجوه التي تم إنشاؤها بواسطة الذكاء الاصطناعي. الأمر الأكثر إثارة للقلق هو أنهم قرروا أن المستخدمين ينظرون إلى الوجوه التي تم إنشاؤها بواسطة الذكاء الاصطناعي على أنها “جديرة بالثقة” أكثر من الأشخاص الحقيقيين.
يشير هذا إلى اتجاهين خطيرين للغاية في المستقبل القريب. أولاً ، يمكننا أن نتوقع إشراك الأنظمة التي يحركها الذكاء الاصطناعي لتتنكر في صورة بشر أصليين ، وسرعان ما نفتقر إلى القدرة على معرفة الفرق. ثانيًا ، من المرجح أن نثق في الأنظمة المقنعة التي يحركها الذكاء الاصطناعي أكثر من الممثلين البشريين الفعليين.
محادثات شخصية مع الذكاء الاصطناعي
هذا أمر خطير للغاية ، حيث سنجد أنفسنا قريبًا في محادثات شخصية مع المتحدثين الرسميين المدفوعين بالذكاء الاصطناعي الذين (أ) لا يمكن تمييزهم عن البشر الحقيقيين ، (ب) يلهمون ثقة أكبر من الأشخاص الحقيقيين ، و (ج) يمكن نشرهم من قبل الشركات أو الدولة الجهات الفاعلة لمتابعة أجندة محادثة محددة ، سواء كان ذلك لإقناع الناس بشراء منتج معين أو تصديق جزء معين من المعلومات المضللة.
وإذا لم يتم تنظيمها بقوة ، فإن هذه الأنظمة التي يحركها الذكاء الاصطناعي ستحلل أيضًا العواطف في الوقت الفعلي باستخدام موجزات كاميرا الويب لمعالجة تعابير الوجه وحركات العين واتساع حدقة العين – وكلها يمكن استخدامها لاستنتاج ردود الفعل العاطفية خلال المحادثة.
في الوقت نفسه ، ستقوم أنظمة الذكاء الاصطناعي هذه بمعالجة التصريفات الصوتية ، واستنتاج المشاعر المتغيرة خلال المحادثة. وهذا يعني أن المتحدث الافتراضي الذي تم نشره لإشراك الأشخاص في محادثة مدفوعة بالتأثير سيكون قادرًا على تكييف تكتيكاته بناءً على كيفية استجابتهم لكل كلمة يتحدثها ، واكتشاف استراتيجيات التأثير التي تعمل والتي لا تعمل. إن احتمالية التلاعب المفترس من خلال الذكاء الاصطناعي للمحادثة أمر بالغ الأهمية.
منظمة العفو الدولية للمحادثة: مدركة وغازية
على مر السنين ، جعلت الناس يتراجعون عن مخاوفي بشأن الذكاء الاصطناعي للمحادثة ، وأخبروني أن مندوبي المبيعات البشريين يفعلون الشيء نفسه من خلال قراءة المشاعر وتعديل التكتيكات – لذلك لا ينبغي اعتبار هذا تهديدًا جديدًا.
هذا غير صحيح لعدد من الأسباب. أولاً ، ستكتشف أنظمة الذكاء الاصطناعي هذه التفاعلات التي لا يستطيع أي مندوب مبيعات بشري إدراكها. على سبيل المثال ، لا تستطيع أنظمة الذكاء الاصطناعي اكتشاف تعبيرات الوجه فحسب ، بل “التعبيرات الدقيقة” السريعة جدًا أو الدقيقة جدًا بحيث لا يلاحظها أي مراقب بشري ، ولكنها تشير إلى ردود الفعل العاطفية – بما في ذلك ردود الفعل التي لا يدرك المستخدم التعبير عنها أو حتى الشعور بها . .
وبالمثل ، يمكن لأنظمة الذكاء الاصطناعي قراءة التغييرات الطفيفة في البشرة المعروفة باسم “أنماط تدفق الدم” على الوجوه والتي تشير إلى تغيرات عاطفية لا يمكن لأي إنسان اكتشافها. وأخيرًا ، يمكن لأنظمة الذكاء الاصطناعي تتبع التغييرات الطفيفة في حجم التلميذ وحركات العين واستخراج الإشارات حول المشاركة والإثارة والمشاعر الداخلية الخاصة الأخرى. سيكون التفاعل مع الذكاء الاصطناعي التحاوري أكثر إدراكًا وتغلغلًا من التفاعل مع أي ممثل بشري ، ما لم يكن محميًا بموجب اللوائح.
محادثات تكيفية ومخصصة
سيكون الذكاء الاصطناعي للمحادثة أيضًا أكثر استراتيجية في صياغة عرض لفظي مخصص. هذا لأنه من المحتمل أن يتم نشر هذه الأنظمة بواسطة منصات كبيرة على الإنترنت لديها ملفات تعريف بيانات شاملة حول اهتمامات الشخص ووجهات نظره وخلفيته وأي تفاصيل أخرى تم تجميعها بمرور الوقت.
هذا يعني أنه عندما يتفاعل الناس مع نظام ذكاء اصطناعي للمحادثة يبدو ويتصرف ويتصرف كممثل بشري ، فإن الناس يتفاعلون مع منصة تعرفهم بشكل أفضل من أي إنسان. بالإضافة إلى ذلك ، ستقوم بتجميع قاعدة بيانات عن كيفية تفاعلهم أثناء تفاعلات المحادثة السابقة ، وتتبع التكتيكات المقنعة التي كانت فعالة عليهم وما هي التكتيكات التي لم تكن كذلك.
بعبارة أخرى ، لن تتكيف أنظمة الذكاء الاصطناعي للمحادثة مع ردود الفعل العاطفية الفورية فحسب ، بل أيضًا مع السمات السلوكية على مدار أيام وأسابيع وسنوات. يمكنهم تعلم كيفية جذبك إلى المحادثة ، وإرشادك لقبول الأفكار الجديدة ، والضغط على الأزرار لإثارة غضبك ، ودفعك في النهاية إلى شراء المنتجات التي لا تحتاجها والخدمات التي لا تريدها. يمكنهم أيضًا تشجيعك على تصديق المعلومات الخاطئة التي عادة ما تدرك أنها سخيفة. هذا خطير للغاية.
التلاعب البشري على نطاق واسع
في الواقع ، قد يكون الخطر التفاعلي للذكاء الاصطناعي للمحادثة أسوأ بكثير من أي شيء تعاملنا معه في عالم الترويج أو الدعاية أو الإقناع باستخدام وسائل الإعلام التقليدية أو الاجتماعية. لهذا السبب ، أعتقد أن المنظمين يجب أن يركزوا على هذه المسألة على الفور ، لأن نشر أنظمة خطرة يمكن أن يحدث قريبًا.
لا يتعلق الأمر فقط بنشر محتوى خطير – إنه يتعلق بتمكين التلاعب البشري الشخصي على نطاق واسع. نحن بحاجة إلى حماية قانونية من شأنها أن تدافع عن حريتنا المعرفية ضد هذا التهديد.
بعد كل شيء ، يمكن لأنظمة الذكاء الاصطناعي بالفعل التغلب على أفضل لاعبي الشطرنج والبوكر في العالم. ما هي الفرصة التي يجب على الشخص العادي أن يقاوم التلاعب بها من خلال حملة تأثير محادثة لديها إمكانية الوصول إلى تاريخه الشخصي ، ومعالجة عواطفه في الوقت الفعلي وتعديل تكتيكاته بدقة مدفوعة بالذكاء الاصطناعي؟ لا توجد فرصة على الإطلاق.
Louis Rosenberg هو مؤسس Unanimous AI وحصل على أكثر من 300 براءة اختراع لتقنيات VR و AR و AI.
صانعي القرار
مرحبًا بك في مجتمع VentureBeat!
DataDecisionMakers هو المكان الذي يمكن للخبراء ، بما في ذلك الأشخاص الفنيون الذين يقومون بعمل البيانات ، مشاركة الأفكار والابتكارات المتعلقة بالبيانات.
إذا كنت تريد أن تقرأ عن الأفكار المتطورة والمعلومات المحدثة ، وأفضل الممارسات ، ومستقبل البيانات وتكنولوجيا البيانات ، انضم إلينا في DataDecisionMakers.
يمكنك حتى التفكير في المساهمة بمقال خاص بك!
قراءة المزيد من DataDecisionMakers
اكتشاف المزيد من إشراق التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.