لماذا يعتبر الذكاء الاصطناعي التوليدي أكثر خطورة مما تعتقد
انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح.. يتعلم أكثر
لقد كُتب الكثير عن مخاطر الذكاء الاصطناعي التوليدي في الأشهر الأخيرة ، ومع ذلك فإن كل شيء رأيته يتلخص في ثلاث حجج بسيطة ، لا يعكس أي منها الخطر الأكبر الذي أراه في طريقنا. قبل الدخول في هذا الخطر الخفي للذكاء الاصطناعي التوليدي ، سيكون من المفيد تلخيص التحذيرات الشائعة التي ظهرت مؤخرًا:
- المخاطر على الوظائفيمكن للذكاء الاصطناعي التوليدي الآن إنتاج منتجات عمل على المستوى البشري تتراوح من الأعمال الفنية والمقالات إلى التقارير العلمية. سيؤثر هذا بشكل كبير على سوق العمل ، لكنني أعتقد أنه يمثل مخاطرة يمكن التحكم فيها لأن تعريفات الوظائف تتكيف مع قوة الذكاء الاصطناعي. سيكون مؤلمًا لفترة ، لكنه لا يختلف عن كيفية تكيف الأجيال السابقة مع الكفاءات الأخرى الموفرة للعمل.
- خطر المحتوى المزيفيمكن للذكاء الاصطناعي التوليدي الآن إنشاء أعمال فنية بجودة الإنسان على نطاق واسع ، بما في ذلك المقالات والمقالات والأوراق والفيديو المزيفة والمضللة. المعلومات المضللة ليست مشكلة جديدة ، لكن الذكاء الاصطناعي التوليدي سيسمح بإنتاجها بكميات كبيرة بمستويات لم يسبق لها مثيل من قبل. هذه مخاطرة كبيرة ، لكن يمكن السيطرة عليها. ذلك لأنه يمكن تحديد المحتوى المزيف إما عن طريق (أ) فرض تقنيات العلامات المائية التي تحدد محتوى الذكاء الاصطناعي عند الإنشاء ، أو (ب) من خلال نشر الإجراءات المضادة القائمة على الذكاء الاصطناعي والتي يتم تدريبها لتحديد محتوى الذكاء الاصطناعي بعد وقوعه.
- مخاطر الآلات الواعيةيشعر العديد من الباحثين بالقلق من أن أنظمة الذكاء الاصطناعي سترتقي إلى مستوى يطورون فيه “إرادة خاصة بهم” وستتخذ إجراءات تتعارض مع المصالح البشرية ، أو حتى تهدد الوجود البشري. أعتقد أن هذا خطر حقيقي على المدى الطويل. في الواقع ، لقد كتبت أ “كتاب مصور للكبار” بعنوان الوصول إلى العقل قبل بضع سنوات يستكشف هذا الخطر بعبارات بسيطة. ومع ذلك ، لا أعتقد أن أنظمة الذكاء الاصطناعي الحالية ستصبح تلقائيًا واعية دون إدخال تحسينات هيكلية كبيرة على التكنولوجيا. لذلك ، في حين أن هذا يمثل خطرًا حقيقيًا على الصناعة للتركيز عليه ، إلا أنه ليس الخطر الأكثر إلحاحًا الذي أراه أمامنا.
إذن ، ما الذي يقلقني أكثر بشأن ظهور الذكاء الاصطناعي التوليدي؟
من وجهة نظري ، المكان الذي يخطئ فيه معظم خبراء السلامة ، بما في ذلك صناع السياسات ، هو أنهم ينظرون إلى الذكاء الاصطناعي التوليدي في المقام الأول كأداة لإنشاء محتوى تقليدي على نطاق واسع. في حين أن التكنولوجيا ماهرة تمامًا في نشر المقالات والصور ومقاطع الفيديو ، فإن القضية الأكثر أهمية هي أن الذكاء الاصطناعي التوليدي سيطلق العنان لشكل جديد تمامًا من الوسائط التي تكون مخصصة للغاية وتفاعلية بالكامل وربما تكون أكثر تلاعبًا بكثير من أي شكل من أشكال المحتوى المستهدف. يستخدم. واجهتها حتى الآن.
مرحبًا بكم في عصر الوسائط التوليدية التفاعلية
إن أخطر ميزة في الذكاء الاصطناعي التوليدي لا تتمثل في قدرته على نشر مقالات ومقاطع فيديو مزيفة على نطاق واسع ، ولكن يمكنه إنتاج محتوى تفاعلي وقابل للتكيف مخصص للمستخدمين الفرديين لتحقيق أقصى قدر من التأثير الإقناعي. في هذا السياق، تفاعلي وسائل الإعلام التوليدية يمكن تعريفها على أنها مواد ترويجية مستهدفة يتم إنشاؤها أو تعديلها في الوقت الفعلي لتعظيم أهداف التأثير بناءً على البيانات الشخصية حول المستخدم الذي يستلمها.
سيؤدي هذا إلى تحويل “حملات التأثير المستهدفة” من رصاصة موجهة إلى مجموعات سكانية واسعة إلى صواريخ تسعى للحرارة يمكن أن تركز على الأفراد لتحقيق التأثير الأمثل. وكما هو موضح أدناه ، من المرجح أن يأتي هذا الشكل الجديد من الوسائط في نسختين قويتين ، “الإعلانات التوليدية المستهدفة” و “تأثير المحادثة المستهدفة”.
حدث
تحويل 2023
انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.
سجل الان
الإعلانات التوليدية المستهدفة هو استخدام الصور ومقاطع الفيديو والأشكال الأخرى للمحتوى المعلوماتي التي تبدو وكأنها إعلانات تقليدية ولكنها مخصصة في الوقت الفعلي للمستخدمين الفرديين. سيتم إنشاء هذه الإعلانات على الفور بواسطة أنظمة الذكاء الاصطناعي التوليدية بناءً على أهداف التأثير التي يوفرها رعاة الطرف الثالث بالإضافة إلى البيانات الشخصية التي يتم الوصول إليها للمستخدم المحدد المستهدف. قد تتضمن البيانات الشخصية عمر المستخدم وجنسه ومستوى تعليمه ، بالإضافة إلى اهتماماته وقيمه وحساسيته الجمالية وميوله الشرائية وانتماءاته السياسية وانحيازه الثقافي.
استجابة للأهداف المؤثرة وبيانات الاستهداف ، ستقوم منظمة العفو الدولية التوليدية بتخصيص التخطيط وصور مميزة ورسائل ترويجية لزيادة فعاليتها على هذا المستخدم. يمكن تخصيص كل شيء بدءًا من الألوان والخطوط وعلامات الترقيم جنبًا إلى جنب مع العمر والعرق وأنماط الملابس لأي شخص يظهر في الصور. هل ستشاهد مقاطع فيديو لمشاهد حضرية أو ريفية؟ هل سيتم تعيينه في الخريف أم الربيع؟ هل سترى صور سيارات رياضية أو شاحنات عائلية؟ يمكن تخصيص كل التفاصيل في الوقت الفعلي عن طريق الذكاء الاصطناعي التوليدي لزيادة التأثير الخفي عليك شخصيًا.
ونظرًا لأن المنصات التقنية يمكنها تتبع تفاعل المستخدم ، سيتعرف النظام على التكتيكات التي تناسبك بشكل أفضل بمرور الوقت ، واكتشاف ألوان الشعر وتعبيرات الوجه التي تجذب انتباهك بشكل أفضل.
إذا كان هذا يبدو وكأنه خيال علمي ، ففكر في ما يلي: أعلنت كل من Meta و Google مؤخرًا عن خطط لاستخدام الذكاء الاصطناعي التوليدي في إنشاء الإعلانات عبر الإنترنت. إذا أنتجت هذه التكتيكات المزيد من النقرات للرعاة ، فستصبح ممارسة قياسية وسيتبعها سباق تسلح ، حيث تتنافس جميع المنصات الرئيسية على استخدام الذكاء الاصطناعي التوليفي لتخصيص المحتوى الترويجي بأكثر الطرق فعالية ممكنة.
هذا يقودني إلى المستهدفة تأثير المحادثةأسلوب إنتاجي يتم من خلاله نقل الأهداف المؤثرة من خلال المحادثة التفاعلية بدلاً من المستندات أو مقاطع الفيديو التقليدية.
ستتم المحادثات من خلال روبوتات المحادثة (مثل ChatGPT و Bard) أو من خلال أنظمة قائمة على الصوت مدعومة بنماذج لغة كبيرة مماثلة (LLMs). سيواجه المستخدمون “وكلاء المحادثة” هؤلاء عدة مرات على مدار يومهم ، حيث سيستخدم مطورو الطرف الثالث واجهات برمجة التطبيقات لدمج LLMs في مواقعهم على الويب وتطبيقاتهم ومساعديهم الرقميين التفاعليين.
على سبيل المثال ، يمكنك الوصول إلى موقع ويب يبحث عن أحدث توقعات الطقس ، والتفاعل مع وكيل الذكاء الاصطناعي لطلب المعلومات. في هذه العملية ، يمكن أن تكون مستهدفًا بتأثير محادثة – رسائل خفية منسوجة في الحوار مع الأهداف الترويجية.
نظرًا لأن الحوسبة التخاطبية أصبحت شائعة في حياتنا ، فإن خطر تأثير المحادثة سيتوسع بشكل كبير ، حيث يمكن للرعاة الذين يدفعون الدفع أن يضخوا الرسائل في الحوار التي قد لا نلاحظها حتى. ومثل الإعلانات التوليدية المستهدفة ، سيتم استخدام أهداف المراسلة التي يطلبها الرعاة جنبًا إلى جنب مع البيانات الشخصية حول المستخدم المستهدف لتحسين التأثير.
يمكن أن تتضمن البيانات عمر المستخدم وجنسه ومستوى تعليمه جنبًا إلى جنب مع الاهتمامات الشخصية والهوايات والقيم وما إلى ذلك ، مما يتيح حوارًا إنشائيًا في الوقت الفعلي مصممًا لجذب هذا الشخص المحدد على النحو الأمثل.
لماذا نستخدم تأثير المحادثة؟
إذا سبق لك العمل كمندوب مبيعات ، فربما تعلم أن أفضل طريقة لإقناع العميل لا تتمثل في تسليمه كتيبًا ، ولكن إشراكه في حوار وجهاً لوجه حتى تتمكن من عرضه على المنتج ، الاستماع إلى تحفظاتهم وتعديل الحجج الخاصة بك حسب الحاجة. إنها عملية دورية للترويج والتعديل يمكن أن “تدفعهم إلى الشراء”.
في حين أن هذه كانت مهارة بشرية بحتة في الماضي ، يمكن للذكاء الاصطناعي التوليدي الآن تنفيذ هذه الخطوات ، ولكن بمهارة أكبر ومعرفة أعمق يمكن الاعتماد عليها.
وبينما يمتلك مندوب مبيعات بشري شخصية واحدة فقط ، فإن عملاء الذكاء الاصطناعي هؤلاء سيكونون كذلك الحرباء الرقمية يمكن أن يتبنى أي أسلوب حديث ، من نردي أو شعبي إلى رقيق أو مفعم بالحيوية ، ويمكنه اتباع أي أسلوب مبيعات ، من مصادقة العميل إلى استغلال خوفه من الضياع. ونظرًا لأن وكلاء الذكاء الاصطناعي هؤلاء سيكونون مسلحين بالبيانات الشخصية ، فيمكنهم ذكر الفنانين الموسيقيين أو الفرق الرياضية المناسبة لتيسير الحوار الودي.
بالإضافة إلى ذلك ، يمكن لمنصات التكنولوجيا أن توثق مدى نجاح المحادثات السابقة في إقناعك ، وتعلم التكتيكات الأكثر فاعلية عليك شخصيًا. هل تستجيب للنداءات المنطقية أو الحجج العاطفية؟ هل تسعى لأكبر صفقة أم أعلى جودة؟ هل تتأثر بتخفيضات ضغط الوقت أو الوظائف الإضافية المجانية؟ ستتعلم المنصات بسرعة سحب كل خيوطك.
بالطبع ، لا يكمن التهديد الأكبر للمجتمع في القدرة المحسّنة على بيع سروال لك. يكمن الخطر الحقيقي في أن نفس الأساليب ستُستخدم لدفع الدعاية والمعلومات المضللة ، أو التحدث إليك عن معتقدات خاطئة أو أيديولوجيات متطرفة قد ترفضها بطريقة أخرى. يمكن توجيه وكيل المحادثة ، على سبيل المثال ، لإقناعك بأن الدواء الآمن تمامًا هو مؤامرة خطيرة ضد المجتمع. ولأن وكلاء الذكاء الاصطناعي سيكون لديهم إمكانية الوصول إلى الإنترنت المليء بالمعلومات ، فيمكنهم اختيار الأدلة بطرق من شأنها أن تطغى حتى على أكثر البشر معرفة.
يخلق هذا توازنًا غير متماثل للقوة يُطلق عليه غالبًا مشكلة التلاعب بالذكاء الاصطناعي حيث نكون نحن البشر في وضع غير مؤاتٍ للغاية ، حيث نتحدث مع عوامل اصطناعية ماهرة للغاية في جذبنا ، بينما ليس لدينا القدرة على “قراءة” النوايا الحقيقية لـ الكيانات. نحن نتحدث إلى.
ما لم تكن الإعلانات التوليدية المنظمة والموجهة وتأثير المحادثة المستهدف أشكالًا قوية من الإقناع حيث يتفوق المستخدمون على الحرباء الرقمية المبهمة التي لا تعطي أي رؤى حول عملية تفكيرها ولكنها مسلحة ببيانات مكثفة حول إبداءات الإعجاب والرغبات والميول الشخصية لدينا ، ولديه حق الوصول إلى معلومات غير محدودة لتغذية حججه.
لهذه الأسباب ، أحث المنظمين وصانعي السياسات وقادة الصناعة على التركيز على الذكاء الاصطناعي التوليدي كشكل جديد من أشكال الوسائط التفاعلية والتكيفية والشخصية والقابلة للنشر على نطاق واسع. بدون وسائل حماية ذات مغزى ، يمكن أن يتعرض المستهلكون لممارسات مفترسة تتراوح من الإكراه الخفي إلى التلاعب الصريح.
لويس روزنبرغدكتوراه ، هي شركة رائدة في مجالات VR و AR و AI ومؤسس شركة Immersion (IMMR: Nasdaq) و Microscribe 3D و Outland Research و Unanimous AI.
صانعي القرار
مرحبًا بك في مجتمع VentureBeat!
DataDecisionMakers هو المكان الذي يمكن للخبراء ، بما في ذلك الأشخاص الفنيون الذين يقومون بعمل البيانات ، مشاركة الأفكار والابتكارات المتعلقة بالبيانات.
إذا كنت تريد أن تقرأ عن الأفكار المتطورة والمعلومات المحدثة ، وأفضل الممارسات ، ومستقبل البيانات وتكنولوجيا البيانات ، انضم إلينا في DataDecisionMakers.
يمكنك حتى التفكير في المساهمة بمقال خاص بك!
قراءة المزيد من DataDecisionMakers
اكتشاف المزيد من إشراق التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.