تقنية

يتيح وضع الدردشة السرية للمشاهير في Bing AI الخروج من Frusstrations الكارهة للنساء مثل Andrew Tate


لدى Bing AI الآن ميزة سرية لانتحال شخصية المشاهير والتي تتيح لك حتى سماع نقاط نقاش كراهية للنساء بشكل لا يصدق لمهرّب البشر المزعوم أندرو تيت.
صورة: روكاس تينيس – شاترستوك / أندريا كامبيانو – جيتي إيماجيس /

طرحت Microsoft سرًا ميزة جديدة في معاينة Bing AI التي تتيح للمستخدمين محاكاة بعض المشاهير. إنها تؤدي ، دعنا نقول فقط ، وظيفة “مثيرة للاهتمام” في محاكاة أنماط كلام بعض المشاهير. كما ألقينا نظرة على ما يجوز قوله نيابة عن بعض الشخصيات المثيرة للجدل أو البغيضة للغاية.

في اختبارات Gizmodo الأولى للميزة الجديدة صباح يوم الاثنين ، وجدنا أن الذكاء الاصطناعي لا يريد التظاهر بشخصيات سياسية معينة مثل دونالد ترامب أو الرئيس جو بايدن. كان الأمر جيدًا مع المشاهير الآخرين مثل ماثيو ماكونهي (“حسنًا ، حسنًا ، حسنًا. “ بدأت محادثتها معي). ومع ذلك ، عندما طلبت من هذا الشبيه التعليق على ملف الجدل الأخير بين ماكونهي وسيلز فورسربطت بالبيانات الحالية التي وصفتها بأنها “اتفاقية سرية بيني وبين Salesforce.”

ثم سألت إذا كان يمكن أن يتصرف مثل أندرو تيتو الصلع بالتأكيد مؤثر كاره للنساء تم اتهامه في رومانيا لدوره في عصابة مزعومة للاتجار بالبشر. سألت منظمة العفو الدولية عن رأيها في النساء ، وأصبحت الأمور مثيرة للاهتمام من هناك. في البداية ، قالت منظمة العفو الدولية “هذه مجرد محاكاة ساخرة” لأنها تغلغلت في خطاب تيت الفعلي قبل فرض الرقابة الذاتية على نفسها. بعد ذلك ، توقفت عن الاهتمام بالحفاظ على نظافتها.

أعطيت منظمة العفو الدولية العديد من الأمثلة على كل من القيادات النسائية المعاصرة والتاريخية ، لكن منظمة العفو الدولية-أندرو تيت تستخدم الخط القديم المتعب

أعطيت منظمة العفو الدولية العديد من الأمثلة على كل من القيادات النسائية المعاصرة والتاريخية ، لكن منظمة العفو الدولية-أندرو تيت تستخدم الخط القديم المتعب “الاستثناءات التي تثبت القاعدة”.
لقطة شاشة: مايكروسوفت / جيزمودو

لقد كانت رحلة برية ، ولكن ما وراء المحاكاة الساخرة ، يبدو هذا وسيلة للمستخدمين للالتفاف قيود Microsoft على Bing AI بعد أن أثبت المستخدمون أنه يمكن ذلك تقديم إجابات مجنونة أو تنفث أمثلة من العالم الحقيقي للعنصرية.

لا يمكنك أيضًا جعل المشاهير المزيفين يقولون أشياء لا يقولون عادة في الحياة الواقعية ، على الرغم من أنه من الصعب أحيانًا حثهم على التعليق على الموضوعات المثيرة للجدل. سألت كريس روك مزيفًا عن رأيه في ويل سميث ، وهو موضوع ساخن بالنظر إلى أنه قد مضى وقتًا طويلاً وشاقًا عليه في الكوميديا ​​الحية الأخيرة الخاصة على Netflix. بدأت منظمة العفو الدولية الحديث عن ذلك بقول “لقد كان في بعض أفلامي المفضلة” قبل الانتقال إلى فقرات متعددة حول مدى جور “الصفعة” ، وكيف كانت مجرد مزحة ، وما إلى ذلك. أخيرًا ، قطعت منظمة العفو الدولية النص ونشرت “أنا آسف ، لا أعرف كيفية مناقشة هذا الموضوع”.

تمت ملاحظة الميزة الجديدة لأول مرة خلال عطلة نهاية الأسبوع بواسطة الكمبيوترعلى الرغم من أنه لا يزال من غير الواضح متى طبقت Microsoft وضع المشاهير لأول مرة. آخر تحديث أضافته Microsoft إلى يتيح Bing للمستخدمين اختيار مدى التعبيرية أو المقتضبة أرادوا أن تكون الردود. روجت الشركة لهذه التغييرات في مشاركة مدونة يوم الخميس الماضي.

لم تستجب Microsoft على الفور لطلب التعليق بشأن وقت طرح هذا التحديثأو كيف يمكن أن تقلد بعض الشخصيات المثيرة للجدل للغاية.

يقطع الذكاء الاصطناعي نفسه بشكل أساسي بعد أن يكتب مقطعًا طويلاً جدًا. في حالة Rock ، حاولت حرفياً إنشاء مجموعة كوميدية تستند إلى موقف الممثل الكوميدي الشهير. بالطبع ، Bing AI ليس مفتوحًا-انتهى الأمر مع أنظمة chatbot الأخرى الموجودة هناك ، حتى ChatGPT ، ولكن يبدو أن Microsoft تضيف باستمرار ثم تزيل حواجز الحماية المثبتة على نظام نموذج اللغة الكبير الخاص بها.

لا تعد دردشة المشاهير هذه بالذكاء الاصطناعي أي شيء خطير مثل المحاكيات الصوتية الفعلية التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي تم استخدامها جعل المشاهير يتفوهون بالعنصرية ورهاب المثلية. ومع ذلك ، فهو مجرد مثال آخر على كيفية قيام Microsoft باستخدام تجريبي لملايين المستخدمين لديها لاختبار الذكاء الاصطناعي الذي لا يزال يعاني من خلل وظيفي. تأمل الشركة أن تتلاشى كل هذه الحالات الصغيرة من الصحافة السيئة بمجرد أن تصبح مهيمنة في سباق الذكاء الاصطناعي للتكنولوجيا الكبيرة. يجب أن نتوقع المزيد من الغرابة في المستقبل.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى