Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تقنية

مايكروسوفت تلتقط فريق الذكاء الاصطناعي الأخلاقي بالكامل وسط ازدهار الذكاء الاصطناعي


تقوم Microsoft حاليًا بعملية التأليف بالأحذية إنشاء نصوص الذكاء الاصطناعي في كل منتج يمكنه ذلك. وابتداءً من هذا الشهر ، ستستمر الشركة في ثورة الذكاء الاصطناعي الخاصة بها دون وجود فريق مخصص للتأكد داخليًا من أن ميزات الذكاء الاصطناعي تتوافق مع المعايير الأخلاقية لشركة Microsoft ، وفقًا لـ تقرير ليلة الاثنين من منهاج.

ألغت Microsoft فريق الأخلاقيات والمجتمع بأكمله داخل قطاع الذكاء الاصطناعي بالشركة ، كجزء من من المقرر أن تؤثر عمليات التسريح المستمرة على إجمالي 10000 موظف، لكل منهاج. تحتفظ الشركة بمكتبها للذكاء الاصطناعي المسؤول ، والذي ينشئ نطاقًا واسعًا ، مبادئ على مستوى Microsoft لتحكم عملية صنع القرار في الشركات الخاصة بالذكاء الاصطناعي. لكن يُقال إن فريق العمل المعني بالأخلاقيات والمجتمع ، الذي سد الفجوة بين السياسة والمنتجات ، لم يعد موجودًا.

تواصلت Gizmodo مع Microsoft لتأكيد الخبر ، لكنها لم تتلق ردًا على الفور. في بيان لشركة Platformer ، كتبت الشركة:

تلتزم Microsoft بتطوير منتجات وتجارب الذكاء الاصطناعي بشكل آمن ومسؤول … على مدار السنوات الست الماضية ، قمنا بزيادة عدد الأشخاص عبر فرق منتجاتنا داخل مكتب الذكاء الاصطناعي المسؤول ، والذين يتحملون المسؤولية عن ضمان وضع مبادئ الذكاء الاصطناعي موضع التنفيذ … نحن نقدر العمل الرائد الذي قام به فريق الأخلاقيات والمجتمع لمساعدتنا في رحلتنا المستمرة المسؤولة في مجال الذكاء الاصطناعي.

ومع ذلك ، على الرغم من تطمينات Microsoft ، أخبر الموظفون السابقون Platformer أن فريق الأخلاقيات والمجتمع لعب دورًا رئيسيًا في ترجمة الأفكار الكبيرة من مسؤولية المكتب إلى تغييرات قابلة للتنفيذ على مستوى تطوير المنتج.

من المنفذ:

يقول موظف سابق: “كان الناس ينظرون إلى المبادئ الصادرة عن مكتب الذكاء الاصطناعي المسؤول ويقولون ،” لا أعرف كيف ينطبق ذلك “. “كانت مهمتنا أن نظهر لهم وأن نضع قواعد في المناطق التي لم تكن موجودة فيها.”

في وقت القضاء على فريق منظمة الأخلاق والمجتمع منظمة العفو الدولية ، ورد تتكون من سبعة موظفين فقط. ومع ذلك ، كان في السابق أكثر قوة. في ذلكأكبرها ، كانت المجموعة مكونة من 30 عاملاً من مختلف التخصصات (بما في ذلك الفلاسفة). في أكتوبر 2022 ، تم تقليص عدد الفريق إلى سبعة كجزء من إعادة التنظيم. في عملية إعادة التنظيم هذه ، لم يتم تسريح معظم الموظفين ، بل تم نقلهم إلى مكان آخر.

أخبر نائب رئيس الشركة للذكاء الاصطناعي بقية العاملين في مجال الأخلاقيات والمجتمع أن فريقهم لم يكن “يذهب بعيدًا” ، بل “يتطور” ، وفقًا لمنصة. بعد حوالي خمسة أشهر فقط ، رحل الفريق. وبحسب ما ورد تم إخطار الموظفين في اجتماع Zoom في 6 مارس.

إنه خيار مقلق للشركات نظرًا لأن Microsoft (مع جوجل و فقط حول بعضها البعض شركة تكنولوجيا تحت الشمس) تدفع لتوسيع تقنية الذكاء الاصطناعي الخاصة بها بسرعة وإضافتها إليها كل قطاع منتج يمكنه ذلك. في الشهر الماضي ، أعلنت الشركة أنها ستذهب حشر Bing AI في معالجة النصوص ، وربما البريد الإلكتروني في Outlook.

وفي الوقت نفسه ، في إطار الاندفاع لإحضار مُنشئ نص AI المدعوم من ChatGPT إلى سوق البحث ، قامت Microsoft بالفعل ببعض التقلبات المزعجة. كانت العروض التوضيحية الأولى للشركة لبرنامج chatbot الخاص بها مليئة بالأخطاء المالية ونصائح معيبة (جوجل ، أيضا ، مارس الجنس). ثم كان هناك “الشخصية” المقلقة لـ Bing البديل الأناdney ، أن الشركة اضطرت إلى الغاء بعد أن كان يخيف المستخدمين.

صحيح ، بينما كان فريق الأخلاق والمجتمع لا يزال موجودًا ، ربما لم يستمع مديرو Microsoft إلى مخاوفهم كثيرًا على أي حال. بالتأكيد ، فإن تراجعت الشركة في النهاية عن تقنية التعرف على المشاعر التي تعمل بالذكاء الاصطناعي. لكن الموظفين السابقين قالوا لـ Platformer أن Microsoft تجاهلت جزئيًا مذكرة تعبر عن مخاوف بشأن الشركة منشئ صور بنج (غير متوفر بعد في الولايات المتحدة) ، والطرق التي يمكن أن يسرق بها الفنانون ويؤذيهم.

وبحسب ما ورد قدم فريق الأخلاق والمجتمع قائمة بإستراتيجيات التخفيف ، بما في ذلك أن منشئ الصور يمكنه منع المستخدمين من إدخال أسماء الفنانين الأحياء كمطالبات ، أو إنشاء سوق لدعم الفنانين الذين ظهرت أعمالهم في البحث. لم يتم دمج أي من هذه الاقتراحات في أداة الذكاء الاصطناعي ، كما قالت المصادر لـ Platformer. ومع ذلك ، فإن المخاوف التي أبرزتها الأخلاق والمجتمع قد ظهرت لتؤثر بالتأكيد ، مثل دعاوى قضائية أمريكية متعددة ضد الشركات الأخرى التي تروج لتوليد صور الذكاء الاصطناعي ظهرت في الأشهر الأخيرة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى