Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار التقنية

كيف يعيد الذكاء الاصطناعي تشكيل قواعد العمل


انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو وتعرف على كيفية استباق قادة الأعمال لثورة الذكاء الاصطناعي التوليدية.. يتعلم أكثر


خلال الأسابيع القليلة الماضية ، كان هناك عدد من التطورات المهمة في المناقشة العالمية حول مخاطر الذكاء الاصطناعي والتنظيم. كان الموضوع الناشئ ، من جلسات الاستماع الأمريكية حول OpenAI مع Sam Altman وإعلان الاتحاد الأوروبي لقانون الذكاء الاصطناعي المعدل ، دعوة لمزيد من التنظيم.

لكن ما كان مفاجئًا للبعض هو الإجماع بين الحكومات والباحثين ومطوري الذكاء الاصطناعي على هذه الحاجة إلى التنظيم. في الشهادة أمام الكونجرس ، اقترح سام التمان ، الرئيس التنفيذي لشركة OpenAI ، إنشاء هيئة حكومية جديدة تصدر تراخيص لتطوير نماذج ذكاء اصطناعي واسعة النطاق.

وقدم العديد من الاقتراحات حول كيفية قيام مثل هذه الهيئة بتنظيم الصناعة ، بما في ذلك “مجموعة من متطلبات الترخيص والاختبار” ، وقال إن شركات مثل OpenAI يجب أن تخضع للتدقيق بشكل مستقل.

ومع ذلك ، في حين أن هناك اتفاقًا متزايدًا حول المخاطر ، بما في ذلك التأثيرات المحتملة على وظائف الناس وخصوصيتهم ، لا يزال هناك إجماع ضئيل حول الشكل الذي يجب أن تبدو عليه مثل هذه اللوائح أو ما يجب أن تركز عليه عمليات التدقيق المحتملة. في القمة الأولى للذكاء الاصطناعي العام التي عقدها المنتدى الاقتصادي العالمي ، حيث اجتمع قادة الذكاء الاصطناعي من الشركات والحكومات والمؤسسات البحثية لدفع التوافق حول كيفية التعامل مع هذه الاعتبارات الأخلاقية والتنظيمية الجديدة ، ظهر موضوعان رئيسيان:

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

الحاجة إلى تدقيق مسؤول وخاضع للمساءلة في مجال الذكاء الاصطناعي

أولاً ، نحتاج إلى تحديث متطلباتنا للشركات التي تقوم بتطوير ونشر نماذج الذكاء الاصطناعي. هذا مهم بشكل خاص عندما نتساءل عما يعنيه “الابتكار المسؤول” حقًا. تقود المملكة المتحدة هذه المناقشة ، حيث قدمت حكومتها مؤخرًا إرشادات للذكاء الاصطناعي من خلال خمسة مبادئ أساسية ، بما في ذلك السلامة والشفافية والإنصاف. كان هناك أيضًا بحث حديث من جامعة أكسفورد يسلط الضوء على أن “LLMs مثل ChatGPT تخلق حاجة ملحة لتحديث مفهوم المسؤولية لدينا.”

الدافع الأساسي وراء هذا الضغط من أجل مسؤوليات جديدة هو الصعوبة المتزايدة في فهم ومراجعة الجيل الجديد من نماذج الذكاء الاصطناعي. للنظر في هذا التطور ، يمكننا اعتبار الذكاء الاصطناعي “التقليدي” مقابل الذكاء الاصطناعي. LLM AI ، أو نموذج اللغة الكبيرة AI ، في مثال التوصية بالمرشحين لوظيفة.

إذا تم تدريب الذكاء الاصطناعي التقليدي على البيانات التي تحدد الموظفين من جنس أو جنس معين في وظائف أعلى مستوى ، فقد يؤدي ذلك إلى تحيز من خلال التوصية بأشخاص من نفس العرق أو الجنس للوظائف. لحسن الحظ ، هذا شيء يمكن اكتشافه أو تدقيقه من خلال فحص البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي هذه ، بالإضافة إلى توصيات الإخراج.

مع الذكاء الاصطناعي الجديد الذي يعمل بنظام LLM ، أصبح هذا النوع من تدقيق التحيز صعبًا بشكل متزايد ، إن لم يكن مستحيلًا في بعض الأحيان ، لاختبار التحيز والجودة. نحن لا نعرف فقط ما هي البيانات التي تم تدريب LLM “المغلقة” عليها ، ولكن قد تؤدي توصية المحادثة إلى التحيزات أو “الهلوسة” التي تكون أكثر ذاتية.

على سبيل المثال ، إذا طلبت من ChatGPT تلخيص خطاب لمرشح رئاسي ، فمن الذي سيحكم على ما إذا كان ملخصًا متحيزًا؟

وبالتالي ، من المهم أكثر من أي وقت مضى بالنسبة للمنتجات التي تتضمن توصيات الذكاء الاصطناعي النظر في المسؤوليات الجديدة ، مثل مدى إمكانية تتبع التوصيات ، للتأكد من أن النماذج المستخدمة في التوصيات يمكن ، في الواقع ، أن تخضع للتدقيق المتحيز بدلاً من استخدام LLM فقط.

هذه هي حدود ما يُعتبر توصية أو قرارًا أساسيًا للوائح الذكاء الاصطناعي الجديدة في الموارد البشرية. على سبيل المثال ، يدفع قانون NYC AEDT الجديد لإجراء عمليات تدقيق التحيز للتقنيات التي تتضمن على وجه التحديد قرارات التوظيف ، مثل تلك التي يمكن أن تقرر تلقائيًا من يتم تعيينه.

ومع ذلك ، فإن المشهد التنظيمي يتطور بسرعة بما يتجاوز مجرد كيفية اتخاذ الذكاء الاصطناعي للقرارات وكيفية بناء واستخدام الذكاء الاصطناعي.

الشفافية حول نقل معايير الذكاء الاصطناعي إلى المستهلكين

يقودنا هذا إلى الموضوع الرئيسي الثاني: الحاجة إلى أن تحدد الحكومات معايير أوضح وأوسع لكيفية بناء تقنيات الذكاء الاصطناعي وكيف يتم توضيح هذه المعايير للمستهلكين والموظفين.

في جلسة استماع OpenAI الأخيرة ، أبرزت كريستينا مونتغمري ، كبيرة مسؤولي الخصوصية والثقة في شركة IBM ، أننا بحاجة إلى معايير لضمان توعية المستهلكين في كل مرة يتعاملون فيها مع برنامج chatbot. يعد هذا النوع من الشفافية حول كيفية تطوير الذكاء الاصطناعي ومخاطر الجهات الفاعلة السيئة باستخدام نماذج مفتوحة المصدر أمرًا أساسيًا لاعتبارات قانون الاتحاد الأوروبي للذكاء الاصطناعي الأخير لحظر واجهات برمجة تطبيقات LLM ونماذج مفتوحة المصدر.

سوف تتطلب مسألة كيفية التحكم في انتشار النماذج والتقنيات الجديدة مزيدًا من النقاش قبل أن تصبح المقايضات بين المخاطر والفوائد أكثر وضوحًا. لكن ما أصبح واضحًا بشكل متزايد هو أنه مع تسارع تأثير الذكاء الاصطناعي ، تزداد الحاجة الملحة لوضع المعايير واللوائح ، فضلاً عن الوعي بكل من المخاطر والفرص.

تداعيات تنظيم الذكاء الاصطناعي على فرق الموارد البشرية وقادة الأعمال

ربما تشعر فرق الموارد البشرية بتأثير الذكاء الاصطناعي بسرعة أكبر ، حيث يُطلب منهم مواجهة ضغوط جديدة لتزويد الموظفين بفرص لتحسين المهارات وتزويد فرقهم التنفيذية بالتنبؤات المعدلة وخطط القوى العاملة حول المهارات الجديدة التي ستكون مطلوبة . لتكييف استراتيجية أعمالهم.

في القمتين الأخيرتين للمنتدى الاقتصادي العالمي حول الذكاء الاصطناعي التوليدي ومستقبل العمل ، تحدثت مع قادة في مجال الذكاء الاصطناعي والموارد البشرية ، وكذلك صانعي السياسات والأكاديميين ، حول إجماع ناشئ: أن جميع الشركات بحاجة إلى الضغط من أجل تبني الذكاء الاصطناعي المسؤول والوعي. نشر المنتدى الاقتصادي العالمي للتو “تقرير مستقبل الوظائف” ، والذي يسلط الضوء على أنه خلال السنوات الخمس المقبلة ، من المتوقع أن تتغير 23٪ من الوظائف ، حيث تم إنشاء 69 مليونًا ولكن تم إلغاء 83 مليونًا. وهذا يعني أن 14 مليون وظيفة على الأقل معرضة للخطر.

يسلط التقرير الضوء أيضًا على أن ستة من كل 10 عمال لن يحتاجوا فقط إلى تغيير مجموعة مهاراتهم لأداء عملهم – سيحتاجون إلى تحسين المهارات وإعادة تأهيلها – قبل عام 2027 ، ولكن يُنظر إلى نصف الموظفين فقط لديهم إمكانية الوصول إلى فرص التدريب المناسبة اليوم.

إذن ، كيف يجب أن تحافظ الفرق على مشاركة الموظفين في عملية التحول السريع للذكاء الاصطناعي؟ من خلال قيادة التحول الداخلي الذي يركز على موظفيهم والتفكير بعناية في كيفية إنشاء مجموعة متوافقة ومتصلة من الأشخاص والخبرات التكنولوجية التي تمكنهم من الشفافية بشكل أفضل في حياتهم المهنية والأدوات اللازمة لتطوير الموظفين بأنفسهم.

تساعد الموجة الجديدة من اللوائح التنظيمية في تسليط ضوء جديد على كيفية النظر في التحيز في القرارات المتعلقة بالأشخاص ، كما هو الحال في المواهب – ومع ذلك ، نظرًا لأن هذه التقنيات يتم تبنيها من قبل الأشخاص داخل وخارج العمل ، فإن المسؤولية أكبر من أي وقت مضى . لقادة الأعمال والموارد البشرية لفهم كل من التكنولوجيا والمشهد التنظيمي والاعتماد على قيادة استراتيجية ذكاء اصطناعي مسؤولة في فرقهم وأعمالهم.

سلطان سعيدوف هو رئيس وأحد مؤسسي بيمري.

صانعي القرار

مرحبًا بك في مجتمع VentureBeat!

DataDecisionMakers هو المكان الذي يمكن للخبراء ، بما في ذلك الأشخاص الفنيون الذين يقومون بعمل البيانات ، مشاركة الأفكار والابتكارات المتعلقة بالبيانات.

إذا كنت تريد أن تقرأ عن الأفكار المتطورة والمعلومات المحدثة ، وأفضل الممارسات ، ومستقبل البيانات وتكنولوجيا البيانات ، انضم إلينا في DataDecisionMakers.

يمكنك حتى التفكير في المساهمة بمقال خاص بك!

قراءة المزيد من DataDecisionMakers

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى