هل تثق في الذكاء الاصطناعي الخاص بـ ChatGPT في وظيفتك؟
أدوات الذكاء الاصطناعي (AI) يتزايد استخدامها في العمل لتعزيز الإنتاجية وتحسين عملية صنع القرار وخفض التكاليف ، بما في ذلك أتمتة المهام الإدارية ومراقبة الأمن.
لكن مشاركة مكان عملك مع الذكاء الاصطناعي يطرح تحديات فريدة ، بما في ذلك السؤال – هل يمكننا الوثوق بالتكنولوجيا؟
جديدنا دراسة 17 دولة يكشف إشراك أكثر من 17000 شخص عن مدى وطرق ثقتنا في الذكاء الاصطناعي في مكان العمل ، وكيف ننظر إلى المخاطر والفوائد ، وما هو متوقع من الذكاء الاصطناعي ليتم الوثوق به.
نجد أن موظفًا واحدًا فقط من كل اثنين على استعداد للثقة في الذكاء الاصطناعي في العمل. يعتمد موقفهم على دورهم ، والبلد الذي يعيشون فيه ، ولأي غرض يتم استخدام الذكاء الاصطناعي. ومع ذلك ، فإن الناس في جميع أنحاء العالم متفقون تقريبًا على توقعاتهم بشأن ما يجب أن يكون متاحًا للثقة في الذكاء الاصطناعي.
قد تحصل G / O Media على عمولة
استطلاعنا العالمي حول الذكاء الاصطناعي
يعمل الذكاء الاصطناعي على إعادة تشكيل طريقة إنجاز العمل وتقديم الخدمات بسرعة تستثمر جميع قطاعات الاقتصاد العالمي في أدوات الذكاء الاصطناعي. يمكن لهذه الأدوات أتمتة الأنشطة التسويقية ، أو مساعدة الموظفين في الاستفسارات المختلفة ، أو حتى مراقبة الموظفين.
لفهم ثقة الناس ومواقفهم تجاه الذكاء الاصطناعي في مكان العمل ، قمنا بمسح أكثر من 17000 شخص من 17 دولة: أستراليا ، البرازيل ، كندا ، الصين ، إستونيا ، فنلندا ، فرنسا ، ألمانيا ، الهند ، إسرائيل ، اليابان ، هولندا ، سنغافورة ، جنوب إفريقيا ، جنوب كوريا والمملكة المتحدة والولايات المتحدة. تم جمع هذه البيانات ، التي تُستخدم على المستوى الوطني كعينات تمثيلية ، قبل إصدار ChatGPT مباشرة.
البلدان التي قمنا باستطلاعها هي رائدة في نشاط الذكاء الاصطناعي داخل مناطقها ، كما يتضح من استثمارها في الذكاء الاصطناعي والتوظيف الخاص بالذكاء الاصطناعي.
هل يثق الموظفون في الذكاء الاصطناعي في العمل؟
وجدنا ما يقرب من نصف جميع الموظفين (48٪) قلقون بشأن الوثوق بالذكاء الاصطناعي في العمل – على سبيل المثال من خلال الاعتماد على قرارات وتوصيات الذكاء الاصطناعي ، أو مشاركة المعلومات باستخدام أدوات الذكاء الاصطناعي حتى يتمكنوا من العمل.
لدى الناس ثقة أكبر في قدرة أنظمة الذكاء الاصطناعي على إنتاج مخرجات موثوقة وتقديم خدمات مفيدة ، مقارنة بسلامة هذه الأنظمة وأمنها وعدالتها ، ومدى دعمها لحقوق الخصوصية.
ومع ذلك ، فإن الثقة سياقية وتعتمد على الغرض من الذكاء الاصطناعي. كما هو موضح في الشكل أدناه ، يشعر معظم الأشخاص بالراحة عند استخدام الذكاء الاصطناعي في العمل لزيادة المهام وأتمتةها ومساعدة الموظفين ، لكنهم يشعرون براحة أقل عند استخدام الذكاء الاصطناعي في الموارد البشرية أو إدارة الأداء أو أغراض المراقبة.
الذكاء الاصطناعي كأداة لصنع القرار
يرى معظم الموظفين استخدام الذكاء الاصطناعي في اتخاذ القرارات الإدارية على أنه مقبول ، ويفضلون في الواقع مشاركة الذكاء الاصطناعي على صنع القرار البشري الوحيد. ومع ذلك ، فإن الخيار المفضل هو جعل البشر يحتفظون بقدر أكبر من التحكم مقارنة بنظام الذكاء الاصطناعي ، أو على الأقل نفس المقدار.
كيف يمكن أن يبدو هذا؟ أظهر الأشخاص دعمًا أكبر لـ 75٪ من البشر مقابل 25٪ للتعاون في صنع القرار بالذكاء الاصطناعي ، أو تقسيم 50٪ -50٪. يشير هذا إلى تفضيل واضح للمديرين لاستخدام الذكاء الاصطناعي كأداة مساعدة في اتخاذ القرار ، ونقص الدعم لعملية صنع القرار الآلي بالكامل في العمل بالذكاء الاصطناعي. يمكن أن تشمل هذه القرارات من يتم تعيينه ومن يجب ترقيته ، أو طريقة تخصيص الموارد.
بينما يعتقد ما يقرب من نصف الأشخاص الذين شملهم الاستطلاع أن الذكاء الاصطناعي سيعزز كفاءتهم واستقلاليتهم في العمل ، يعتقد أقل من واحد من كل ثلاثة (29٪) أن الذكاء الاصطناعي سيخلق وظائف أكثر مما سيقضي عليه.
يعكس هذا خوفًا بارزًا: أفاد 77٪ من الأشخاص بأنهم قلقون بشأن فقدان الوظائف ، و 73٪ قالوا إنهم قلقون بشأن فقدان مهارات مهمة بسبب الذكاء الاصطناعي.
ومع ذلك ، من المرجح أن يعتقد المدراء أن الذكاء الاصطناعي سيخلق الوظائف وأنهم أقل قلقًا بشأن مخاطره من المهن الأخرى. يعكس هذا اتجاهاً أوسع يتمثل في أن يكون المدراء أكثر راحة وثقة وداعمة لاستخدام الذكاء الاصطناعي في العمل مقارنة بمجموعات الموظفين الأخرى.
نظرًا لأن المديرين هم عادةً محركات تبني الذكاء الاصطناعي في العمل ، فإن هذه الآراء المختلفة قد تسبب توترات في المنظمات التي تطبق أدوات الذكاء الاصطناعي.
ثق في الذكاء الاصطناعي هو مصدر قلق خطير
الأجيال الشابة وتلك التي حصلت على تعليم جامعي هي أيضًا أكثر ثقة وراحة مع الذكاء الاصطناعي ، وأكثر احتمالًا لاستخدامه في عملهم. بمرور الوقت ، قد يؤدي ذلك إلى تصعيد الانقسامات في التوظيف.
وجدنا اختلافات مهمة بين البلدان في النتائج التي توصلنا إليها. على سبيل المثال ، يعتبر الأشخاص في الدول الغربية من بين أقل الأشخاص جدارة بالثقة في استخدام الذكاء الاصطناعي في العمل ، بينما الأشخاص في الاقتصادات الناشئة (الصين والهند والبرازيل وجنوب إفريقيا) أكثر موثوقية وراحة.
يعكس هذا الاختلاف جزئيًا حقيقة أن أقلية من الناس في الدول الغربية تعتقد أن فوائد الذكاء الاصطناعي تفوق المخاطر ، على عكس الغالبية العظمى من الناس في الاقتصادات الناشئة.
كيف نجعل الذكاء الاصطناعي جديرًا بالثقة؟
والخبر السار هو أن النتائج التي توصلنا إليها تظهر أن الناس متحدون بشأن المبادئ والممارسات التي يتوقعونها بالترتيب أن تثق في الذكاء الاصطناعي. في المتوسط ، ذكر 97٪ من الأشخاص أن كلًا من هؤلاء مهم لثقتهم في الذكاء الاصطناعي.
يقول الناس إنهم سيثقون أكثر في الذكاء الاصطناعي عندما تكون أدوات الرقابة في مكانها الصحيح ، مثل مراقبة الذكاء الاصطناعي للتأكد من دقته وموثوقيته ، و “قواعد السلوك” للذكاء الاصطناعي ، ولوحات المراجعة الأخلاقية المستقلة للذكاء الاصطناعي ، والالتزام بمعايير الذكاء الاصطناعي الدولية.
يوفر هذا التأييد القوي لمبادئ وممارسات الذكاء الاصطناعي الجديرة بالثقة في جميع البلدان مخططًا لكيفية تصميم المؤسسات للذكاء الاصطناعي واستخدامه وحكمه بطريقة تضمن الثقة.
نيكول جيليسبي، أستاذ إدارة؛ رئيس KPMG في الثقة التنظيمية ، جامعة كوينزلاند؛ كايتلين كورتيسمتابعة البحث، جامعة كوينزلاند؛ جواد بأولباحث مشارك ، جامعة كوينزلاندو ستيفن إلحسنازميل أبحاث ما بعد الدكتوراه، جامعة كوينزلاند
تم إعادة نشر هذه المقالة من المحادثة بموجب رخصة المشاع الإبداعي. إقرأ ال المقالة الأصلية.
اكتشاف المزيد من إشراق التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.