كيف يمكن للذكاء الاصطناعي أن ينقرض البشرية؟
هذا الأسبوع مجموعة من باحثي الذكاء الاصطناعي المعروفين وذوي السمعة الطيبة وقعت تصريح تتكون من 22 كلمة:
يجب أن يكون التخفيف من خطر الانقراض من الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية.
بصفتي أستاذًا للذكاء الاصطناعي ، فأنا أيضًا أؤيد الحد من أي مخاطر ، ومستعد للعمل عليها شخصيًا. لكن أي بيان يتم التحدث به بهذه الطريقة من شأنه أن يثير القلق ، لذلك ربما يجب أن يكون مؤلفوه أكثر تحديدًا وأن يوضحوا مخاوفهم.
على النحو المحدد في موسوعة بريتانيكا ، الانقراضموت أو إبادة الأنواع“. لقد قابلت العديد من الموقعين على البيان ، وهم من بين العلماء الأكثر شهرة وثقة في هذا المجال – وهم بالتأكيد يقصدون حسنًا. ومع ذلك ، لم يقدموا لنا أي سيناريو ملموس لكيفية حدوث مثل هذا الحدث المتطرف.
ليست هذه هي المرة الأولى التي نشغل فيها هذا المنصب. في 22 مارس من هذا العام ، تم التوقيع على عريضة من قبل مجموعة مختلفة من رواد الأعمال والباحثين طلب وقفة في نشر الذكاء الاصطناعي لمدة ستة أشهر. في الالتماس ، على الموقع الإلكتروني لمعهد Future of Life ، حددوا منطقهم: “المخاطر العميقة على المجتمع والإنسانية ، كما يتضح من الأبحاث المكثفة والتي أقرتها أفضل مختبرات الذكاء الاصطناعي” – ورافقوا طلبهم بقائمة من أسئلة بلاغية:
هل يجب أن ندع الآلات تغمر قنواتنا الإعلامية بالدعاية والكذب؟ هل يجب أن نخرج جميع الوظائف آليًا ، بما في ذلك الوظائف التي تفي بالغرض؟ هل يجب أن نطور عقولًا غير بشرية قد تفوق في النهاية عددًا وتتفوق على الذكاء وتتقادم وتستبدلنا؟ هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟
شعور عام بالإنذار
من المؤكد أنه ، إلى جانب العديد من الفوائد ، تأتي هذه التكنولوجيا مع مخاطر علينا التعامل معها بجدية. لكن لا يبدو أن أيًا من السيناريوهات المذكورة أعلاه يحدد مسارًا محددًا للانقراض. هذا يعني أننا تركنا إحساسًا عامًا بالإنذار ، دون أي إجراءات محتملة يمكننا اتخاذها.
موقع الويب الخاص بـ مركز أمان الذكاء الاصطناعيحيث ظهر البيان الأخير ، الخطوط العريضة في قسم منفصل ثماني فئات مخاطر واسعة. وتشمل هذه “تسليح” الذكاء الاصطناعي ، واستخدامه للتلاعب بالنظام الإخباري ، وإمكانية أن يصبح البشر في نهاية المطاف غير قادرين على الحكم الذاتي ، وتسهيل الأنظمة القمعية ، وما إلى ذلك.
باستثناء التسليح ، من غير الواضح كيف يمكن أن تؤدي المخاطر الأخرى التي لا تزال فظيعة إلى انقراض جنسنا البشري ، ويقع عبء توضيح ذلك على عاتق أولئك الذين يدعون ذلك.
التسلح هو مصدر قلق حقيقي ، بالطبع ، ولكن يجب توضيح المقصود من هذا أيضًا. يبدو أن مصدر القلق الرئيسي لمركز أمان الذكاء الاصطناعي على موقعه الإلكتروني هو استخدام أنظمة الذكاء الاصطناعي لتصميم أسلحة كيميائية. يجب منع هذا بأي ثمن – لكن الأسلحة الكيميائية محظورة بالفعل. الانقراض هو حدث محدد للغاية يتطلب تفسيرات محددة للغاية.
16 أيار (مايو) في جلسة الاستماع في مجلس الشيوخ الأمريكي، سام التمان ، الرئيس التنفيذي لشركة OpenAI – التي طورت روبوت الدردشة ChatGPT AI – طُلب منه مرتين توضيح أسوأ سيناريو له. فأجاب أخيرا:
أسوأ مخاوفي أننا – المجال ، التكنولوجيا ، الصناعة – نتسبب في ضرر كبير للعالم … لهذا السبب بدأنا الشركة [to avert that future] … أعتقد أنه إذا حدث خطأ في هذه التكنولوجيا ، فقد تسوء تمامًا.
لكن بينما أؤيد بشدة توخي الحذر قدر الإمكان ، وكنت أقول ذلك علنًا على مدار السنوات العشر الماضية ، من المهم الحفاظ على الإحساس بالتناسب – خاصة عند مناقشة انقراض نوع من ثمانية مليارات. . فرادى.
يمكن للذكاء الاصطناعي أن يخلق مشاكل اجتماعية يجب تجنبها حقًا. كعلماء ، علينا واجب فهمها ثم بذل قصارى جهدنا لحلها. لكن الخطوة الأولى هي تسميتها ووصفها – وأن تكون محددًا.
هل تريد معرفة المزيد عن الذكاء الاصطناعي وروبوتات المحادثة ومستقبل التعلم الآلي؟ تحقق من تغطيتنا الكاملة لـ الذكاء الاصطناعيأو تصفح أدلةنا إلى أفضل مولدات فنية مجانية لمنظمة العفو الدولية و كل ما نعرفه عن ChatGPT الخاص بـ OpenAI.
نيلو كريستيانينيأستاذ الذكاء الاصطناعي ، جامعة باث
تم إعادة نشر هذه المقالة من محادثة تحت رخصة المشاع الإبداعي. إقرأ ال المقالة الأصلية.