تعامل مع ChatGPT و AI مثل الأسلحة البيولوجية وليس القنابل النووية
يطور البشر اليوم ربما أقوى تقنية في تاريخنا: الذكاء الاصطناعي. إن الأضرار الاجتماعية للذكاء الاصطناعي – بما في ذلك التمييز والتهديدات للديمقراطية وتركيز النفوذ – موثقة جيدًا بالفعل. ومع ذلك ، فإن شركات الذكاء الاصطناعي الرائدة في سباق تسلح لبناء أنظمة ذكاء اصطناعي قوية بشكل متزايد من شأنها تصعيد هذه المخاطر بوتيرة لم نشهدها في تاريخ البشرية.
بينما يتصارع قادتنا حول كيفية احتواء ومراقبة تطوير الذكاء الاصطناعي والمخاطر المرتبطة به ، يجب عليهم التفكير في كيفية سماح اللوائح والمعايير للبشرية بالاستفادة من الابتكارات في الماضي. يمكن للتنظيم والابتكار أن يتعايشا ، وخاصة عندما تكون حياة البشر على المحك ، فمن الضروري أن يتعايشوا.
توفر التكنولوجيا النووية حكاية تحذيرية. على الرغم من أن الطاقة النووية أكثر أمانًا من النفط بـ 600 مرة من حيث الوفيات البشرية وقادرة على تحقيق إنتاج هائل ، فإن القليل من الدول سوف تلمسه لأن الجمهور التقى بالعضو الخطأ من الأسرة أولاً.
لقد تعرفنا على التكنولوجيا النووية على شكل قنابل ذرية وهيدروجينية. هذه الأسلحة ، التي تمثل المرة الأولى في تاريخ البشرية التي طور فيها الإنسان تقنية قادرة على إنهاء الحضارة الإنسانية ، كانت نتاج سباق تسلح يعطي الأولوية للسرعة والابتكار على السلامة والتحكم. أدت الإخفاقات اللاحقة في هندسة السلامة الكافية وإدارة المخاطر – والتي اشتهرت إلى وقوع الكوارث النووية في تشيرنوبيل وفوكوشيما – إلى تدمير أي فرصة لقبول واسع النطاق للطاقة النووية.
على الرغم من التقييم العام لمخاطر الطاقة النووية الذي ما زال مواتياً للغاية ، وعقود من الجهود لإقناع العالم بقابليتها للحياة ، فإن كلمة “نووية” تظل ملوثة. عندما تسبب التكنولوجيا ضررًا في مراحلها الوليدة ، يمكن أن يؤدي الإدراك المجتمعي والمبالغة في رد الفعل التنظيمي إلى تقليص الفائدة المحتملة لهذه التكنولوجيا بشكل دائم. نظرًا لعدد قليل من الخطوات الخاطئة المبكرة في مجال الطاقة النووية ، لم نتمكن من الاستفادة من قوتها النظيفة والآمنة وحياد الكربون واستقرار الطاقة الذي ما زال حلمًا بعيد المنال.
لكن في بعض الصناعات ، نجحنا في فهمها. التكنولوجيا الحيوية هي مجال محفز للتحرك بسرعة: يعاني المرضى ويموتون كل يوم من أمراض تفتقر إلى العلاج أو العلاج. ومع ذلك ، فإن روح هذا البحث ليست “التحرك بسرعة وكسر الأشياء” ، بل الابتكار بأسرع ما يمكن وبأمان. يتم تحديد سرعة الابتكار في هذا المجال من خلال نظام المحظورات واللوائح والأخلاق والمعايير التي تضمن رفاهية المجتمع والأفراد. كما أنه يحمي الصناعة من التعرض للشلل بسبب رد الفعل العنيف إلى وقوع كارثة.
من خلال حظر الأسلحة البيولوجية في اتفاقية الأسلحة البيولوجية خلال الحرب الباردة ، تمكنت القوى العظمى المتصارعة من الالتقاء والاتفاق على أن إنشاء هذه الأسلحة لم يكن في مصلحة أحد. رأى القادة أن هذه التقنيات التي لا يمكن السيطرة عليها ، ولكن يمكن الوصول إليها بشكل كبير ، لا ينبغي التعامل معها كآلية للفوز بسباق تسلح ، ولكن كتهديد للإنسانية نفسها.
سمح هذا التوقف عن سباق التسلح للأسلحة البيولوجية بتطوير الأبحاث بوتيرة مسؤولة ، وتمكن العلماء والمنظمون من تنفيذ معايير صارمة لأي ابتكار جديد قادر على إحداث ضرر بشري. لم تأت هذه اللوائح على حساب الابتكار. على العكس من ذلك ، أنشأ المجتمع العلمي اقتصادًا حيويًا ، مع تطبيقات تتراوح من الطاقة النظيفة إلى الزراعة. خلال جائحة COVID-19 ، ترجم علماء الأحياء نوعًا جديدًا من التكنولوجيا ، mRNA ، إلى لقاح آمن وفعال بوتيرة غير مسبوقة في تاريخ البشرية. عندما تكون هناك أضرار كبيرة للأفراد والمجتمع على المحك ، فإن التنظيم لا يعيق التقدم ؛ أنها تمكنها.
كشفت دراسة استقصائية حديثة لباحثي الذكاء الاصطناعي عن ذلك يشعر 36 في المائة أن الذكاء الاصطناعي يمكن أن يتسبب في كارثة على المستوى النووي. على الرغم من ذلك ، فإن استجابة الحكومة والتحرك نحو التنظيم كان بطيئًا في أحسن الأحوال. لا تتناسب هذه الوتيرة مع الزيادة الكبيرة في اعتماد التكنولوجيا ، حيث تجاوز ChatGPT الآن 100 مليون مستخدم.
أدى هذا المشهد من مخاطر الذكاء الاصطناعي المتصاعدة بسرعة قام 1800 رئيس تنفيذي و 1500 أستاذ بالتوقيع مؤخرًا على خطاب يدعو إلى التوقف لمدة ستة أشهر تطوير ذكاء اصطناعي أكثر قوة والبدء بشكل عاجل في عملية التنظيم وتخفيف المخاطر. من شأن هذا التوقف المؤقت أن يمنح المجتمع العالمي الوقت لتقليل الأضرار التي تسببها بالفعل الذكاء الاصطناعي وتجنب الآثار الكارثية المحتملة التي لا رجعة فيها على مجتمعنا.
بينما نعمل على تقييم المخاطر للأضرار المحتملة للذكاء الاصطناعي ، يجب تضمين فقدان الإمكانات الإيجابية في حساب التفاضل والتكامل. إذا اتخذنا خطوات الآن لتطوير الذكاء الاصطناعي بشكل مسؤول ، فيمكننا تحقيق فوائد لا تصدق من التكنولوجيا.
على سبيل المثال ، لقد رأينا بالفعل لمحات من الذكاء الاصطناعي يحول اكتشاف الأدوية وتطويرها ، وتحسين جودة وتكلفة الرعاية الصحية ، وزيادة الوصول إلى الأطباء والعلاج الطبي. أظهر برنامج DeepMind من Google أن الذكاء الاصطناعي قادر على حل المشكلات الأساسية في علم الأحياء التي طالما تهربت من عقول البشر. و أظهرت الأبحاث أن الذكاء الاصطناعي يمكنه تسريع تحقيق كل هدف من أهداف التنمية المستدامة للأمم المتحدةدفع البشرية نحو مستقبل أفضل من الصحة والإنصاف والازدهار والسلام.
هذه لحظة لكي يجتمع المجتمع العالمي – مثلما فعلنا قبل خمسين عامًا في اتفاقية الأسلحة البيولوجية – لضمان تطوير آمن ومسؤول للذكاء الاصطناعي. إذا لم نتحرك قريبًا ، فقد نحكم على مستقبل مشرق مع الذكاء الاصطناعي ومجتمعنا الحالي معه.
هل تريد معرفة المزيد عن الذكاء الاصطناعي وروبوتات المحادثة ومستقبل التعلم الآلي؟ تحقق من تغطيتنا الكاملة لـ الذكاء الاصطناعيأو تصفح أدلةنا إلى أفضل مولدات فنية مجانية لمنظمة العفو الدولية و كل ما نعرفه عن ChatGPT الخاص بـ OpenAI.
إميليا جافورسكي ، طبيبة وعالمة ومديرة تفاعلات أصحاب المصلحة المتعددين في معهد Future of Life ، الذي نشر رسائل مفتوحة مؤخرًا محذرا من أن الذكاء الاصطناعي يشكل “خطر الانقراض” على البشرية والدعوة ل توقف مؤقت لمدة ستة أشهر عن تطوير الذكاء الاصطناعي.