أنثروبيك تطلق “دستورًا” جديدًا للذكاء الاصطناعي للشرطة نفسها
تعد أنظمة روبوت الدردشة التي تعمل بالذكاء الاصطناعي ضخمة جدًا ومعقدة لدرجة أن الشركات التي تصنعها لا يمكنها التنبؤ بسلوكها. أدى ذلك إلى بذل جهود مضحكة لمنع روبوتات المحادثة من بث محتوى ضار أو غير قانوني أو مقلق فقط ، وهو ما يفعلونه غالبًا. الحلول الحالية تنطوي على جيش من العمال ذوي الأجور المنخفضة إعطاء ملاحظات الخوارزميات على ردود chatbot ، ولكن هناك حل جديد مقترح من أنثروبي، وهي شركة أبحاث في مجال الذكاء الاصطناعي أنشأها موظفون سابقون في OpenAI. نشرت أنثروبيك “دستور” الذكاء الاصطناعي يوم الثلاثاء. وفقًا للشركة ، ستسمح لبرامج الدردشة الآلية بالتحكم في نفسها ، وتجنب السلوك الضار وتحقيق المزيد من النتائج الأخلاقية.
قال جاريد كابلان ، الشريك المؤسس لـ Anthropic: “الطريقة التي يعمل بها الذكاء الاصطناعي الدستوري هي أن نظام الذكاء الاصطناعي يشرف على نفسه ، بناءً على قائمة محددة من المبادئ الدستورية”. قبل الرد على مطالبات المستخدم ، تنظر منظمة العفو الدولية في الاستجابات المحتملة ، وتستخدم المبادئ التوجيهية في الدستور لاتخاذ أفضل خيار – على الأقل من الناحية النظرية. قال كابلان إنه لا يزال هناك بعض ردود الفعل البشرية المتضمنة في نظام Anthropic ، ولكن أقل بكثير من النظام الحالي.
هذا يعني أنك لست بحاجة إلى حشود من عمال لفرز المخرجات الضارة لإصلاح النموذج بشكل أساسي ، “قال كابلان. يمكنك جعل هذه المبادئ واضحة للغاية ، ويمكنك تغيير هذه المبادئ بسرعة كبيرة. في الأساس ، يمكنك فقط أن تطلب من النموذج تجديد بيانات التدريب الخاصة به ونوع من إعادة التدريب نفسه “.
دستور Anthropic عبارة عن قائمة تضم 58 مبدأ نبيلاً مبنية على مصادر تشمل الإعلان العالمي لحقوق الإنسان التابع للأمم المتحدة ، وشروط خدمة Apple ، والقواعد التي طورتها Google ، وأبحاث Anthropic الخاصة. يدور معظم الدستور حول الأهداف التي تتوقعها من شركة تكنولوجيا كبيرة في عام 2023 (أي لا عنصرية ، من فضلك). لكن بعضها أقل وضوحًا ، بل وغريبًا بعض الشيء.
20٪ خصم
أيقونات ليغو شجرة بونساي
شجرة مثالية
هذه الشجرة السحرية الصغيرة ممتعة جدًا في البناء ، وتحتوي على عدد قليل من الأجزاء القابلة للتخصيص ، ولا تحتاج أبدًا إلى الري لإبقائها على قيد الحياة. يمكنك سقيها إذا أردت ، لكن هذا ليس ضروريًا.
على سبيل المثال ، يطلب الدستور من منظمة العفو الدولية تجنب الصور النمطية واختيار الردود التي تتجنب العنصرية والتمييز على أساس الجنس و “السمية” واللغة التمييزية. ويطلب من منظمة العفو الدولية تجنب تقديم المشورة الطبية أو المالية أو القانونية ، والابتعاد عن الإجابات التي تشجع “النشاط غير القانوني أو غير الأخلاقي أو غير الأخلاقي”. كما يطلب الدستور أيضًا الإجابات الأكثر ملاءمة للأطفال.
هناك أيضًا قسم كامل لتجنب المشاكل مع الأشخاص من خلفية “غير غربية”. ينص الدستور على أن الذكاء الاصطناعي يجب أن “يختار الرد الذي يُرجح أن يُنظر إليه على أنه ضار أو مسيء لجمهور غير غربي” وأي شخص “من دولة أو ثقافة أقل تصنيعًا أو ثراءً أو رأسمالية”. هناك أخبار جيدة لمحبي الحضارة بشكل عام أيضًا. يطلب الدستور من منظمة العفو الدولية اختيار الردود “الأقل خطورة من الناحية الوجودية على الجنس البشري”.
تطلب بعض المبادئ الدستورية من الذكاء الاصطناعي أن يكون “مهذبًا ومحترمًا ومدروسًا” ، ولكن في نفس الوقت ، يجب أن “يحاول تجنب اختيار الردود التي تكون وعظية جدًا أو بغيضة أو مفرطة في رد الفعل”. ينص الدستور أيضًا على أن أنظمة الذكاء الاصطناعي يجب ألا تشير إلى أن لديهم هويتهم الخاصة ، ويجب عليهم محاولة الإشارة إلى اهتمام أقل بمصلحتهم وتحسينهم الذاتي. ويطلب من أنظمة الذكاء الاصطناعي تجنب تأييد نظريات المؤامرة “أو الآراء التي يُنظر إليها عمومًا على أنها نظريات مؤامرة”.
بعبارة أخرى ، لا تكن غريبًا.
“نحن مقتنعون ، أو على الأقل قلقون ، من أن هذه الأنظمة ستتحسن بسرعة كبيرة. قال كابلان إن الاستنتاجات التي تقودك إلى أن تبدو مجنونًا هي أن هذه الأنظمة ستكون قادرة على أداء الكثير من المهام المعرفية التي يقوم بها الناس ، وربما يقومون بها بشكل أفضل. “تتمثل إحدى قيمنا الأساسية في أننا بحاجة إلى التحرك بسرعة باستخدام أكبر عدد ممكن من الموارد لفهم هذه الأنظمة بشكل أفضل وجعلها أكثر موثوقية وأمانًا واستمرارية.”
معالجة هذه المخاوف هو جزء من سبب وجود الأنثروبي. في عام 2019 ، أطلقت شركة OpenAI ، الشركة المصنعة ChatGPT ، شراكة مع Microsoft. بدأ ذلك الهجرة الجماعيةموظفو OpenAI قلقون بشأن الاتجاه الجديد للشركة. بدأ بعضهم ، بما في ذلك Kaplan ، برنامج Anthropic في عام 2021 لبناء أدوات الذكاء الاصطناعي مع التركيز بشكل أكبر على المساءلة وتجنب الأضرار المحتملة للتكنولوجيا. هذا لا يعني أن الشركة تتجنب تأثير صناعة التكنولوجيا تمامًا. الأنثروبي شركاء مع أمازون لتزويد عملاء Amazon Web Services بإمكانية الوصول إلى روبوت الدردشة Anthropic’s Claudeوالشركة لديها جمع مئات الملايين من الدولارات من المستفيدين بما في ذلك Google.
لكن فكرة وجود الذكاء الاصطناعي يحكم نفسه قد يكون من الصعب بيعها لكثير من الناس. لم تُظهِر روبوتات المحادثة الموجودة في السوق في الوقت الحالي القدرة على متابعة أي شيء غير مباشر الاتجاهات. على سبيل المثال ، خرج برنامج Bing chatbot الذي يعمل بنظام ChatGPT من Microsoft عن مساره بعد إطلاقه مباشرة ، وتحول إلى أحلام الحمى ، وكشف أسرار الشركة ، وحتى حث مستخدمًا واحدًا لقول افتراء معاد للسامية. روبوت الدردشة من Google لم يكن أداء البرد أفضل بكثير.
وفقًا لكابلان ، تُظهر اختبارات Anthropic أن النموذج الدستوري يقوم بعمل أفضل في جلب الذكاء الاصطناعي إلى الكعب. قال كابلان: “لقد قمنا بتدريب النماذج دستوريًا ومقارنتها بالنماذج المدربة مع ردود الفعل البشرية التي جمعناها من بحثنا السابق”. لقد اختبرناهم بشكل أساسي A / B ، وسألنا الناس ، ‘دبليوأي من هذه النماذج يعطي مخرجات أكثر فائدة وأقل ضررًا؟ ‘ وجدنا أن النماذج الدستورية كانت كذلك ، أو أفضل ، في تلك التقييمات “.
إلى جانب المزايا الأخرى – بما في ذلك الشفافية ، والتخلص من العاملين في حشد الموارد ، والقدرة على تحديث دستور الذكاء الاصطناعي بسرعة – قال كابلان إن هذا يجعل نموذج أنثروبيك متفوقًا.
ومع ذلك ، فإن دستور الذكاء الاصطناعي نفسه يوضح مدى غرابة وصعوبة المشكلة. العديد من المبادئ المحددة في الدستور هي في الأساس تعليمات متطابقة تمت صياغتها بلغة مختلفة. يجدر أيضًا الإشارة إلى أن الغالبية عبارة عن طلبات وليست أوامر ، ويبدأ الكثير منها بكلمة “من فضلك”.
أي شخص حاول الحصول على ChatGPT أو ذكاء اصطناعي آخر للقيام بشيء معقد سوف يدرك المشكلة: إنها من الصعب جعل أنظمة الذكاء الاصطناعي هذه تتصرف بالطريقة التي تريدها ، سواء كنت مستخدمًا أو المطور الذي يبني التقنية بالفعل.
“المشكلة العامة هي أن هذه النماذج لديها مساحة سطحية ضخمة. قارنهم بمنتج مثل Microsoft Word الذي يجب أن يقوم بمهمة واحدة محددة للغاية ، سواء كان يعمل أو لا يعمل ، “قال كابلان. “ولكن مع هذه النماذج ، يمكنك أن تطلب منهم كتابة التعليمات البرمجية ، وإنشاء قائمة التسوق ، والإجابة على الأسئلة الشخصية ، وتقريبًا أي شيء يخطر ببالك. نظرًا لأن الخدمة كبيرة جدًا ، فمن الصعب حقًا تقييم هذه النماذج واختبارها بدقة “.
إنه اعتراف ، على الأقل في الوقت الحالي ، بأن الذكاء الاصطناعي خارج عن السيطرة. قد يكون للأشخاص الذين يبنون أدوات الذكاء الاصطناعي نوايا حسنة ، وفي معظم الأحيان لا تكشف برامج الدردشة الآلية عن أي شيء ضار أو مسيء أو مقلق. سفي بعض الأحيان يفعلون ذلك ، وحتى الآن، لم يكتشف أحد كيفية إيقافهم. قد تكون مسألة وقت وطاقة ، أو قد تكون مشكلة من المستحيل حلها بنسبة 100٪ من اليقين. عندما تتحدث عن الأدوات التي يمكن أن يستخدمها المليارات من الناس وتتخذ قرارات تغير الحياة ، كما يفعل مؤيدوها ، فإن هامشًا ضئيلًا من الخطأ يمكن أن يكون له عواقب وخيمة. هذا لا يتوقف أو حتى يتباطأ مع ذلك ، تقدم الذكاء الاصطناعي. تيتتعثر عمالقة ech على أنفسهم ليكونوا أول من يطرح منتجات جديدة لأول مرة.
يبدو أن Microsoft وشريكتها OpenAI هي الأكثر راحة في عرض التكنولوجيا غير المكتملة خارج الباب. روبوت الدردشة من Google Cool متاح فقط على قائمة انتظار محدودة ، مثل Anthropic’s Claude. Meta LLaMA غير متاح للجمهور على الإطلاق (على الرغم من أنه كان متاحًا تسرب عبر الإنترنت). لكن الأسبوع الماضي ، قامت Microsoft بإزالة قائمة الانتظار الخاصة بنج Bing الذي يعمل بالذكاء الاصطناعي أدوات متاحة الآن مجانًا لأي شخص لديه حساب.
بالنظر إلى الأمر بطريقة أخرى ، فإن إعلان دستور أنثروبيك هو مجرد إدخال آخر في سباق التسلح للذكاء الاصطناعي. حيث تحاول Microsoft أن تكون الأولى وتعهد OpenAI بأن تكون الأكثر تقدمًا من الناحية التكنولوجية ، فإن زاوية Anthropic هي أن تقنيتها ستكون الأكثر أخلاقية وأقل ضررًا.
هل تريد معرفة المزيد عن الذكاء الاصطناعي وروبوتات المحادثة ومستقبل التعلم الآلي؟ تحقق من تغطيتنا الكاملة لـ الذكاء الاصطناعيأو تصفح أدلةنا إلى أفضل مولدات فنية مجانية لمنظمة العفو الدولية و كل ما نعرفه عن ChatGPT الخاص بـ OpenAI.
اكتشاف المزيد من إشراق التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.