الشيء الوحيد الذي يقف بين الإنسانية ونهاية العالم للذكاء الاصطناعي هو… كلود؟

إن شركة Anthropic عالقة في مفارقة: من بين أفضل شركات الذكاء الاصطناعي، فهي الأكثر هوسًا بالسلامة وتقود المجموعة في البحث عن كيفية حدوث أخطاء في النماذج. ولكن على الرغم من أن قضايا السلامة التي حددتها لا تزال بعيدة عن الحل، إلا أن شركة أنثروبيك تدفع بقوة مثل منافسيها نحو المستوى التالي، الذي يحتمل أن يكون أكثر خطورة، من الذكاء الاصطناعي. وتتمثل مهمتها الأساسية في معرفة كيفية حل هذا التناقض.
في الشهر الماضي، أصدرت Anthropic وثيقتين اعترفتا بالمخاطر المرتبطة بالمسار الذي تسلكه وألمحتا إلى الطريق الذي يمكن أن تسلكه للهروب من المفارقة. “.”مراهقة التكنولوجيا“، وهي تدوينة طويلة الأمد كتبها الرئيس التنفيذي داريو أمودي، تدور اسميًا حول “مواجهة مخاطر الذكاء الاصطناعي القوي والتغلب عليها”، ولكنها تقضي وقتًا أطول في التركيز على الأول مقارنة بالثاني. يصف أمودي التحدي بلباقة بأنه “صعب”، لكن تصويره لمخاطر الذكاء الاصطناعي – الذي أصبح أكثر خطورة بكثير، كما يشير، بسبب الاحتمال الكبير لإساءة استخدام التكنولوجيا من قبل المستبدين – يمثل تناقضًا مع مقالته السابقة الأكثر تفاؤلاً والطوباوية البدائية “آلات المحبة النعمة.â€
تحدث هذا المنشور عن أمة من العباقرة في مركز البيانات؛ تستحضر الرسالة الأخيرة “البحار السوداء اللانهائية”. استدعاء دانتي! ومع ذلك، وبعد أكثر من 20 ألف كلمة معظمها قاتمة، أبدى أمودي في النهاية نبرة من التفاؤل، قائلاً إنه حتى في أحلك الظروف، كانت الإنسانية هي التي تنتصر دائمًا.
الوثيقة الثانية أنثروبيك نشرت في يناير “دستور كلود“، يركز على كيفية إنجاز هذه الخدعة. النص موجه تقنيًا إلى جمهور واحد: كلود نفسه (بالإضافة إلى الإصدارات المستقبلية من برنامج الدردشة الآلي). إنها وثيقة مثيرة للاهتمام، وتكشف عن رؤية الأنثروبيك لكيفية تعامل كلود، وربما أقرانه في مجال الذكاء الاصطناعي، مع تحديات العالم. خلاصة القول: تخطط شركة أنثروبيك للاعتماد على كلود نفسه لفك عقدة شركتها.
لقد كان تمييز السوق الأنثروبي منذ فترة طويلة عبارة عن تقنية تسمى الذكاء الاصطناعي الدستوري. وهي عملية تلتزم من خلالها نماذجها بمجموعة من المبادئ التي توائم قيمها مع الأخلاق الإنسانية السليمة. احتوى دستور كلود الأولي على عدد من الوثائق التي كان المقصود منها تجسيد تلك القيم ــ أشياء مثل سبارو (مجموعة من البيانات المناهضة للعنصرية والعنف التي أنشأتها ديب مايند)، والإعلان العالمي لحقوق الإنسان، وشروط خدمة أبل (!). وتختلف النسخة المحدثة لعام 2026: فهي أشبه بمطالبة طويلة تحدد الإطار الأخلاقي الذي سيتبعه كلود، ويكتشف أفضل طريق إلى الاستقامة من تلقاء نفسه.
تشرح أماندا أسكيل، دكتوراه الفلسفة التي كانت الكاتبة الرئيسية لهذه المراجعة، أن النهج الأنثروبيكي أقوى من مجرد مطالبة كلود باتباع مجموعة من القواعد المعلنة. يوضح آسكيل: “إذا اتبع الناس القواعد دون سبب سوى وجودها، فغالبًا ما يكون الأمر أسوأ مما لو فهمت سبب وجود القاعدة”. ينص الدستور على أن كلود يجب أن يمارس “الحكم المستقل” في مواجهة المواقف التي تتطلب الموازنة بين صلاحياته المتمثلة في المساعدة والسلامة والصدق.
وإليك كيف يوضح الدستور الأمر: “بينما نريد أن يكون كلود عقلانياً وصارماً عندما يفكر بشكل صريح في الأخلاق، فإننا نريد أيضاً أن يكون كلود حساساً بشكل حدسي لمجموعة واسعة من الاعتبارات وقادراً على وزن هذه الاعتبارات بسرعة ومعقولة في عملية صنع القرار الحية”. بشكل حدسي “هو اختيار كلمة معبرة هنا – يبدو أن الافتراض هو أن هناك ما هو أكثر تحت غطاء كلود من مجرد خوارزمية تختار الكلمة التالية. كما يعبر “نظام كلود”، كما يمكن للمرء أن يطلق عليه، عن الأمل في أن يتمكن برنامج الدردشة الآلي “من الاعتماد بشكل متزايد على حكمته وفهمه”.
حكمة؟ من المؤكد أن الكثير من الناس يأخذون النصائح من نماذج اللغات الكبيرة، لكن الاعتراف بأن تلك الأجهزة الخوارزمية تمتلك بالفعل الجاذبية المرتبطة بمثل هذا المصطلح شيء آخر. لا يتراجع Askell عندما أطلب ذلك. قالت لي: “أعتقد أن كلود قادر بالتأكيد على نوع معين من الحكمة”.



