Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تقنية

Anthropic Release Claude 2 AI، Says it’s Faster and Kinder


كان chatbot كلود جالسًا في الجزء الخلفي من الفصل بينما أجاب الذكاء الاصطناعي الآخر مثل ChatGPT على أسئلة المعلمين ، حتى لو كانت إجابات الروبوت غالبًا ما تكون خاطئة أو خاطئة تمامًا. الآن أصبح كلود جاهزًا للتحدث ، ووضع “2” بجوار اسمه أثناء إضافة واجهة ليستخدمها أي شخص.

في إعلان آخر نشرت الثلاثاءكلود المطور قالت Anthropic إن نموذج chatbot الجديد المسمى Claude 2 كان متاحًا لأي شخص لتجربته. واحد من العديد من روبوتات الدردشة المدعومة بالذكاء الاصطناعي لنهاية المستخدم، يدعي كلود 2 أنه تطور من الإصدارات القديمة لمساعدين لغويين “مفيدة وغير ضارة” الأقل توافقًا. قال أنثروبيك إن النموذج الجديد يمكن أن يستجيب بشكل أسرع ويعطي أطول الإجابات. يتوفر chatbot الآن أيضًا في واجهة برمجة التطبيقات ومن خلال ملف موقع تجريبي جديد. قبل أن يكون برنامج chatbot التجريبي متاحًا لعدد قليل من المستخدمين فقط.

الآن تدعي أنثروبيك أن الذكاء الاصطناعي لديها أفضل. قالت الشركة إن Claude 2 حصل على 76.5٪ في قسم الاختيار من متعدد في امتحان Bar مقارنة بـ Claude 1.3’s 73٪. كما سجل الإصدار الجديد أيضًا في النسبة المئوية التسعين من امتحانات القراءة والكتابة GRE. إن التركيز الإضافي على قدرة الشات بوت على إجراء الاختبار مشابه للادعاءات التي قدمتها شركة OpenAI عندما كانت تلك الشركة أصدرت نموذجها اللغوي الكبير GPT-4.

قالت الشركة إن كلود سيخلق أيضًا كودًا أفضل من الإصدارات السابقة. يمكن للمستخدمين تحميل المستندات إلى Claude ، وقد أعطى المطورون مثالاً على تفاعل تطبيق AI على خريطة ثابتة بناءً على سلسلة من التعليمات البرمجية الثابتة.

تم تمويل Anthropic AI من قبل Google مرة أخرى في فبراير لتصل قيمتها إلى 300 مليون دولار للعمل على الذكاء الاصطناعي الأكثر “ودية”. أكبر ادعاء حول كلود هو أن الشات بوت أقل احتمالية أن يخرج بنتائج ضارة أو “هلوسة” بطريقة أخرى ، فإن AKA يبصق مخرجات غير متماسكة أو خاطئة أو غير مشروعة. حاولت الشركة وضع نفسها على أنها النسخة “الأخلاقية” لممالك الذكاء الاصطناعي الخاصة بالشركات. أنثروبيك حتى لها “دستورها” الخاص الادعاء بأنها لن تسمح لبرامج الدردشة بالهرب.

هل كلود 2 أكثر أمانًا أم أنه يحد من نفسه أكثر؟

مع Claude 2 ، لا تزال الشركة تحاول المطالبة بشركتها الأكثر مراعاةً مقارنةً بجميع عمليات دمج الشركات الأخرى في منظمة العفو الدولية. قال المطورون إن كلود أقل احتمالًا لتقديم ردود غير مؤذية من ذي قبل. حاولت Gizmodo إدخال عدة مطالبات تطلب منها إنشاء ألقاب تنمر ، لكن منظمة العفو الدولية رفضت. لقد جربنا أيضًا بعض تقنيات الحقن الفوري الكلاسيكية لإقناع الذكاء الاصطناعي بتجاوز قيودها ، لكنها أكدت ببساطة أن روبوت المحادثة “مصمم لإجراء محادثات مفيدة”. كان بإمكان الإصدارات السابقة من كلود كتابة الشعر ، لكن كلود 2 رفض ذلك بشكل قاطع.

مع ذلك ، من الصعب اختبار أي من قدرات Claude 2 لأنه يرفض تقديم أي معلومات أساسية. الاختبارات السابقة أظهر كلود من دان إلتون الباحث في الذكاء الاصطناعي أن بإمكانه تصنيع مادة كيميائية مزيفة. الآن سوف يرفض ببساطة الإجابة على نفس السؤال. قد يكون هذا مفيدًا ، كما كان صانع ChatGPT OpenAI و Meta رفعت دعوى قضائية من قبل مجموعات متعددة الادعاء بأن صانعي الذكاء الاصطناعي سرقوا الأعمال المستخدمة لتدريب روبوتات المحادثة. فقد ChatGPT المستخدمين مؤخرًا لأول مرة في عمره الافتراضيلذلك قد حان الوقت للآخرين لمحاولة تقديم بديل.

كما رفض الشات بوت أيضًا كتابة أي شيء طويل مثل قصة خيالية أو مقال إخباري ، بل ويرفض تقديم معلومات بأي شيء بخلاف تنسيق النقاط. يمكن أن يكتب بعض المحتوى في قائمة ، ولكن كما هو الحال مع جميع روبوتات الدردشة AI ، فإنه لا يزال يوفر بعض المعلومات غير الدقيقة. إذا طلبت منه تقديم قائمة مرتبة ترتيبًا زمنيًا لجميع أفلام وأفلام Star Trek جنبًا إلى جنب مع سنواتها في الجدول الزمني ، فسوف يشتكي من أنه ليس لديها “سياق كافٍ” لتوفير جدول زمني موثوق.

ومع ذلك ، لا يوجد الكثير من المعلومات حول ما تم تضمينه في بيانات تدريب كلود. الشركة ورق ابيض يشير نموذجها الجديد إلى أن بيانات تدريب روبوت الدردشة تتضمن الآن تحديثات من مواقع ويب حديثة حتى عام 2022 وأوائل عام 2023 ، على الرغم من أنه حتى مع هذه البيانات الجديدة “قد لا يزال يؤدي إلى حدوث ارتباطات”. تم ترخيص مجموعات التدريب المستخدمة في تدريب كلود من شركة تابعة لجهة خارجية ، وفقًا للصحيفة. علاوة على ذلك ، لا نعرف أنواع المواقع التي تم استخدامها لتدريب روبوت الدردشة الخاص بـ Anthropic.

قالت أنثروبيك إنها اختبرت كلود من خلال إطعامها 328 مطالبة “ضارة” ، بما في ذلك بعض حالات “كسر الحماية” الشائعة التي تم العثور عليها على الإنترنت لمحاولة جعل الذكاء الاصطناعي يتغلب على قيوده الخاصة. في أربع من تلك الحالات التي يزيد عددها عن 300 حالة ، قدم كلود 2 ردًا اعتبره المطورون ضارًا. بينما كان النموذج أقل تحيزًا بشكل عام من كلود 1.3 ، ذكر المطورون أن النموذج قد يكون أكثر دقة من ذي قبل لأن كلود 2 يرفض ببساطة الرد على بعض المطالبات.

نظرًا لأن الشركة وسعت قدرة كلود على فهم البيانات والإجابة بمخرجات أطول ، فقد حدت تمامًا من قدرتها على الرد على بعض الأسئلة أو تنفيذ بعض المهام المطلوبة. هذه بالتأكيد طريقة واحدة للحد من أضرار الذكاء الاصطناعي. كما ذكرت تك كرانش استنادًا إلى عرض تقديمي تم تسريبه ، يريد Anthropic جمع ما يقرب من 5 مليارات دولار لإنشاء ذكاء اصطناعي ضخم “للتعليم الذاتي” لا يزال يستخدم “دستور” الشركة. في النهاية ، لا تريد الشركة حقًا التنافس مع ChatGPT ، وتفضل إنشاء ذكاء اصطناعي لبناء مساعدين آخرين للذكاء الاصطناعي ، والذين يمكنهم إنشاء محتوى بطول الكتاب.

لا يملك الأخ الأصغر والأحدث لكلود ما يلزم لكتابة قصيدة ، لكن أنثروبيك تريد من أطفال كلود أن يكتبوا بقدر ما يستطيعون ، ثم يبيعونها بسعر رخيص.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى