يتنحى رئيس الثقة والأمان في OpenAI حيث يتعهد المطورون بقضاء المزيد من الوقت في إصلاح ChatGPT
يمر OpenAI صانع ChatGPT ببعض التغيير. الشركة إضافة المزيد من الميزات التي ستساعد chatbot على تذكر التعليمات ، على الرغم من أن المطورين سيقضون أيضًا الكثير من الوقت في التأكد من أن الإصدار الحالي من نموذج اللغة الثمين للشركة يعمل على النحو المنشود. لكنها خطوة إلى الأمام وخطوة إلى الوراء حيث تفقد الشركة رأس الثقة والأمان.
يوم الخميس ، قال OpenAI إن مستخدمي Plus الذين يدفعون مقابل ChatGPT يمكنهم إضافة “تعليمات مخصصة” إلى برنامج الدردشة الآلي. تسمح الإرشادات الجديدة للمستخدمين بشكل أساسي بالحصول على استجابة أكثر اتساقًا من الروبوت. حسب الشركة بيان حقائق، يمكن للمستخدمين ببساطة إضافة هذه التعليمات في حقل خاص موجود أسفل اسم حسابهم. يمكن أن تتضمن التعليمات إجبار روبوت المحادثة على الاستجابة بشكل أكثر رسمية أو ضمن عدد كلمات محدد. يمكن للتعليمات أن تطلب من ChatGPT “أن يكون لديك آراء حول الموضوعات أو أن تظل محايدة”.
كيف يجب أن يظهر الذكاء الاصطناعي “بآرائه” هو موضوع دائم للنقاش في دوائر الذكاء الاصطناعي. لسوء الحظ ، سيحتاج ChatGPT إلى العثور على شخص آخر ليقود هذه الاعتبارات. كتب رئيس الثقة والأمان في OpenAI ، ديف ويلنر ، في أ منشور ينكدين في وقت متأخر من يوم الخميس ، قال إنه سينتقل إلى “دور استشاري” في الشركة. وأشار إلى تضارب العمل مع حياته المنزلية ورعاية أطفاله خاصة أن “أوبن إيه آي تمر بمرحلة عالية الحدة في تطورها”.
تواصلت Gizmodo مع OpenAI بشأن خططها لاستبدال قائد الثقة والأمان ، لكننا لم نتلق ردًا على الفور. إنه موقع مهم إلى حد ما بالنسبة للشركة التي تخضع للتدقيق الجيد فيما يتعلق ببرنامج الدردشة الآلي الشائع جدًا. ال طالبت لجنة التجارة الفيدرالية مؤخرًا بكميات ضخمة من الوثائق من شركة OpenAI على ضمانات الذكاء الاصطناعي الخاصة بها. هذا كل شيء بينما الرئيس التنفيذي للشركة سام التمان يحاول وضع نفسه على أنه زعيم الفكر في تنظيم الذكاء الاصطناعي.
الآن ، سوف تنفق أوبن إيه آي وقتًا أطول في الضبط الدقيق نماذجها الحالية للذكاء الاصطناعي ، بدلاً من الانتقال إلى الشيء الكبير التالي. يوم الخميس ، الشركة أعلن سيتم تمديد الدعم لنماذج اللغة GPT-3.5 و GPT-4 على واجهة برمجة التطبيقات الخاصة بها حتى 13 يونيو على الأقل من العام المقبل. جاءت هذه الأخبار بعد يوم واحد فقط من إصدار مجموعة من الباحثين في جامعة ستانفورد وجامعة كاليفورنيا في بيركلي دراسة تظهر أصبح ChatGPT أسوأ بشكل ملحوظ في بعض المهام مثل الرياضيات والترميز مقارنة بالإصدارات السابقة.
على الرغم من أن بعض زملائه الأكاديميين تساؤل بعض نتائج الورقة ، وضعت الدراسة المثبط على المطالبات من OpenAI يقول “لم نجعل GPT-4 غبيًا.” تساءل بعض المطورين عما إذا كانت نماذج اللغة مثل GPT-4 يمكن أن تكون مفيدة للشركات إذا كانت حتى التغييرات الطفيفة يمكن أن تقلب قدرات النموذج. تقول OpenAI الآن إنها ستحاول إعطاء المزيد من المطورين فكرة عن ما هي التغييرات التي يقومون بها على النموذج. ومع ذلك ، فمن غير المرجح أن تقدم OpenAI للمستخدمين العاديين أي مزيد من القرائن حول ما تحتويه معفي نموذج لغة كبير مبهم إلى حد ما.
كتبت الشركة في منشورها المحدث على المدونة: “في حين أن غالبية المقاييس قد تحسنت ، فقد تكون هناك بعض المهام حيث يزداد الأداء سوءًا”. “نحن نتفهم أن ترقيات النموذج وتغييرات السلوك يمكن أن تعطل تطبيقاتك. نحن نعمل على إيجاد طرق لمنح المطورين مزيدًا من الاستقرار والوضوح حول كيفية إصدار النماذج وإيقافها “.
ركز جزء من هذه التحسينات على “الدقة الواقعية وسلوك الرفض” ، وهو أمر تمت ملاحظته في ذكرت أنها تغيرت بشكل كبير في الأشهر القليلة منذ إصدار GPT-4. وأشار الباحثون إلى أن GPT-4 لا يزال يستجيب للمطالبات “الضارة” التي يمكن أن تشمل كراهية النساء أو التعليمات الخاصة بارتكاب جريمة بنسبة 5٪ من الوقت. إنه نوع الموضوع الذي يحتاج رئيس الثقة والأمان إلى التركيز عليه–إذا تمكنت OpenAI من الحصول على واحدة جديدة لتلتزم بها.
اكتشاف المزيد من إشراق التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.