يقول Sam Altman من OpenAI إنه لا توجد دردشة GPT-5 للقلق بشأن … حتى الآن
لقد سحقها سام التمان شائعات ذلك تعمل OpenAI بالفعل على ChatGPT-5 ، بعد شهر واحد فقط من إصدار إصدار الشركة لـ GPT-4. في الوقت الحالي ، لا يوجد GPT-5 في التدريب ، كما قال ألتمان يتحدث عمليا في حدث في معهد ماساتشوستس للتكنولوجيا.
سأل الباحث ليكس فريدمان ، الباحث في مجال الذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا ، ألتمان عن أفكاره حول الإصدار الذي تم إصداره مؤخرًا وانتشاره على نطاق واسع. رسالة مفتوحة تطالب بوقف مؤقت للذكاء الاصطناعي. ردا على ذلك ، شارك مؤسس OpenAI بعض انتقاداته. نسخة سابقة من الرسالة المزعومة تقوم OpenAI بتدريب GPT-5 في الوقت الحالي. وأشار ألتمان إلى أننا لسنا ولن نفعل ذلك لبعض الوقت. بهذا المعنى ، [the letter] كان نوعًا ما سخيفًا “.
ولكن ، GPT-5 أم لا ، من غير المرجح أن يكون بيان ألتمان مطمئنًا بشكل خاص لانتقادات الذكاء الاصطناعي ، كما أشير أولاً في تقرير من الحافة. تابع مؤسس التكنولوجيا إعلانه “لا GPT-5” من خلال توضيح أن الترقيات والتحديثات قيد العمل لـ GPT-4. هناك طرق لزيادة قدرة التقنيات بخلاف إصدار إصدار رسمي أعلى عددًا منها.
قال ألتمان: “إننا نقوم بأشياء أخرى بالإضافة إلى GPT-4 التي أعتقد أنها تحتوي على جميع أنواع مشكلات السلامة المهمة التي يجب معالجتها والتي تم استبعادها تمامًا من الرسالة” – في جوهرها ، معترفًا بأن OpenAI تقوم بشحن تعديلات المنتج التي قد لا يتم تحسينها بالكامل من أجل خير الإنسانية أو سلامة المستخدم. على سبيل المثال ، في أواخر مارس ، أصدرت الشركة مكون إضافي لـ GPT-4 يتيح نموذجها اللغوي الكبير يتصفح الإنترنت ، مما قد يؤدي إلى المزيد من خصوصية البيانات و التلاعب بالمستخدم مخاوف.
حاول ألتمان بذل جهد ضئيل لتهدئة مخاوف الذكاء الاصطناعي. وقال إن OpenAI قضى أكثر من ستة أشهر في تدريب GPT-4 قبل إصداره للجمهور. وأشار أيضًا إلى أن “أخذ الوقت الكافي لدراسة سلامة النموذج حقًا … هذا أمر مهم.”
وأضاف ألتمان: “مع تزايد جدية القدرات ، يجب زيادة شريط الأمان”. “أعتقد أن التحرك بحذر والصرامة المتزايدة لقضايا السلامة أمر مهم حقًا. الرسالة ، لا أعتقد أنها الطريقة المثلى لمواجهتها.
ومع ذلك ، ربما يجب أن تأخذ ادعاءات تحديد أولويات السلامة الخاصة بـ OpenAI CEO مع بعض الشكوك. حتى في مقابلة يوم الخميس مع معهد ماساتشوستس للتكنولوجيا ، لم يكن كل شيء رجل أعمال مثير للجدل قال النطاق الصحيح.
وردا على سؤال حول ما إذا كانت شركة OpenAI ستستمر في الشفافية في المستقبل ، قال ألتمان “نحن نخطط بالتأكيد لمواصلة القيام بذلك”. باستثناء السؤال نفسه هو كرة لينة مضللة. أصبحت OpenAI ، التي كانت ذات يوم منظمة مفتوحة المصدر وغير ربحية ، شركة مغلقة بشكل متزايد تهدف إلى الربح. GPT-4 ، على وجه الخصوص ، هو صندوق أسود. لم تصدر الشركة أي معلومات حول بيانات التدريب التي تم ضبط أحدث روبوت محادثة لها عليها. كما أنها لم تشارك أي معلومات حول بنية GPT-4 أو بنائها أو غيرها من الأعمال الداخلية الحقيقية.
“نظرًا لكل من المشهد التنافسي والآثار المتعلقة بالسلامة للنماذج واسعة النطاق مثل GPT-4 ، لا يحتوي هذا التقرير على مزيد من التفاصيل حول البنية (بما في ذلك حجم النموذج) أو الأجهزة أو حوسبة التدريب أو إنشاء مجموعة البيانات أو طريقة التدريب أو ما شابه ذلك.” كتب OpenAI في التقرير الفني نشرت تلك الشركة جنبًا إلى جنب مع إصدار GPT-4.
كان ألتمان متأكدًا أيضًا من أنه سيخرج لنفسه. الأشياء التي يقولها ، حسنًا ، قد لا يكون إيجابيًا ، فهي صحيحة:
أعتقد أن الكثير من الشركات الأخرى لا تريد أن تقول شيئًا حتى تتأكد من صحته. لكني أعتقد أن هذه التكنولوجيا ستؤثر علينا جميعًا ، لدرجة أننا نعتقد أن إشراك الجميع في المناقشة ، ووضع هذه الأنظمة في العالم – رغم أنها غير كاملة تمامًا على الرغم من أنها في حالتها الحالية – حتى يتمكن الناس من تجربتها ، فكر فيهم ، وفهم الجوانب الإيجابية والسلبية ؛ الأمر يستحق المقايضة ، على الرغم من أننا نميل إلى إحراج أنفسنا في الأماكن العامة وعلينا تغيير آراءنا ببيانات جديدة بشكل متكرر.
قد تعتقد أن روبوتات الدردشة AI هي كذلك بداية النهاية للجنس البشري. أو قد تعتقد أن كل من هذا ما يسمى بأشياء “الذكاء الاصطناعي” مبالغ فيها. بغض النظر عن المكان الذي تقف فيه على المكالمة على الرغم من توقف الذكاء الاصطناعي لمدة ستة أشهر ، فإن إجابة ألتمان على الرسالة المفتوحة هي ، في النهاية ، شيء من عدم الإجابة.