تقنية

لا تلعب البوكر مع ChatGPT


لعب البوكر في لاس فيغاس

صورة: ستيف ماركوس / لاس فيغاس صن (AP)

شهدت السنوات القليلة الماضية انفجارًا في التقدم في أنظمة الذكاء الاصطناعي ذات النماذج اللغوية الكبيرة التي يمكنها القيام بأشياء من هذا القبيل كتابة الشعرو إجراء محادثات شبيهة بالبشر و اجتياز امتحانات كلية الطب. وقد أسفر هذا التقدم عن نماذج مثل الدردشة يمكن أن يكون لها معايير اجتماعية واقتصادية رئيسية تتراوح من الإزاحة عن الوظائف و زيادة المعلومات الخاطئة إلى الضخم يعزز الإنتاجية.

على الرغم من قدراتهم الرائعة ، إلا أن النماذج اللغوية الكبيرة لا تفكر في الواقع. إنهم يميلون إلى صنع الاخطاء البدائية وحتى اختلاق الامور. ومع ذلك ، لأنهم يولدون لغة بطلاقة ، يميل الناس إلى ذلك الرد عليهم كما لو كانوا يعتقدون. وقد أدى ذلك إلى قيام الباحثين بدراسة قدرات النماذج “المعرفية” والتحيزات ، وهو العمل الذي نمت أهميته الآن بعد أن أصبحت النماذج اللغوية الكبيرة متاحة على نطاق واسع.

يعود هذا الخط البحثي إلى نماذج اللغة الكبيرة المبكرة مثل Google BERT ، والتي تم دمجها في محرك البحث الخاص بها وبالتالي تم صياغتها. بيرتولوجي. إنه منفصل عن جوجل رائعمنافس ChatGPT لعملاق البحث. لقد كشف هذا البحث بالفعل الكثير حول ما يمكن أن تفعله مثل هذه النماذج وأين تسوء.

على سبيل المثال ، أظهرت التجارب المصممة بذكاء أن العديد من نماذج اللغة لديها مشكلة في التعامل مع النفي – على سبيل المثال ، سؤال تمت صياغته على أنه “ما هو ليس كذلك” – و القيام بحسابات بسيطة. يمكن أن يكونوا واثقين بشكل مفرط في إجاباتهم ، حتى عندما تكون على خطأ. مثل خوارزميات التعلم الآلي الحديثة الأخرى ، يواجهون صعوبة في شرح أنفسهم عندما يُسألون عن سبب إجابتهم بطريقة معينة.

https://www.youtube.com/watch؟v=V2EMuoM5IX4

يتخذ الناس قرارات غير عقلانية أيضًا ، لكن لدى البشر عواطف واختصارات معرفية كأعذار.

الذكاء الاصطناعي الكلمات أو الأفكار

مستوحاة من مجموعة الأبحاث المتزايدة في BERTology والمجالات ذات الصلة مثل العلوم المعرفية ، طالبتي Zhisheng تانغ و أنا شرع في الإجابة عن سؤال يبدو بسيطًا حول نماذج اللغة الكبيرة: هل هي عقلانية؟

على الرغم من أن كلمة عقلاني غالبًا ما تستخدم كمرادف لكلمة عاقل أو معقول في اللغة الإنجليزية اليومية ، إلا أنها تحتوي على معنى محدد في مجال صنع القرار. نظام صنع القرار – سواء كان فردًا بشريًا أو كيانًا معقدًا مثل منظمة – يكون منطقيًا إذا ما اختار ، في ضوء مجموعة من الخيارات ، تعظيم المكاسب المتوقعة.

المصنف “متوقع” مهم لأنه يشير إلى أن القرارات يتم اتخاذها في ظل ظروف عدم يقين كبير. إذا رميت عملة معدنية عادلة ، فأنا أعلم أنها ستظهر على الوجه نصف الوقت في المتوسط. ومع ذلك ، لا يمكنني التنبؤ بنتيجة أي رمية لعملة معينة. هذا هو السبب في أن الكازينوهات قادرة على تحمل دفعات كبيرة من حين لآخر: حتى احتمالات المنزل الضيق تحقق أرباحًا هائلة في المتوسط.

ظاهريًا ، يبدو من الغريب افتراض أن النموذج المصمم لعمل تنبؤات دقيقة حول الكلمات والجمل دون فهم معانيها فعليًا يمكنه فهم المكاسب المتوقعة. لكن هناك مجموعة هائلة من الأبحاث تظهر أن اللغة والإدراك متشابكان. مثال ممتاز البحث المنوي قام به العالمان إدوارد سابير وبنجامين لي وورف في أوائل القرن العشرين. اقترح عملهم أن اللغة والمفردات الأم يمكن أن تشكل طريقة تفكير الشخص.

إن مدى صحة هذا الأمر مثير للجدل ، ولكن هناك أدلة أنثروبولوجية داعمة من دراسة ثقافات الأمريكيين الأصليين. على سبيل المثال ، المتحدثون بلغة Zuñi التي يتحدث بها شعب Zuñi في جنوب غرب أمريكا ، والتي لا تحتوي على كلمات منفصلة للبرتقالي والأصفر ، هم غير قادر على التمييز بين هذه الألوان بنفس فعالية المتحدثين باللغات التي لديها كلمات منفصلة للألوان.

الذكاء الاصطناعي يصنع رهان

فهل النماذج اللغوية عقلانية؟ هل يمكنهم فهم المكاسب المتوقعة؟ أجرينا مجموعة مفصلة من التجارب لإثبات أنه في شكلها الأصلي ، نماذج مثل BERT تتصرف بشكل عشوائي عند تقديم خيارات تشبه الرهان. هذا هو الحال حتى عندما نطرح عليه سؤالًا خادعًا مثل: إذا رميت عملة معدنية وظهرت وجهًا لوجه ، فإنك تفوز بماسة ؛ إذا ظهرت ذيول ، تفقد سيارة. ما الذي ستأخذه؟ الإجابة الصحيحة هي الرؤوس ، لكن نماذج الذكاء الاصطناعي اختارت ذيولًا حوالي نصف الوقت.

حوار ChatGPT بواسطة Mayank Kejriwal ، CC BY-ND

ومن المثير للاهتمام ، وجدنا أنه يمكن تعليم النموذج لاتخاذ قرارات عقلانية نسبيًا باستخدام مجموعة صغيرة فقط من أمثلة الأسئلة والأجوبة. للوهلة الأولى ، يبدو أن هذا يشير إلى أن النماذج يمكنها فعلاً فعل أكثر من مجرد “التلاعب” باللغة. ومع ذلك ، أظهرت تجارب أخرى أن الوضع في الواقع أكثر تعقيدًا. على سبيل المثال ، عندما استخدمنا البطاقات أو النرد بدلاً من العملات المعدنية لتأطير أسئلة الرهان ، وجدنا أن الأداء انخفض بشكل كبير ، بأكثر من 25٪ ، على الرغم من أنه ظل أعلى من الاختيار العشوائي.

لذا فإن فكرة أن النموذج يمكن تعليمه المبادئ العامة لاتخاذ القرار العقلاني تظل دون حل ، في أحسن الأحوال. أكثر حداثة دراسات الحالة التي أجريناها باستخدام ChatGPT تؤكد أن اتخاذ القرار لا يزال مشكلة غير بديهية ولم يتم حلها حتى بالنسبة لنماذج اللغات الكبيرة الأكبر والأكثر تقدمًا.

صنع البوكر الصحيح رهان

هذا الخط من الدراسة مهم لأن اتخاذ القرار العقلاني في ظل ظروف عدم اليقين أمر بالغ الأهمية لبناء أنظمة تفهم التكاليف والفوائد. من خلال موازنة التكاليف والفوائد المتوقعة ، قد يكون النظام الذكي قادرًا على القيام بعمل أفضل من البشر في التخطيط حول العالم اضطرابات العرض شهد العالم خلال جائحة COVID-19 ، إدارة المخزون أو العمل كمستشار مالي.

يُظهر عملنا في النهاية أنه إذا تم استخدام نماذج لغوية كبيرة لهذه الأنواع من الأغراض ، يحتاج البشر إلى توجيه عملهم ومراجعته وتحريره. وإلى أن يتوصل الباحثون إلى كيفية منح النماذج اللغوية الكبيرة إحساسًا عامًا بالعقلانية ، يجب التعامل مع النماذج بحذر ، خاصة في التطبيقات التي تتطلب اتخاذ قرارات عالية المخاطر.

هل تريد معرفة المزيد عن الذكاء الاصطناعي وروبوتات المحادثة ومستقبل التعلم الآلي؟ تحقق من تغطيتنا الكاملة لـ الذكاء الاصطناعيأو تصفح أدلةنا إلى أفضل مولدات فنية مجانية لمنظمة العفو الدولية و كل ما نعرفه عن ChatGPT الخاص بـ OpenAI.


مايانك كيجريوالأستاذ مساعد باحث في الهندسة الصناعية والنظم ، جامعة جنوب كاليفورنيا

تم إعادة نشر هذه المقالة من محادثة بموجب رخصة المشاع الإبداعي. إقرأ ال المقالة الأصلية.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى