تقنية

كيف يمكن للتغريدة المضللة لأحد أعضاء مجلس الشيوخ أن تساعدنا في فهم الذكاء الاصطناعي


أثار سناتور كناتيكت كريس مورفي عش هورنتس للباحثين في الذكاء الاصطناعي هذا الأسبوع من خلال تكرار عدد من التصريحات غير المطلعة والشائعة بشكل متزايد حول قدرة روبوتات الدردشة المدعومة بالذكاء الاصطناعي على تحقيق فهم شبيه بالفهم البشري ويعلمون أنفسهم مواضيع معقدة. قال كبار خبراء الذكاء الاصطناعي الذين تحدثوا مع Gizmodo إن مزاعم مورفي كانت هراء ومنفصلة عن الواقع ومن المحتمل أن تشتت انتباه الناس بعيدًا عن القضايا الحقيقية والملحة المتعلقة بتنظيم البيانات والشفافية الحسابية لصالح المواد الإباحية للكوارث المثيرة.

في سقسقة يوم الأحد ، زعم مورفي أن ChatGPT “علمت نفسها أن تفعل كيمياء متقدمة” ، على ما يبدو دون أي مساهمة من المبدعين البشريين. سقسقة استمرت في التشبع ChatGPT ، نموذج لغة أوبن إيه آي الكبير المثير للإعجاب chatbot ، مع خصائص بشرية فريدة مثل صنع القرار المتقدم والمستقل. يبدو أن ChatGPT ، وفقًا لمورفي ، كان في الواقع في مقعد السائق.

“هو – هي [chemistry] أضاف مورفي: “لم يكن مدمجًا في النموذج. لم يبرمجها أحد لتعلم الكيمياء المعقدة. قررت أن تعلم نفسها ، ثم أتاحت معرفتها لأي شخص يطلب ذلك.”

ركز كبار الباحثين في منظمة العفو الدولية على مورفي مثل خلايا الدم البيضاء المحتشدة بالفيروس.

“من فضلك لا تنشر معلومات مضللة” ، باحث في الذكاء الاصطناعي والرئيس التنفيذي السابق شارك في قيادة فريق Google الأخلاقي لمنظمة العفو الدولية Timnit Gebru ورد على تويتر. إن مهمتنا في مكافحة الضجيج صعبة بما فيه الكفاية دون أن يشارك السياسيون في العربة.

وقد ردد هذا الشعور من قبل أستاذ معهد سانتا في و الذكاء الاصطناعي المؤلف ميلاني ميتشل الذي وصف توصيف مورفي غير المألوف لـ ChatGPT بأنه “معلومات مضللة بشكل خطير”.

وأضاف ميتشل: “كل جملة غير صحيحة”.

حاول مورفي أن يلعب دور التحكم في الضرر وأصدر بيانًا آخر بعد عدة ساعات متجاهلًا الانتقادات باعتباره جهودًا “للتعبير عن العار” لصانعي السياسات بشأن قضايا التكنولوجيا.

وأضاف مورفي: “أنا متأكد تمامًا من أنني أمتلك الفرضية الصحيحة”. أضاف Twitter لاحقًا علامة سياق إلى التغريدة الأصلية مع إشعار يخبر المشاهدين “أضاف القراء السياق الذي اعتقدوا أن الناس قد يرغبون في معرفته”.

أستاذ مشارك بجامعة نيويورك ومؤلف أكثر من خلل أخبرت ميريديث بروسارد موقع Gizmodo أن الأمر كله ذهابًا وإيابًا كان مثالًا رئيسيًا على قيام المشرع “بالتعلم في الأماكن العامة” حول موضوع تقني معقد وسريع الحركة. مثل وسائل التواصل الاجتماعي من قبل ، كافح المشرعون من جميع الأطياف للبقاء على اطلاع وسابق وتيرة التكنولوجيا.

قال بروسارد: “لدى الناس الكثير من المفاهيم الخاطئة حول الذكاء الاصطناعي”. “لا حرج في التعلم ولا حرج في أن تكون مخطئًا وأنت تتعلم الأشياء.”

اعترف بروسارد بأنه من المحتمل أن يكون من الصعب أن يعتقد الناس أن نماذج الذكاء الاصطناعي أصبحت “بشرية” (هم ليسوا كذلك) ، لكنه قال إن الخلافات العامة مثل هذه كانت مع ذلك فرصة لمعرفة المزيد بشكل جماعي حول كيفية عمل الذكاء الاصطناعي والتحيزات الكامنة فيه.

لماذا حجة مورفي مليئة بالقرف

أستاذة اللسانيات بجامعة واشنطن إميلي م بندر ، من مكتوبة بالتفصيل فيما يتعلق بمسألة إسناد وكالة شبيهة بالبشر إلى روبوتات المحادثة ، قال لـ Gizmodo ذلك يتضمن بيان مورفي العديد من “الأخطاء الجوهرية” في الفهم عندما يتعلق الأمر بنماذج اللغة الكبيرة (LLMs). أولاً ، حاول مورفي وصف ChatGPT ككيان مستقل ومستقل له وكالته الخاصة. إنه ليس كذلك. وبدلاً من ذلك ، قال بندر إن ChatGPT هو مجرد “قطعة أثرية” صممها البشر في OpenAI. حققت ChatGPT كفاءتها الواضحة في الكيمياء بنفس الطريقة التي كانت عليها قادرة على اجتياز امتحانات الترخيص الطبي أو اختبارات كلية إدارة الأعمال أو: تم ببساطة تغذية التوزيع الصحيح للكلمات والرموز في مجموعات بيانات التدريب الخاصة بها.

كتب بيندر: “تم إعداد ChatGPT للرد على أسئلة (حول الكيمياء أو غير ذلك) من عامة الناس لأن OpenAI وضعت هذا النوع من الواجهة عليها”.

حتى هذا قد يبالغ في الأمور. نعم ، يمكن لـ ChatGPT استخدام مشاكل الكيمياء أو المستندات الأخرى الموجودة في مجموعة البيانات الخاصة به للرد بشكل مثير للإعجاب على أسئلة المستخدمين ، ولكن هذا لا يعني النموذج في الواقع يفهم ما تفعله بأي طريقة ذات معنى. تمامًا كما لا يفهم ChatGPT مفهوم الحب في الواقع أو الفن ، فهو بالمثل لا يتعلم حقًا ما تعنيه الكيمياء ، أو مجموعة بيانات كبيرة أم لا.

قال بيندر لـ Gizmodo: “الشيء الرئيسي الذي يحتاج الجمهور إلى معرفته هو أن هذه الأنظمة مصممة لتقليد التواصل البشري في اللغة ، ولكن ليس لفهم اللغة فعليًا دون سبب”.

كررت سارة مايرز ويست ، العضو المنتدب لمعهد AI Now ، هذه المشاعر ، حيث أخبرت Gizmodo أن بعض المخاوف الباطنية المرتبطة بـ ChatGPT تستند إلى سوء فهم أساسي لما يحدث بالفعل عندما تجيب التكنولوجيا على استفسار المستخدم.

قال ويست: “هذا هو مفتاح فهم Chat GPT ونماذج اللغات الكبيرة المماثلة الأخرى”. “إنهم لا يعكسون فعليًا بأي شكل من الأشكال عمق فهم اللغة البشرية – إنهم يقلدون شكلها.” يعترف ويست أن ChatGPT سيبدو غالبًا مقنعًا ، ولكن حتى في أفضل حالاته ، فإن نموذج ببساطة يفتقر ال “سياق حاسم لما تعكسه أداة ChatGPT من وجهات النظر والمعتقدات والنوايا.”

ماجستير: العقلانية مقابل الاحتمال

كتب بيندر مطولاً عن هذا الوهم المخادع للعقلانية المقدم في روبوتات المحادثة بل إنه صاغ المصطلح “.ببغاء عشوائيلوصفه. الكتابة في ورقة بنفس الاسم يا بندر هو – هي الببغاء العشوائي كشيء ، “يربط عشوائيًا تسلسلات من الأشكال اللغوية … وفقًا لمعلومات احتمالية حول كيفية دمجها ، ولكن دون أي إشارة إلى المعنى.” يساعد ذلك في شرح ChatGPT باختصار.

هذا لا يعني أن ChatGPT وخلفاؤها لن يؤديوا إلى تطورات رائعة ومثيرة للاهتمام في مجال التكنولوجيا. تضع Microsoft و Google بالفعل الأساس لمحركات البحث المستقبلية التي من المحتمل أن تكون قادرة على تقديم نتائج أكثر تخصيصًا وذات صلة للمستخدمين من يعتقد أنه ممكن قبل بضع سنوات فقط. وبالمثل ، من المؤكد أن الموسيقيين والفنانين الآخرين سوف يلعبون مع LLMs لإنشاء أعمال مخالفة لم تكن مفهومة في السابق..

ومع ذلك ، لا يزال بندر قلقًا من أن التفكير مثل مورفي قد يؤدي بالناس إلى إساءة تفسير الاستجابات التي تبدو متماسكة من هذه الأنظمة على أنها ليست للتعلم أو الاكتشاف الشبيه بالإنسان-تحضير. يخشى باحثو الذكاء الاصطناعي من أن سوء الفهم الأساسي يمكن أن يمهد الطريق لضرر في العالم الحقيقي. يمكن للبشر ، الذين هم في حالة سُكر من فكرة مدح الآلات المتقدمة الشبيهة بالإله ، أن يقعوا في فخ الاعتقاد بأن هذه الأنظمة جديرة بالثقة بشكل مفرط. (الدردشة و جوجل رائع أظهروا بالفعل استعدادهم للكذب بانتظام من خلال أسنانهم ، مما دفع البعض إلى تسميتهم “المثل الأفلاطوني من الهراء“). هذا التجاهل الكامل للحقيقة أو الواقع على نطاق واسع يعني أن نظامًا إيكولوجيًا للمعلومات مسدودًا بالفعل يمكن أن يغمره موجات من “اللامعلومات” التي يولدها الذكاء الاصطناعي.

قال بندر: “ما أود أن يعرفه سين مورفي وغيره من صانعي السياسة هو أن أنظمة مثل ChatGPT تشكل خطرًا كبيرًا على نظام المعلومات البيئي لدينا”.

مخاوف يوم القيامة من الذكاء الاصطناعي يمكن أن تصرف الانتباه عن المشاكل القابلة للحل

الغرب قلق بالمثل نحن نشهد حاليًا ملف، “الحلقة الحادة بشكل خاص من الإثارة والقلق.” هذه الحقبة من التمجيد المفرط للإثارة لـ LLM تخاطر بتعمية الناس لقضايا أكثر إلحاحًا تتعلق بالتنظيم والشفافية تحدق بهم مباشرة.

قال ويست لـ Gizmodo: “ما يجب أن نقلق بشأنه هو أن هذا النوع من الضجيج يمكن أن يبالغ في تقدير قدرات أنظمة الذكاء الاصطناعي ويصرف الانتباه عن الاهتمامات الملحة مثل الاعتماد العميق لهذه الموجة من الذكاء الاصطناعي على حفنة صغيرة من الشركات”. مقابلة. “ما لم يكن لدينا تدخل في السياسة ، فنحن نواجه عالماً يكون فيه مسار الذكاء الاصطناعي غير خاضع للمساءلة أمام الجمهور ، وتحدده حفنة من الشركات التي لديها الموارد لتطوير هذه الأدوات وتجربتها في البرية.”

وافق بندر وقال إن صناعة التكنولوجيا “بحاجة ماسة” إلى تنظيم ذكي بشأن قضايا مثل جمع البيانات واتخاذ القرار الآلي والمساءلة. بدلاً من ذلك ، أضاف بندر ، يبدو أن شركات مثل الذكاء الاصطناعي تبدو أكثر اهتمامًا بإبقاء صانعي السياسة منشغلين في تمزيق شعرهم بسبب “سيناريوهات يوم القيامة” التي تنطوي على الذكاء الاصطناعي الواعي.

قال بندر: “أعتقد أننا بحاجة إلى توضيح المساءلة”. “إذا وضع ChatGPT بعض غير المعلومات في العالم ، فمن المسؤول عن ذلك؟ تود شركة OpenAI أن تقول أنها ليست كذلك. أعتقد أن حكومتنا يمكن أن تقول خلاف ذلك “.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى