Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار التقنية

يتكيف الذكاء الاصطناعي المدرك اجتماعيًا عن طريق طرح أسئلة على البشر


انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح.. يتعلم أكثر


بقدر ما أصبح عملاء الذكاء الاصطناعي جيدًا ، لا يزالون إلى حد كبير بنفس جودة البيانات التي تم تدريبهم عليها. إنهم لا يعرفون ما لا يعرفون.

في العالم الواقعي ، يتكيف الأشخاص الذين يواجهون مواقف غير مألوفة ومحيطهم من خلال مشاهدة ما يفعله الآخرون من حولهم وطرح الأسئلة. عندما تكون في روما ، كما يقولون. يسمي الخبراء في علم النفس التربوي هذا “التعلم القائم على الوضع الاجتماعي”.

حتى الآن ، يفتقر وكلاء الذكاء الاصطناعي إلى هذه القدرة على التعلم أثناء التنقل ، لكن الباحثين في جامعة ستانفورد أعلنوا مؤخرًا أنهم طوروا وكلاء للذكاء الاصطناعي لديهم القدرة على البحث عن معرفة جديدة من خلال طرح أسئلة على الأشخاص.

قال رانجاي كريشنا ، المؤلف الأول لدراسة حديثة في المجلة: “لقد أنشأنا وكيلًا ينظر إلى الصور ويتعلم طرح أسئلة حول اللغة الطبيعية عنها لتوسيع معرفته إلى ما وراء مجموعات البيانات التي تم تدريبها عليها في الأصل”. وقائع الأكاديمية الوطنية للعلوم.

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

حصل كريشنا على الدكتوراه من جامعة ستانفورد وهو الآن عضو هيئة تدريس في جامعة واشنطن.

وعي خارق

يجمع النهج الجديد بين جوانب رؤية الكمبيوتر والعلوم الإدراكية والسلوكية للإنسان لأخذ التعلم الآلي (ML) في اتجاه جديد. يسمونه “ذكاء اصطناعي ذو موقع اجتماعي”.

اقرأ الدراسة الكاملة ، “الذكاء الاصطناعي القائم اجتماعياً يتيح التعلم من التفاعل البشري.”

المثير في الأمر أنه عندما يكون الناس غير راغبين أو غير مهتمين بالرد على أسئلة الذكاء الاصطناعي ، والتي قد تبدو غالبًا بسيطة أو عادية ، فإن الذكاء الاصطناعي يتكيف.

على سبيل المثال ، عند تحليل صورة لشخص وحيوان رباعي الأرجل غير مألوف ، قد تسأل الخوارزمية أولاً ، “ما نوع هذا الحيوان؟” قد ينتج عن ذلك إجابات ساخرة أو ساخرة (“هذا إنسان”). أو ، الأسوأ من ذلك ، قد لا تحصل على إجابة على الإطلاق. بدلاً من ذلك ، قد تسأل الخوارزمية ، “هل هذا كلب أراه؟” من المرجح أن يؤدي طرح السؤال بهذه الطريقة إلى الحصول على إجابة صادقة: “لا ، هذا غزال.”

قال كريشنا: “بقدر ما نود أن نعتقد أن الناس مستجيبون جادون ، وعلى استعداد للإجابة على أي سؤال قد يطرحه الذكاء الاصطناعي ، فإنهم غالبًا لا يفعلون ذلك”. “يستشعر وكيلنا هذا ويغير أسئلته بناءً على ملاحظاته الواعية اجتماعيًا للأسئلة التي سيجيب عليها الناس ولن يجيبوا عليها.”

يحقق الوكيل الجديد عدة أهداف في وقت واحد. أولاً ، بالطبع ، يتعلم مفاهيم بصرية جديدة ، وهذا هو الهدف الرئيسي. لكن ، ثانيًا ، يتعلم أيضًا قراءة الأعراف الاجتماعية. بالإضافة إلى ذلك ، يلاحظ كريشنا ، أن هناك تأثيرًا تراكميًا. بعد طرح الأسئلة وتعلم معلومات جديدة ، يعيد الذكاء الاصطناعي تدريب نفسه. في المرة القادمة ، يطرح أسئلة مختلفة لأنه تعلم المزيد من الأشياء عن العالم.

قال كريشنا: “لا يوجد سوى العديد من الطرق التي يمكنك من خلالها وصف الطاولة”. “قد لا يرغب شخص ما في الإجابة عن الأسئلة التي يُنظر إليها على أنها خادعة أو غير منطقية أو مجرد مملة لأسباب مفهومة. لكن الوكيل يتغلب على تلك التحديات بأسئلة ذكية تصبح أكثر تعقيدًا مع تعلم الوكيل “.

اختبار الفرضية

لاختبار نهجهم ، انخرط فريق البحث – بما في ذلك مستشاري كريشنا للدكتوراه ستانفورد هاي المدير المشارك فاي فاي لي ومايكل بيرنشتاين ، أساتذة في قسم علوم الكمبيوتر في ستانفورد ، في تجربة لمدة ثمانية أشهر حيث شاهدت خوارزميتهم الصور المنشورة على التصوير الفوتوغرافي . منصة تواصل اجتماعي مقرها وطرح أسئلة على حوالي 236000 شخص ، العديد منهم من المصورين أنفسهم.

على مدار التجربة ، ضاعفت الخوارزمية الجديدة قدرتها على التعرف على المعلومات المرئية الجديدة في الصور التي نشرها مراسلوها البشريون بأكثر من الضعف.

إمكانات الذكاء الاصطناعي الاجتماعي

يعتقد الباحثون أن الذكاء الاصطناعي ذو الوضع الاجتماعي يمكنه التغلب على القيود المفروضة على كيفية تعلم الذكاء الاصطناعي ودفع عملية جمع المعلومات في اتجاهات جديدة. يعتقد الباحثون أن هذا النهج يخلق فرصًا لوكلاء الذكاء الاصطناعي القادرين على التعرف على سلوكياتهم المعادية للمجتمع وتكييف الأسئلة بسرعة لتجنب تلك الخاصية البشرية للغاية: الملل.

“يمتلك الوكيل عملية تعلم تكرارية حيث يستخدم من حين لآخر كل المحتوى الجديد الذي شاهده ويعيد تدريب نفسه حتى يطرح أسئلة مختلفة في المرة القادمة بناءً على الأشياء التي تعلمها عن العالم.” قال كريشنا. “بينما يتعلم طرح أسئلة أفضل ، يظل المستجيبون البشريون مشاركين.”

والأهم من ذلك ، أنه يسمح للذكاء الاصطناعي بتعلم معلومات جديدة بخلاف مجموعات البيانات التي تم تدريبه عليها في الأصل. لا تختلف أساليب التدريب الحالية عن قفل الوكيل في غرفة بها كومة من الكتب ، كما لاحظ المؤلفون في ورقتهم. بمجرد تعلم هذه الصفحات ، يجب اتخاذ جميع القرارات المستقبلية فقط باستخدام المعلومات المستقاة من تلك الكتب ولا شيء آخر.

ومما يزيد الأمور تعقيدًا ، أن أيًا من الكتب التي يُعطى الذكاء الاصطناعي للتدريب عليها يجب أولاً أن يعلق عليها الناس – وهي عملية تُعرف في الذكاء الاصطناعي باسم “التصنيف”. أي أنه يجب على المعلقين من البشر إخبار الذكاء الاصطناعي بما يراه قبل أن يتمكن الذكاء الاصطناعي من تعلم الرؤية. لسوء الحظ ، يُعد جعل المعلقين التوضيحيين يصنفون المحتوى الروتيني تحديًا. وبدون هذا التصنيف ، لا يمكن للذكاء الاصطناعي التعلم.

طرح أسئلة ظرفية

بدلاً من مطالبة المعلقين بتسمية البيانات ، فإن الوكلاء الذين يمكنهم التعلم اجتماعيًا من خلال طرح أسئلة حول مواقفهم هم أكثر عرضة للحصول على ردود مفيدة من الناس.

يحقق الوكيل الجديد وضع العلامات بشكل فعال من خلال طرح الأسئلة ، وعندما يشعر بالتردد من جانب المراسلين البشريين ، فإنه يتعلم طرح الأسئلة بطرق جديدة للحصول على إجابات جادة وصادقة.

هناك بعض المخاطر المحتملة أيضًا. يشير الباحثون إلى موقع Tay التابع لمايكروسوفت – وهو وكيل مشابه تم نشره على Twitter والذي سرعان ما بدأ في نشر تغريدات معادية للمجتمع تم تعلمه من تفاعلاته مع الناس – وأكدوا أن هذا الذكاء الاصطناعي ذو الوضع الاجتماعي لا يعاني من نفس المشكلات.

لا يبدأ المستخدمون التفاعلات ، وبالتالي لا يمكنهم تنسيق الهجمات على الوكيل. يقرر الوكيل مع من يتفاعل ويطرح أسئلة مثيرة للاهتمام للتحكم في ما يتعلمه. أجرى المؤلفون أيضًا تجارب لدراسة كيف ينبغي للذكاء الاصطناعي تقديم أنفسهم للناس للحصول على ردود مفيدة وتجنب “التصيد”. بغض النظر ، يقول كريشنا إنه لا يزال هناك الكثير من الأبحاث التي يتعين القيام بها لحساب التحيزات التي قد تتعلمها أنظمة الذكاء الاصطناعي من الناس ولتخفيف المخاطر التي قد تنتج عنها تلك التحيزات المكتسبة.

تتطور لمواقف العالم الحقيقي

في الوقت الحالي ، يعمل الإصدار الحالي للوكيل رقميًا على وسائل التواصل الاجتماعي. تتمثل الخطوة التالية لكريشنا في نقل هذا النهج إلى مواقف العالم الحقيقي حيث قد يصحح الشخص الروبوتات أثناء الطيران عندما يراها ترتكب خطأ. ويتوقع يومًا يكون فيه الناس قادرين على تعليم الروبوتات ، في منازلهم ، لإنجاز مهام جديدة تجعل حياتهم أسهل.

تشمل التطبيقات المحتملة الأخرى الرعاية الصحية ، حيث قد تطلب الروبوتات من مقدمي الخدمة توضيح إجراءاتهم الطبية ، والتقنيات التي تعدل واجهاتهم بناءً على تعليقات المستخدم المباشرة ، والوكلاء المدركين ثقافيًا الذين يمكنهم التعلم من مجتمعات متنوعة لتحسين التعلم.

قال كريشنا عن خطواته التالية: “سأكون مهتمًا بالانتقال إلى العالم المادي حيث يتفاعل الناس مع الروبوتات لحملهم على حل مهام جديدة”. أو ، إذا رأيت أن الذكاء الاصطناعي الخاص بك يرتكب خطأً ، فيجب أن يكون الأشخاص قادرين على تقديم ملاحظات بسرعة وتصحيحها على الفور.

أندرو مايرز كاتب مساهم في معهد ستانفورد للذكاء الاصطناعي الذي يركز على الإنسان.

ظهرت هذه القصة في الأصل على Hai.stanford.edu. حقوق الطبع والنشر 2023

صانعي القرار

مرحبًا بك في مجتمع VentureBeat!

DataDecisionMakers هو المكان الذي يمكن للخبراء ، بما في ذلك الأشخاص الفنيون الذين يقومون بعمل البيانات ، مشاركة الأفكار والابتكارات المتعلقة بالبيانات.

إذا كنت تريد أن تقرأ عن الأفكار المتطورة والمعلومات المحدثة ، وأفضل الممارسات ، ومستقبل البيانات وتكنولوجيا البيانات ، انضم إلينا في DataDecisionMakers.

يمكنك حتى التفكير في المساهمة بمقال خاص بك!

قراءة المزيد من DataDecisionMakers

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى