Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تقنية

تم اختبار تطبيق Koko للصحة العقلية ChatGPT على مستخدميه


رسم توضيحي لامرأة تتحدث إلى معالج آلي

توضيح: ProStockStudio (صراع الأسهم)

ال روبوت الدردشة بالذكاء الاصطناعي يمكن لـ ChatGPT القيام بالكثير من الأشياء. يمكن الرد على التغريداتو اكتب خيال علميخطة هذا المراسل الأسرةوهو حتى من المقرر أن العمل كمحام في المحكمة. ولكن يمكن للروبوت تقديم دعم آمن وفعال للصحة العقلية؟ قررت شركة تدعى كوكو معرفة ذلك استخدام الذكاء الاصطناعي للمساعدة في صياغة دعم الصحة العقلية لحوالي 4000 من مستخدميها في أكتوبر. كان مستخدمو Twitter ، وليس Koko ، غير راضين عن النتائج وحقيقة أن التجربة قد تمت على الإطلاق.

بصراحة ، سيكون هذا هو المستقبل. سنفكر أننا نتفاعل مع البشر ولا نعرف ما إذا كان هناك ذكاء اصطناعي متورط. كيف يؤثر ذلك على التواصل بين البشر؟ لدي تحديات الصحة العقلية الخاصة بي ، لذلك أريد حقًا أن أرى ذلك يتم بشكل صحيح “. قال المؤسس المشارك لشركة Koko ، روب موريس ، لـ Gizmodo في مقابلة.

يقول موريس أن الشق الشق كان كله سوء فهم.

ما كان يجب أن أحاول مناقشته على تويتر “.


كوكو هي خدمة للصحة العقلية من نظير إلى نظير تتيح للأشخاص طلب المشورة و الدعم من مستخدمين آخرين. في تجربة مختصرة ، سمحت الشركة للمستخدمين بإنشاء ردود تلقائية باستخدام “Koko Bot” – بدعم من OpenAI’s GPT-3 – والتي يمكن تحريرها أو إرسالها أو رفضها بعد ذلك. وفقا لموريس ، تلقت الرسائل المدعومة بالذكاء الاصطناعي التي تم إرسالها خلال الاختبار والتي يبلغ عددها 30 ألف رسالة استجابة إيجابية للغاية ، لكن الشركة أغلقت التجربة بعد بضعة أيام لأنها “شعرت بأنها عقيمة نوعًا ما”.

“عندما تتفاعل مع GPT-3 ، يمكنك البدء في التعرف على بعض القصص. كل شيء مكتوب بشكل جيد حقًا ، ولكنه نوع من الصيغة ، ويمكنك قراءته والتعرف على أنه مجرد روبوت وليس هناك فارق بسيط بين البشر ، “قال موريس لـ Gizmodo. هناك شيء ما حول الأصالة يضيع عندما يكون لديك هذه الأداة مثل أداة دعم للمساعدة في كتابتك ، لا سيما في هذا النوع من السياق. على منصتنا ، شعرت الرسائل بالتحسن بطريقة ما عندما شعرت بأنها مكتوبة بشكل أكبر من قبل الإنسان. “

نشر موريس موضوعًا على Twitter حول الاختبار مُنفّذ لم يفهم المستخدمون أن الذكاء الاصطناعي كان متورطًا في رعايتهم. هو وغرد أنه “بمجرد أن علم الناس أن الرسائل قد تم إنشاؤها بواسطة آلة ، فإنها لم تنجح”. أحدثت التغريدة ضجة على تويتر حول أخلاقيات شركة كوكو ابحاث.

“تم تصنيف الرسائل التي تم إنشاؤها بواسطة الذكاء الاصطناعي (والتي يشرف عليها البشر) بدرجة أعلى بكثير من تلك التي كتبها البشر بأنفسهم ،” موريس غرد. “انخفضت أوقات الاستجابة بنسبة 50٪ إلى أقل من دقيقة.”

قال موريس إن هذه الكلمات سببت سوء فهم: “الناس” في هذا السياق هم أنفسهم وفريقه ، وليسوا مستخدمين غير مقصودين. وقال إن مستخدمي Koko كانوا يعرفون أن الرسائل شارك في كتابتها روبوت ، ولم يكونوا يتحدثون مباشرة مع الذكاء الاصطناعي.

قال موريس: “تم شرح ذلك أثناء عملية الصعود على متن الطائرة”. وأضاف أنه عندما شاركت منظمة العفو الدولية ، تضمنت الردود إخلاء مسؤولية بأن الرسالة “كتبت بالتعاون مع كوكو بوت”..

ومع ذلك ، تثير التجربة أسئلة أخلاقية ، بما في ذلك الشكوك حول مدى جودة إبلاغ Koko للمستخدمين ، ومخاطر اختبار تقنية غير مثبتة في بيئة رعاية صحية حية ، حتى في بيئة نظير إلى نظير.

في السياقات الأكاديمية أو الطبية ، من غير القانوني إجراء تجارب علمية أو طبية على البشر دون موافقتهم المستنيرة ، والتي تتضمن تزويد الأشخاص الخاضعين للاختبار بتفاصيل شاملة حول الأضرار والفوائد المحتملة للمشاركة. تطلب إدارة الغذاء والدواء من الأطباء والعلماء إجراء دراسات من خلال مجلس المراجعة المؤسسية (IRB) الذي يهدف إلى ضمان السلامة قبل بدء أي اختبارات.

لكن الانفجار في خدمات الصحة العقلية عبر الإنترنت التي تقدمها الشركات الخاصة أوجد منطقة رمادية قانونية وأخلاقية. في شركة خاصة تقدم دعمًا للصحة العقلية خارج إطار طبي رسمي ، يمكنك بشكل أساسي أن تفعل ما تريد لعملائك. لم تكن تجربة Koko بحاجة إلى موافقة IRB أو لم تحصل عليها.

قال جون توروس ، العضو المنتدب ، مدير القسم: “من منظور أخلاقي ، في أي وقت تستخدم فيه التكنولوجيا خارج ما يمكن اعتباره معيارًا للرعاية ، فأنت تريد أن تكون حذرًا للغاية وأن تكشف بشكل مفرط عما تفعله” الطب النفسي الرقمي في مركز Beth Israel Deaconess الطبي في بوسطن. “الأشخاص الذين يسعون للحصول على دعم الصحة العقلية هم في حالة ضعف ، خاصة عندما يسعون للحصول على خدمات الطوارئ أو خدمات الأقران. إنهم سكان لا نريد أن نبخل بالحماية “.

قال توروس إن دعم الصحة العقلية للأقران يمكن أن يكون فعالًا للغاية عندما يخضع الأشخاص للتدريب المناسب. قال Torous إن أنظمة مثل Koko تتبع نهجًا جديدًا لرعاية الصحة العقلية يمكن أن يكون لها فوائد حقيقية ، لكن المستخدمين لا يحصلون على هذا التدريب ، وهذه الخدمات لم يتم اختبارها في الأساس. ابمجرد أن يتدخل الذكاء الاصطناعي ، تتضخم المشاكل أكثر.

“عندما تتحدث إلى ChatGPT ، فإنها تخبرك” من فضلك لا تستخدم هذا للحصول على المشورة الطبية. ” لم يتم اختباره للاستخدامات في مجال الرعاية الصحية ، ومن الواضح أنه يمكن أن يقدم نصيحة غير مناسبة أو غير فعالة “.

لا تضمن القواعد واللوائح المتعلقة بالبحث الأكاديمي السلامة فقط. كما أنها تضع معايير لمشاركة البيانات والتواصل ، مما يسمح للتجارب بالبناء على بعضها البعض ، مما يخلق مجموعة متزايدة من المعرفة. قال توروس إنه في صناعة الصحة العقلية الرقمية ، غالبًا ما يتم تجاهل هذه المعايير. تميل التجارب الفاشلة إلى عدم نشرها ، ويمكن للشركات أن تكون حذرة بشأن أبحاثها. قال توروس ، إنه لأمر مخز ، لأن العديد من التدخلات التي تديرها شركات تطبيقات الصحة العقلية يمكن أن تكون مفيدة.

أقر موريس بأن العمل خارج عملية المراجعة التجريبية الرسمية لمجلس المراجعة الداخلية ينطوي على مقايضة. قال موريس: “ما إذا كان هذا النوع من العمل ، خارج الأوساط الأكاديمية ، يجب أن يمر عبر عمليات IRB هو سؤال مهم ولا ينبغي أن أحاول مناقشته على Twitter”. “يجب أن يكون هذا نقاشًا أوسع داخل الصناعة ونريد أن نكون جزءًا منه.”

قال موريس إن الجدل مثير للسخرية لأن قال هو انتقل إلى Twitter في المقام الأول لأنه أراد أن يكون شفافًا قدر الإمكان. “كنا نحاول حقًا أن نكون مستعدين للتكنولوجيا وأن نكشف عنها من أجل مساعدة الناس على التفكير مليًا في الأمر” ، قال.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى