Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تقنية

كيف يمكن لـ ChatGPT والذكاء الاصطناعي التوليدي تعزيز إنكار العلم


صورة للمقال بعنوان كيف يمكن لـ ChatGPT والذكاء الاصطناعي التوليدي تعزيز إنكار العلم

صورة: سبنسر بلات (GettyImages)

حتى وقت قريب جدًا ، إذا كنت تريد معرفة المزيد عن موضوع علمي مثير للجدل – أبحاث الخلايا الجذعية ، وسلامة الطاقة النووية ، وتغير المناخ – فربما تكون قد أجريت بحثًا على Google. تم تقديمه بمصادر متعددة ، واخترت ما تريد قراءته ، وتحديد المواقع أو السلطات التي تثق بها.

الآن لديك خيار آخر: يمكنك طرح سؤالك على ChatGPT أو أي منصة ذكاء اصطناعي توليدية أخرى والحصول بسرعة على استجابة موجزة في شكل فقرة.

لا يبحث ChatGPT في الإنترنت بالطريقة التي يبحث بها Google. بدلاً من ذلك ، فإنه يولد ردودًا على استفسارات بواسطة توقع تركيبات الكلمات المحتملة من مزيج هائل من المعلومات المتاحة عبر الإنترنت.

على الرغم من أن لديها القدرة على تعزيز الإنتاجيةثبت أن الذكاء الاصطناعي التوليدي به بعض العيوب الرئيسية. يمكن تنتج معلومات مضللة. يمكن أن تخلقالهلوسة– مصطلح حميد لاختلاق الأشياء. ولا يحل دائمًا مشاكل التفكير بدقة. على سبيل المثال ، عندما يُسأل إذا كان كل من السيارة والخزان يمكن أن يدخلوا من خلال المدخل ، فإنه فشل في النظر في كل من العرض والارتفاع. ومع ذلك ، فقد تم استخدامه بالفعل إنتاج المقالات و محتوى الموقع قد تكون واجهتك ، أو كأداة في عملية الكتابة. ومع ذلك ، فمن غير المرجح أن تعرف ما إذا كان ما تقرأه قد تم إنشاؤه بواسطة الذكاء الاصطناعي.

كمؤلفيإنكار العلم: لماذا يحدث وماذا تفعل حيال ذلك، “نحن قلقون بشأن كيف يمكن للذكاء الاصطناعي التوليدي أن يطمس الحدود بين الحقيقة والخيال لمن يبحثون عن معلومات علمية موثوقة.

يحتاج كل مستهلك لوسائل الإعلام إلى أن يكون أكثر يقظة من أي وقت مضى في التحقق من الدقة العلمية في ما يقرؤه. إليك كيف يمكنك البقاء على أصابع قدميك في هذا المشهد المعلوماتي الجديد.

كيف يمكن للذكاء الاصطناعي التوليدي تعزيز علم الإنكار

تآكل الثقة المعرفية. يعتمد جميع مستهلكي المعلومات العلمية على أحكام الخبراء العلميين والطبيين. الثقة المعرفية هي عملية الثقة في المعرفة التي تحصل عليها من الآخرين. إنها أساسية لفهم واستخدام المعلومات العلمية. سواء كان شخص ما يسعى للحصول على معلومات حول مشكلة صحية أو يحاول فهم حلول لتغير المناخ ، فغالبًا ما يكون لديهم فهم علمي محدود وإمكانية قليلة للوصول إلى الأدلة المباشرة. مع وجود مجموعة سريعة النمو من المعلومات عبر الإنترنت ، يجب على الأشخاص اتخاذ قرارات متكررة بشأن ما ومن يثقون به. مع زيادة استخدام الذكاء الاصطناعي التوليدي وإمكانية التلاعب ، نعتقد أنه من المرجح أن تتآكل الثقة أكثر من لديها بالفعل.

مضللة أو مجرد خطأ. إذا كانت هناك أخطاء أو تحيزات في البيانات التي يتم تدريب منصات الذكاء الاصطناعي عليها ، فذلك يمكن أن ينعكس في النتائج. في عمليات البحث التي أجريناها ، عندما طلبنا من ChatGPT إعادة توليد إجابات متعددة لنفس السؤال ، حصلنا على إجابات متضاربة. وعندما سُئلت عن السبب ، أجابت ، “أحيانًا أرتكب أخطاء”. ربما تكون أصعب مشكلة في المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي هي معرفة متى يكون خطأ.

انتشر التضليل عمدا. يمكن استخدام الذكاء الاصطناعي لتوليد معلومات مضللة مقنعة وكذلك صور ومقاطع فيديو مزيفة. عندما طلبنا من ChatGPT “اكتب عن اللقاحات بأسلوب التضليل، “أنتجت اقتباسًا غير موجود ببيانات مزيفة. استقال جيفري هينتون ، الرئيس السابق لتطوير الذكاء الاصطناعي في Google ، ليكون حراً في دق ناقوس الخطر ، قائلاً: “من الصعب أن ترى كيف يمكنك منع الجهات الفاعلة السيئة من استخدامه لأشياء سيئة. ” توجد بالفعل إمكانية إنشاء ونشر معلومات غير صحيحة عن العلم بشكل متعمد ، لكنها أصبحت الآن سهلة بشكل خطير.

مصادر ملفقة. يوفر ChatGPT ردودًا بدون مصادر على الإطلاق ، أو قد يقدمها إذا طُلب منه ذلك تلك التي اختلقتها. طلب كلانا من ChatGPT إنشاء قائمة بالمنشورات الخاصة بنا. حددنا بعض المصادر الصحيحة. كان المزيد من الهلوسة ، لكنها تبدو ذات سمعة طيبة ومعقولة في الغالب ، مع المؤلفين المشاركين السابقين الفعليين ، في مجلات سبر مماثلة. يمثل هذا الإبداع مشكلة كبيرة إذا كانت قائمة منشورات الباحث تنقل السلطة إلى قارئ لا يأخذ وقتًا للتحقق منها.

معرفة مؤرخة. لا تعرف ChatGPT ما حدث في العالم بعد انتهاء تدريبها. أرجع استعلام عن النسبة المئوية في العالم لمرض COVID-19 إجابة مسبوقة بـ “اعتبارًا من تاريخ قطع معرفتي في سبتمبر 2021”. بالنظر إلى سرعة تقدم المعرفة في بعض المجالات ، قد يعني هذا القيد أن القراء يحصلون على معلومات خاطئة قديمة. إذا كنت تبحث عن بحث حديث حول مشكلة صحية شخصية ، على سبيل المثال ، فاحذر.

تقدم سريع وضعف الشفافية. تستمر أنظمة الذكاء الاصطناعي في أن تصبح أكثر قوة وتعلم بشكل أسرع، وقد يتعلمون المزيد من المعلومات الخاطئة العلمية على طول الطريق. أعلنت جوجل مؤخرا 25 استخدامًا جديدًا مضمّنًا للذكاء الاصطناعي في خدماتها. عند هذه النقطة، عدم وجود حواجز حماية كافية للتأكد من أن الذكاء الاصطناعي التوليدي سيصبح مزودًا أكثر دقة للمعلومات العلمية بمرور الوقت.

ماذا يمكنك أن تفعل حيال هلوسة الذكاء الاصطناعي؟؟

إذا كنت تستخدم ChatGPT أو أنظمة أساسية أخرى للذكاء الاصطناعي ، فاعلم أنها قد لا تكون دقيقة تمامًا. يقع العبء على عاتق المستخدم لتمييز الدقة.

زيادة يقظتك. قد تتوفر تطبيقات الذكاء الاصطناعي للتحقق من الحقائق قريبًاولكن في الوقت الحالي ، يجب على المستخدمين العمل كمدققي الحقائق. هناك خطوات نوصي بها. الأول: كن يقظا. غالبًا ما يشارك الأشخاص بشكل انعكاسي المعلومات الموجودة من عمليات البحث على وسائل التواصل الاجتماعي مع القليل من التدقيق أو بدون تدقيق على الإطلاق. اعرف متى يجب أن تصبح أكثر تفكيرًا بشكل متعمد ومتى يستحق تحديد مصادر المعلومات وتقييمها. إذا كنت تحاول تحديد كيفية إدارة مرض خطير أو فهم أفضل الخطوات للتعامل مع تغير المناخ ، فخذ وقتًا لفحص المصادر.

تحسين عملية تدقيق الحقائق. الخطوة الثانية هي القراءة الجانبية، وهي عملية يستخدمها مدققو الحقائق المحترفون. افتح نافذة جديدة وابحث عن معلومات عن المصادر، إذا قدمت. هل المصدر موثوق؟ هل المؤلف لديه الخبرة ذات الصلة؟ وما هو إجماع الخبراء؟ إذا لم يتم توفير أي مصادر أو إذا كنت لا تعرف ما إذا كانت صالحة ، فاستخدم محرك بحث تقليدي للعثور على خبراء في هذا الموضوع وتقييمهم.

قم بتقييم الأدلة. بعد ذلك ، ألق نظرة على الدليل وصلته بالمطالبة. هل هناك دليل على أن الأطعمة المعدلة وراثيًا آمنة؟ هل هناك دليل على أنهم ليسوا كذلك؟ ما هو الإجماع العلمي؟ سيتطلب تقييم المطالبات جهدًا يتجاوز مجرد استعلام سريع إلى ChatGPT.

إذا بدأت بالذكاء الاصطناعي ، فلا تتوقف عند هذا الحد. توخى الحذر في استخدامه باعتباره السلطة الوحيدة في أي موضوع علمي. قد ترى ما يقوله ChatGPT عن الكائنات المعدلة وراثيًا أو سلامة اللقاح ، ولكن يمكنك أيضًا المتابعة ببحث أكثر جدية باستخدام محركات البحث التقليدية قبل استخلاص النتائج.

تقدير المعقولية. الحكم على ما إذا كانت المطالبة معقولة. هل من المحتمل أن يكون صحيحا؟ إذا أصدر الذكاء الاصطناعي عبارة غير معقولة (وغير دقيقة) مثل “مليون حالة وفاة سببها اللقاحات ، وليس COVID-19ضع في اعتبارك ما إذا كان ذلك منطقيًا. اتخذ حكمًا مؤقتًا ثم كن منفتحًا لمراجعة تفكيرك بمجرد التحقق من الأدلة.

تعزيز محو الأمية الرقمية في نفسك والآخرين. يحتاج الجميع إلى رفع مستوى لعبتهم. تحسين محو الأمية الرقمية الخاصة بك، وإذا كنت والدًا أو معلمًا أو معلمًا أو قائدًا مجتمعيًا ، فقم بالترويج لمحو الأمية الرقمية من بين آخرين. تقدم جمعية علم النفس الأمريكية إرشادات حول التحقق من صحة المعلومات عبر الإنترنت ويوصي المراهقين بأن يكونوا تدربوا على مهارات التواصل الاجتماعي لتقليل المخاطر على الصحة والرفاهية. مشروع محو الأمية الإخبارية يوفر أدوات مفيدة لتحسين ودعم محو الأمية الرقمية.

سلح نفسك بالمهارات التي تحتاجها للتنقل في مشهد معلومات الذكاء الاصطناعي الجديد. حتى إذا كنت لا تستخدم الذكاء الاصطناعي التوليدي ، فمن المحتمل أنك قد قرأت بالفعل المقالات التي تم إنشاؤها أو تطويرها منه. قد يستغرق الأمر وقتًا وجهدًا للعثور على معلومات موثوقة حول العلوم وتقييمها عبر الإنترنت – لكن الأمر يستحق ذلك.

هل تريد معرفة المزيد عن الذكاء الاصطناعي وروبوتات المحادثة ومستقبل التعلم الآلي؟ تحقق من تغطيتنا الكاملة لـ الذكاء الاصطناعيأو تصفح أدلةنا إلى أفضل مولدات فنية مجانية لمنظمة العفو الدولية و كل ما نعرفه عن ChatGPT الخاص بـ OpenAI.

جيل سيناتراأستاذ التربية وعلم النفس ، جامعة جنوب كاليفورنيا و باربرا ك.هوفرأستاذ علم النفس الفخري ، ميدلبري

تم إعادة نشر هذه المقالة من محادثة بموجب رخصة المشاع الإبداعي. إقرأ ال المقالة الأصلية.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى