Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تقنية

مقالات CNET المكتوبة بالذكاء الاصطناعي مليئة بالأخطاء


بصرف النظر عن تجميع جمل اللغة الإنجليزية السائلة الشبيهة بالبشر معًا ، فهي إحدى جمل ChatGPT أكبر مجموعات المهارات يبدو أن الأمور خاطئة. في السعي لتوليد فقرات يمكن تمريرها ، برنامج الذكاء الاصطناعي يختلق المعلومات و حقائق عن الأخطاء مثل عمل لا أحد. لسوء الحظ ، قررت شركة CNET التكنولوجية أن تجعلها أعمالًا تجارية.

اضطر موقع الوسائط التقنية إلى إصدار تصحيحات رئيسية متعددة على منشور منشور على CNET ، تم إنشاؤه عبر ChatGPT ، مثل ذكرت لأول مرة من فيوتشرزم. في واحد الشرح المكتوب بالذكاء الاصطناعي فيما يتعلق بالفائدة المركبة ، كان هناك ما لا يقل عن خمسة أخطاء كبيرة تم تعديلها الآن. كانت الأخطاء على النحو التالي ، وفقًا لتصحيح CNET الضخم:

  • أشارت المقالة إلى أن حساب التوفير الذي يحتوي في البداية على 10000 دولار مع معدل فائدة 3 ٪ ، يتراكم سنويًا ، سيحقق فائدة قدرها 10300 دولار بعد عام. الفائدة الحقيقية المكتسبة ستصل إلى 300 دولار.
  • ظهر خطأ مشابه لما سبق في المثال الثاني ، بناءً على الأول.
  • ذكرت المنشور بشكل غير صحيح أن الفائدة على حسابات CD لسنة واحدة تتضاعف سنويًا فقط. في الواقع: تتراكم حسابات الأقراص المدمجة بترددات متغيرة.
  • المقال الخاطئ حما هو المبلغ الذي يتعين على الشخص دفعه على قرض السيارة بمعدل فائدة 4٪ على مدى خمس سنوات.
  • لقد خلط المنشور الأصلي بشكل غير صحيح بين APR و APY ، وقدم نصيحة سيئة وفقًا لذلك.

لأكثر من شهرين ، كان CNET ضخ البؤر الاستيطانية تم إنشاؤها بواسطة ChatGPT. نشر الموقع 78 من هذه المقالات في المجموع ، تصل إلى 12 في يوم واحد (اعتبارًا من 11 نوفمبر 2022) ، في الأصل تحت عنوان “CNET Money Staff” ، والآن فقط “CNET Money”. في البداية ، بدا أن المنفذ حريصًا على جعل تأليف الذكاء الاصطناعي الخاص به بعيدًا عن الرادار ، مما يكشف عن عدم وجود كاتب بشري إلا في وصف غامض من خلال سطر جانبي على صفحة “المؤلف” الخاصة بالروبوت. ثم، مستقبلية ووسائل الإعلام الأخرى التي اشتعلت. يتبع الناقد. كتب رئيس تحرير CNET ، كوني غولييلمو تصريح حوله.

ومثلما جاء اعتراف المنفذ العلني باستخدامه للذكاء الاصطناعي بعد انتقادات واسعة النطاق فقط ، لم تحدد CNET ولم تهدف إلى إصلاح كل هذه الأخطاء التي لوحظت يوم الثلاثاء ، كل ذلك من تلقاء نفسه. جاء تصحيح المنفذ الإعلامي فقط بعد أن نبهت فيوتشرزم CNET مباشرة إلى بعض الأخطاء ، حسبما أفادت فيوتشرزم.

سي نت ادعى أن جميع المقالات التي تم إنشاؤها بواسطة الذكاء الاصطناعي تتم “مراجعة وفحص الحقائق وتحريرها” بواسطة موظفين بشريين حقيقيين. وكل منشور له اسم محرر مرفق به في العنوان الثانوي. لكن من الواضح أن هذا الإشراف المزعوم لا يكفي لإيقاف ChatGPT ولدت العديد من الأخطاء من الانزلاق عبر الشقوق.

عندما يقترب المحرر من مقال (لا سيما الشرح الأساسي مثل “ما هي الفائدة المركبة”) ، فمن الآمن أن نفترض أن الكاتب قد بذل قصارى جهده عادة لتقديم معلومات دقيقة. لكن مع الذكاء الاصطناعي ، لا يوجد محتوى ، فقط المنتج. لا يمكن للمحرر الذي يقيم نصًا تم إنشاؤه بواسطة الذكاء الاصطناعي أن يتحمل أي شيء ، وبدلاً من ذلك عليه أن يأخذ بعين الاعتبار الدقيق والنقد لكل عبارة وعالم وعلامة ترقيم. إنها مهمة من نوع مختلف عن تحرير شخص ما ، وقد لا يكون شخص واحد مجهزًا جيدًا ، مع الأخذ في الاعتبار درجة الاهتمام الكامل الذي يجب أن يتخذه ، ويبدو أن حجم CNET الهائل يهدف إلى تحقيقه من خلال القصص التي تنتجها ChatGPT.

من السهل أن نفهم (وإن لم يكن ذلك مبررًا) أنه عند غربلة أكوام المنشورات التي تم إنشاؤها بواسطة الذكاء الاصطناعي ، يمكن أن يخطئ المحرر في خطأ حول طبيعة أسعار الفائدة بين سلسلة البيانات التي تبدو موثوقة. عندما يتم الاستعانة بمصادر خارجية للكتابة للذكاء الاصطناعي ، ينتهي الأمر بالمحررين إلى تحمل العبء ، ويبدو فشلهم أمرًا لا مفر منه.

ومن شبه المؤكد أن الإخفاقات لا تقتصر فقط على مقال واحد. تأتي جميع مقالات CNET المكتوبة بالذكاء الاصطناعي تقريبًا مع “ملاحظة المحررين” في الجزء العلوي والتي تقول ، “نحن نراجع حاليًا هذه القصة للتأكد من دقتها. إذا وجدنا أخطاء ، فسنقوم بتحديث وإصدار تصحيحات” ، مما يشير إلى أن المنفذ لديه أدركت عدم كفاية عملية التحرير الأولية الخاصة بها. تواصلت Gizmodo مع CNET للحصول على مزيد من التوضيح حول ما تعنيه عملية المراجعة الثانوية هذه. (هل ستتم إعادة قراءة كل قصة للتأكد من دقتها من قبل نفس المحرر؟ محرر مختلف؟ مدقق حقائق لمنظمة العفو الدولية؟) ومع ذلك ، لم يستجب CNET على الفور.

بالنظر إلى الاحتمالية الكبيرة الواضحة للأخطاء التي يولدها الذكاء الاصطناعي، قد يتساءل المرء عن سبب تحول CNET بعيدًا عن البشر إلى الروبوتات. المنافذ الصحفية الأخرى ، مثل وكالة انباء، استخدم أيضًا الذكاء الاصطناعي – ولكن فقط في سياقات محدودة للغاية ، مثل ملء المعلومات في قوالب محددة مسبقًا. وفي هذه الأماكن الضيقة ، يبدو أن استخدام الذكاء الاصطناعي يهدف إلى تحرير الصحفيين للقيام بأعمال أخرى ، أكثر جدارة بوقتهم. لكن تطبيق CNET للتكنولوجيا يختلف بشكل واضح من حيث النطاق والهدف.

كل المقالات المنشورة تحت عنوان “CNET Money” هي تفسيرات عامة للغاية مع أسئلة بلغة واضحة كعناوين رئيسية. من الواضح أنها مُحسَّنة للاستفادة من خوارزميات البحث في Google ، وينتهي بها الأمر في أعلى صفحات نتائج الأشخاص – مما يؤدي إلى إغراق المحتوى الحالي و التقاط النقرات. CNET ، مثل Gizmodo والعديد من مواقع الوسائط الرقمية الأخرى ، تحقق عائدًا من الإعلانات على صفحاتها. كلما زاد عدد النقرات ، زاد المال الذي يدفعه المعلن مقابل لوحة (لوحات) الإعلانات الرقمية المصغرة.

من منظور مالي ، لا يمكنك التغلب على الذكاء الاصطناعي: لا توجد تكاليف عامة ولا يوجد حد بشري لمقدار ما يمكن إنتاجه في يوم واحد. لكن من وجهة نظر صحفيةالنقطة ، يعد إنشاء الذكاء الاصطناعي أزمة تلوح في الأفق ، حيث تصبح الدقة ثانوية تمامًا بالنسبة لتحسين محركات البحث والحجم. لا تحفز الإيرادات المستندة إلى النقرات على إعداد تقارير شاملة أو شرح جيد. وفي عالم تصبح فيه منشورات الذكاء الاصطناعي قاعدة مقبولة ، لن يعرف الكمبيوتر سوى كيفية مكافأة نفسه.


اكتشاف المزيد من إشراق التقنية

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من إشراق التقنية

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading