تقنية

رئيس قسم السلامة السابق في Google ، أرجون نارايان ، يناقش الأخبار المكتوبة بواسطة الذكاء الاصطناعي


في غضون أشهر قليلة ، تطورت فكرة المقالات الإخبارية المقنعة المكتوبة بالكامل بواسطة أجهزة الكمبيوتر من العبثية المتصورة إلى حقيقة بالفعل يربك بعض القراء. الآن ، الكتاب والمحررين و صانعي السياسات يسعون جاهدين لتطوير معايير للحفاظ على الثقة في عالم يظهر فيه النص الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي بشكل متزايد مبعثرًا في موجز الأخبار.

المنشورات التقنية الكبرى مثل CNET كانت موجودة بالفعل تم القبض عليهم بأيديهم في وعاء ملفات تعريف الارتباط التوليدي AI واضطررنا إلى إصدار تصحيحات للمقالات المكتوبة بواسطة روبوتات الدردشة على غرار ChatGPT ، والتي تكون عرضة للأخطاء الواقعية. المؤسسات الرئيسية الأخرى ، مثل من الداخل ، يستكشف استخدام الذكاء الاصطناعي في المقالات الإخبارية مع مزيد من ضبط النفس بشكل ملحوظ ، على الأقل في الوقت الحالي. على الطرف الأكثر ديستوبيا من الطيف ، جودة منخفضة تستخدم مزارع المحتوى بالفعل روبوتات المحادثة لإخراج القصص الإخبارية، وبعضها يحتوي على أكاذيب واقعية خطيرة. من المسلم به أن هذه الجهود بدائية ، لكن يمكن أن يتغير ذلك بسرعة مع نضوج التكنولوجيا.

تعد المشكلات المتعلقة بشفافية الذكاء الاصطناعي والمساءلة من بين أصعب التحديات التي تشغل ذهن أرجون نارايان ، رئيس الثقة والأمان في SmartNews ، وهو تطبيق اكتشاف الأخبار متوفر في أكثر من 150 دولة يستخدم خوارزمية توصية مخصصة مع الهدف المعلن من “تقديم معلومات عالية الجودة حول العالم للأشخاص الذين يحتاجون إليها”. قبل SmartNews ، عمل نارايان كمسؤول ثقة وأمان في ByteDance و Google. من بعض النواحي ، فإن التحديات التي تبدو مفاجئة على ما يبدو التي يطرحها منشئو الأخبار بالذكاء الاصطناعي اليوم ناتجة عن التراكم التدريجي لخوارزميات التوصيات ومنتجات الذكاء الاصطناعي الأخرى التي ساعد نارايان في الإشراف عليها لأكثر من عشرين عامًا. تحدث نارايان مع Gizmodo حول تعقيد اللحظة الحالية ، وكيف يجب على المؤسسات الإخبارية التعامل مع محتوى الذكاء الاصطناعي بطرق يمكن أن تبني ثقة القراء وتعززها ، وما يمكن توقعه في المستقبل القريب غير المؤكد للذكاء الاصطناعي التوليدي.

تم تحرير هذه المقابلة من أجل الطول والوضوح.

ما الذي تراه من أكبر التحديات غير المتوقعة التي يشكلها الذكاء الاصطناعي التوليدي من منظور الثقة والأمان؟

هناك نوعان من المخاطر. الأول يدور حول التأكد من أن أنظمة الذكاء الاصطناعي يتم تدريبها بشكل صحيح وتدريبها على أساس الحقيقة الصحيحة. يصعب علينا العمل إلى الوراء ومحاولة فهم سبب ظهور قرارات معينة بالطريقة التي تم اتخاذها. من المهم للغاية معايرة وتنظيم أي نقطة بيانات يتم إدخالها لتدريب نظام الذكاء الاصطناعي.

عندما يتخذ الذكاء الاصطناعي قرارًا ، يمكنك أن تنسب إليه بعض المنطق ، لكن في معظم الحالات يكون الأمر عبارة عن صندوق أسود قليلاً. من المهم أن ندرك أن الذكاء الاصطناعي يمكن أن يأتي بأشياء وأن يصنع أشياء غير صحيحة أو غير موجودة أصلاً. مصطلح الصناعة هلوسة. الشيء الصحيح الذي يجب فعله هو أن تقول ، “مرحبًا ، ليس لدي بيانات كافية ، لا أعرف.”

ثم هناك تداعيات على المجتمع. مع نشر الذكاء الاصطناعي التوليفي في المزيد من قطاعات الصناعة ، سيكون هناك اضطراب. علينا أن نسأل أنفسنا ما إذا كان لدينا النظام الاجتماعي والاقتصادي الصحيح لمواجهة هذا النوع من الاضطراب التكنولوجي. ماذا يحدث للنازحين وليس لديهم وظائف؟ ما يمكن أن يكون 30 أو 40 عامًا أخرى قبل أن تصبح الأمور سائدة هو الآن خمس سنوات أو عشر سنوات. لذا فإن هذا لا يمنح الحكومات أو الهيئات التنظيمية الكثير من الوقت للاستعداد لذلك. أو لواضعي السياسات أن يكون لديهم حواجز حماية. هذه أشياء يجب على الحكومات والمجتمع المدني التفكير فيها.

ما هي بعض المخاطر أو التحديات التي تراها مع الجهود الأخيرة التي تبذلها المؤسسات الإخبارية لإنشاء محتوى باستخدام الذكاء الاصطناعي؟

من المهم أن نفهم أنه قد يكون من الصعب اكتشاف القصص المكتوبة بالكامل بواسطة الذكاء الاصطناعي وأيها ليست كذلك. هذا التمييز آخذ في التلاشي. إذا قمت بتدريب نموذج ذكاء اصطناعي لمعرفة كيفية كتابة ماك لمقاله الافتتاحي ، فربما يكون النموذج التالي الذي يولده الذكاء الاصطناعي هو أسلوب ماك. لا أعتقد أننا وصلنا إلى هناك حتى الآن ، لكن قد يكون المستقبل جيدًا. إذن هناك سؤال حول أخلاقيات الصحافة. هذا يشتعل؟ من يمتلك حق المؤلف هذا ، من يمتلك هذا IP؟

نحن بحاجة إلى نوع من المبادئ الأولى. أنا شخصياً أعتقد أنه لا حرج في إنشاء الذكاء الاصطناعي لمقال ، لكن من المهم أن تكون شفافًا للمستخدم بأن هذا المحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي. من المهم بالنسبة لنا أن نشير إما في سطر ثانوي أو في بيان إلى أن المحتوى تم إنشاؤه جزئيًا أو كليًا بواسطة الذكاء الاصطناعي. طالما أنه يفي بمعايير الجودة أو معايير التحرير ، فلماذا لا؟

مبدأ أول آخر: هناك الكثير من الأوقات التي يصاب فيها الذكاء الاصطناعي بالهلوسة أو عندما يخرج المحتوى قد يحتوي على أخطاء واقعية. أعتقد أنه من المهم لوسائل الإعلام والمنشورات أو حتى مجمعي الأخبار أن تفهم أنك بحاجة إلى فريق تحرير أو فريق معياري أو أيًا كان ما تريد تسميته من يقوم بمراجعة كل ما يخرج من نظام الذكاء الاصطناعي هذا. افحصها للتأكد من دقتها ، وتحقق من وجود ميول سياسية. لا تزال بحاجة إلى البصيرة البشرية. يحتاج إلى فحص ومراجعة المعايير والقيم التحريرية. طالما يتم استيفاء هذه المبادئ الأولى ، أعتقد أن لدينا طريقًا للمضي قدمًا.

ماذا تفعل عندما يولد الذكاء الاصطناعي قصة ويضخ بعض الآراء أو التحليلات؟ كيف يمكن للقارئ أن يميز من أين يأتي هذا الرأي إذا لم تتمكن من تتبع المعلومات من مجموعة البيانات؟

عادةً إذا كنت أنت المؤلف البشري وكان الذكاء الاصطناعي يكتب القصة ، فلا يزال الإنسان يعتبر المؤلف. فكر في الأمر كخط تجميع. لذلك هناك خط تجميع تويوتا حيث تقوم الروبوتات بتجميع السيارة. إذا كان المنتج النهائي يحتوي على وسادة هوائية معيبة أو به عجلة قيادة معيبة ، فإن تويوتا لا تزال تمتلك ذلك بغض النظر عن حقيقة أن الروبوت قد صنع تلك الوسادة الهوائية. عندما يتعلق الأمر بالإخراج النهائي ، فإن نشر الأخبار هو المسؤول. أنت تضع اسمك عليه. لذلك عندما يتعلق الأمر بالتأليف أو الميل السياسي ، بغض النظر عن الرأي الذي يقدمه لك نموذج الذكاء الاصطناعي ، فأنت لا تزال تختمه.

ما زلنا في وقت مبكر هنا ولكن هناك بالفعل تقارير مزارع المحتوى باستخدام نماذج الذكاء الاصطناعي، غالبًا بشكل كسول جدًا ، لإنتاج محتوى منخفض الجودة أو حتى مضلل لتوليد أرباح من الإعلانات. حتى لو وافقت بعض المنشورات على الشفافية ، فهل هناك خطر من أن تؤدي مثل هذه الإجراءات إلى تقليل الثقة في الأخبار بشكل عام؟

مع تقدم الذكاء الاصطناعي ، هناك طرق معينة يمكننا ربما اكتشاف ما إذا كان شيء ما مكتوبًا بالذكاء الاصطناعي أم لا ولكنه لا يزال مبتدئًا للغاية. إنها ليست دقيقة للغاية وليست فعالة جدًا. هذا هو المكان الذي تحتاج فيه صناعة الثقة والأمان إلى اللحاق بكيفية اكتشافنا للوسائط التركيبية مقابل الوسائط غير الاصطناعية. بالنسبة لمقاطع الفيديو ، هناك بعض الطرق لاكتشاف التزييف العميق لكن درجات الدقة تختلف. أعتقد أن تقنية الكشف ستلحق على الأرجح مع تقدم الذكاء الاصطناعي ، لكن هذا مجال يتطلب المزيد من الاستثمار والمزيد من الاستكشاف.

هل تعتقد أن تسريع الذكاء الاصطناعي يمكن أن يشجع شركات التواصل الاجتماعي على الاعتماد بشكل أكبر على الذكاء الاصطناعي في تعديل المحتوى؟ هل سيكون هناك دائمًا دور لمشرف المحتوى البشري في المستقبل؟

لكل قضية ، مثل الكلام الذي يحض على الكراهية أو المعلومات المضللة أو المضايقات ، عادة ما يكون لدينا نماذج تعمل جنبًا إلى جنب مع المشرفين البشريين. هناك درجة عالية من الدقة لبعض مجالات القضايا الأكثر نضجًا ؛ الكلام الذي يحض على الكراهية في النص ، على سبيل المثال. إلى حد ما ، يمكن للذكاء الاصطناعي التعرف على ذلك عند نشره أو أثناء كتابته لشخص ما.

ومع ذلك ، فإن درجة الدقة هذه ليست هي نفسها بالنسبة لجميع مجالات المشكلات. لذلك قد يكون لدينا نموذج ناضج إلى حد ما لخطاب الكراهية لأنه كان موجودًا منذ 100 عام ، ولكن ربما بالنسبة للمعلومات الصحية الخاطئة أو المعلومات الخاطئة حول فيروس كوفيد ، قد نحتاج إلى مزيد من التدريب على الذكاء الاصطناعي. في الوقت الحالي ، يمكنني القول أننا سنظل بحاجة إلى الكثير من السياق البشري. النماذج ليست هناك بعد. سيظل بشرًا في الحلقة وسيظل استمرارًا لتعلم الإنسان والآلة في مساحة الثقة والأمان. تلعب التكنولوجيا دائمًا دورًا في اللحاق بالجهات الفاعلة في التهديد.

ما رأيك بشركات التكنولوجيا الكبرى التي قامت بتسريح أجزاء كبيرة من فرق الثقة والسلامة في الأشهر الأخيرة بحجة أنه لا يمكن الاستغناء عنها؟

هذا يهمني. ليس فقط الثقة والأمان ولكن أيضًا فرق أخلاقيات الذكاء الاصطناعي. أشعر أن شركات التكنولوجيا هي دوائر متحدة المركز. الهندسة هي الدائرة الأعمق في حين أن مجند الموارد البشرية ، وأخلاقيات الذكاء الاصطناعي ، والثقة ، والسلامة كلها دوائر خارجية. أثناء قيامنا بسحب الاستثمار ، هل ننتظر الهراء لتصل إلى المروحة؟ فهل يكون الوقت قد فات لإعادة الاستثمار أو تصحيح المسار؟

يسعدني أن أكون مخطئًا ولكني قلق بشكل عام. نحن بحاجة إلى المزيد من الأشخاص الذين يفكرون في هذه الخطوات ومنحها مساحة مخصصة للتخفيف من المخاطر. خلاف ذلك ، فإن المجتمع كما نعرفه ، العالم الحر كما نعرفه ، سيكون في خطر كبير. أعتقد أن هناك حاجة إلى مزيد من الاستثمار في الثقة والأمان بصدق.

جيفري هينتون الذي أطلق عليه البعض اسم الأب الروحي للذكاء الاصطناعي، منذ ذلك الحين وقال علنًا إنه يأسف لعمله على الذكاء الاصطناعي ويخشى أننا قد نقترب بسرعة من فترة يصعب فيها تمييز ما هو صحيح على الإنترنت. ما رأيك في تعليقاته؟

هو [Hinton] هي أسطورة في هذا الفضاء. إذا كان أحد يعرف ما يقول. لكن ما يقوله يبدو صحيحًا.

ما هي بعض حالات الاستخدام الواعدة للتكنولوجيا التي أنت متحمس لها؟

لقد فقدت والدي مؤخرًا بسبب مرض باركنسون. حارب معها لمدة 13 عاما. عندما ألقي نظرة على مرض باركنسون والزهايمر ، فإن الكثير من هذه الأمراض ليست جديدة ، ولكن لا يوجد ما يكفي من البحث والاستثمار في هذه الأمراض. تخيل لو كان لديك ذكاء اصطناعي يقوم بهذا البحث بدلاً من باحث بشري أو إذا كان بإمكان الذكاء الاصطناعي المساعدة في تطوير بعض تفكيرنا. ألن يكون ذلك رائعا؟ أشعر أن هذا هو المكان الذي يمكن أن تحدث فيه التكنولوجيا فرقًا كبيرًا في الارتقاء بحياتنا.

قبل بضع سنوات كان هناك إعلان عالمي بأننا لن نستنسخ الأعضاء البشرية على الرغم من وجود التكنولوجيا. هناك سبب لذلك. إذا ظهرت هذه التكنولوجيا ، فإنها ستثير جميع أنواع المخاوف الأخلاقية. سيكون لديك دول العالم الثالث تحصد للأعضاء البشرية. لذلك أعتقد أنه من المهم للغاية بالنسبة لواضعي السياسات التفكير في كيفية استخدام هذه التكنولوجيا ، وما هي القطاعات التي يجب أن تنشرها ، وما هي القطاعات التي يجب أن تكون بعيدة المنال. ليس من حق الشركات الخاصة أن تقرر. هذا هو المكان الذي يجب أن تفكر فيه الحكومات.

في ميزان التفاؤل أو التشاؤم ، ما هو شعورك تجاه المشهد الحالي للذكاء الاصطناعي؟

أنا شخص نصف كوب ممتلئ. أشعر بالتفاؤل ولكن دعني أخبرك بهذا. لديّ ابنة تبلغ من العمر سبع سنوات ، وغالبًا ما أسأل نفسي عن نوع الوظائف التي ستؤديها. في غضون 20 عامًا ، ستتغير الوظائف ، كما نعرفها اليوم ، بشكل جذري. نحن ندخل منطقة غير معروفة. أنا أيضًا متحمس ومتفائل بحذر.

هل تريد معرفة المزيد عن الذكاء الاصطناعي وروبوتات المحادثة ومستقبل التعلم الآلي؟ تحقق من تغطيتنا الكاملة لـ الذكاء الاصطناعيأو تصفح أدلةنا إلى أفضل مولدات فنية مجانية لمنظمة العفو الدولية و كل ما نعرفه عن ChatGPT الخاص بـ OpenAI.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى