Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار التقنية

كيف تتجنب المزالق وتتنقل في المشهد الأخلاقي للذكاء الاصطناعي التوليدي


غاب عن الإثارة GamesBeat قمة؟ لا تقلق! استمع الآن لمشاهدة جميع الجلسات الحية والافتراضية هنا.


لا يزال لدينا الكثير لنكتشفه. كان هذا انطباعي عن لجنة في حدث Transform 2023 بالأمس والتي تعمقت في أخلاقيات الذكاء الاصطناعي التوليدي.

أدار الجلسة فيليب لوسون ، مسؤول سياسات الذكاء الاصطناعي في Armilla AI | معهد شوارتز ريزمان للتكنولوجيا والمجتمع. وضمت جين كارتر ، الرئيس العالمي للتكنولوجيا في Google.org ، ورافي جين ، رئيس مجموعة عمل رابطة آلات الحوسبة (ACM) حول الذكاء الاصطناعي التوليدي.

قال لوسون إن الهدف هو التعمق في فهم أفضل لمخاطر الذكاء الاصطناعي التوليدي وكيفية التغلب على مخاطره بنجاح.

وأشار إلى أن التكنولوجيا الأساسية والبنى القائمة على Transformer كانت موجودة منذ عدة سنوات ، على الرغم من أننا جميعًا ندرك زيادة الاهتمام في الأشهر الثمانية إلى العشرة الماضية أو نحو ذلك مع إطلاق نماذج لغة كبيرة مثل ChatGPT.

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

رافي جاين من ACM يتحدث عن أخلاقيات الذكاء الاصطناعي في Transform 2023.

أشار كارتر إلى أن المبدعين كانوا يبنون على التقدم في الذكاء الاصطناعي منذ الخمسينيات وأن الشبكات العصبية قدمت تطورات كبيرة. لكن البنية التحتية للمحول كانت تقدمًا كبيرًا ، بدءًا من حوالي عام 2017. وفي الآونة الأخيرة ، تم إطلاقها مرة أخرى مع ChatGPT ، مما يمنح نماذج اللغة الكبيرة مزيدًا من الاتساع والعمق لما يمكنهم فعله ردًا على الاستفسارات. قالت إن هذا كان مثيرًا حقًا.

قال جين: “هناك قدر هائل من الضجيج”. لكن لمرة واحدة ، أعتقد أن هذه الضجة تستحق العناء حقًا. كانت سرعة التطوير التي رأيتها في العام الماضي – أو ثمانية أشهر – في هذا المجال غير مسبوقة ، من حيث القدرات والتطبيقات التقنية فقط. إنه شيء لم أره من قبل بهذا الحجم في الصناعة. لذلك كان هذا مثيرًا للغاية “.

>> اتبع جميع تغطية VentureBeat Transform 2023 الخاصة بنا <

وأضاف: “ما نراه هو أنواع التطبيقات التي كانت تتطلب حتى قبل عامين إنشاء هذه النماذج.” [by those with] الكثير من البيانات والحساب والكثير من الخبرة. الآن ، يمكنك الحصول على تطبيقات ومجالات واسعة للبحث والتجارة الإلكترونية والواقع المعزز والواقع الافتراضي. باستخدام هذه النماذج التأسيسية ، التي تعمل جيدًا حقًا خارج الصندوق ، يمكن ضبطها بدقة. يمكن استخدامها كمكونات وتصبح جزءًا من نظام إيكولوجي للتطبيق لبناء تطبيقات معقدة حقًا لم تكن ممكنة حقًا قبل بضع سنوات “.

مخاطر الذكاء الاصطناعي التوليدي

لكن الكثير من الناس يشيرون إلى المخاطر التي تأتي مع التطورات السريعة. هذه ليست مجرد مشاكل نظرية. قال جاين إن التطبيقات واسعة جدًا وتتقدم بسرعة كبيرة لدرجة أن المخاطر حقيقية.

وقال جين إن المخاطر تغطي مجالات مثل الخصوصية والملكية ونزاعات حقوق النشر وانعدام الشفافية والأمن وحتى الأمن القومي.

وقال: “الشيء المهم في ذهني هو حقًا ، أثناء قيامنا بتطوير هذا ، علينا التأكد من أن الفوائد تتناسب مع المخاطر”. “على سبيل المثال ، إذا كان شخص ما يتحدث مع أحد وكلاء الذكاء الاصطناعي أو يجري محادثة معه ، فيجب إبلاغ الإنسان دائمًا [that] هذه المحادثة مع الذكاء الاصطناعي “.

قال جاين إنه لا يمكن لشركة واحدة أو حكومة التخفيف من المخاطر.

“يجب أن تكون محادثة لأصحاب المصلحة المتعددين يجب أن تكون محادثة مفتوحة وشفافة حيث تكون جميع قطاعات المجتمع التي قد تتأثر جزءًا من ذلك. ولست متأكدًا من أننا حصلنا على ذلك بالكامل حتى الآن ، “قال.

كارتر هو جزء من Google.org ، الذراع الخيرية لشركة Google. ترى أن الذكاء الاصطناعي التوليدي يساعد المنظمات غير الربحية في جميع أنواع الفوائد المحتملة ، لكنها وافقت أيضًا على وجود مخاطر جسيمة. أولئك الذين يحتلون مكان الصدارة هم أولئك الذين لديهم تأثير اجتماعي.

قالت: “الأول يدور دائمًا حول التحيز والإنصاف”.

يتمتع الذكاء الاصطناعي التوليدي بالقدرة على تقليل التحيز ، ولكنه “ينطوي أيضًا على خطر الانعكاس أو تعزيز التحيزات الموجودة. وهذا شيء دائمًا ما يشغل بالنا. يحاول عملنا عادة خدمة السكان المحرومين. ولذا إذا كنت تعكس هذا التحيز فقط ، فإنك ستلحق الضرر بالمجتمعات الضعيفة بالفعل التي تحاول مساعدتها. ولذا فمن المهم بشكل خاص بالنسبة لنا أن ننظر إلى هذه المخاطر ونفهمها كمثال أساسي.

على سبيل المثال ، تم استخدام الذكاء الاصطناعي لإجراء تقييمات للمخاطر في نظام العدالة الجنائية ، ولكن إذا كان “إعادة التدريب على البيانات التاريخية التي من الواضح أنها متحيزة” ، فهذا مثال على خطر إساءة استخدام التكنولوجيا.

وقال كارتر إنه في حين أن الذكاء الاصطناعي التوليدي لديه القدرة على مساعدة الجميع ، فإنه يخاطر أيضًا بتفاقم الفجوة الرقمية ، ومساعدة الشركات أو الشركات الغنية على التقدم مع ترك المجتمعات غير الربحية والضعيفة وراء الركب.

وقالت: “ما هي الأشياء التي يمكننا القيام بها للتأكد من أن هذه التكنولوجيا الجديدة ستكون متاحة ومفيدة للجميع حتى نتمكن جميعًا من الاستفادة”.

وأشارت إلى أنه غالبًا ما يكون تجميع كل هذه البيانات مكلفًا للغاية. وقال كارتر ، لذلك فهو ليس دائمًا تمثيليًا أو غير موجود للبلدان المنخفضة والمتوسطة الدخل.

كما أشارت إلى وجود إمكانية للتأثير البيئي.

يتحدث جين كارتر من Google.org عن أخلاقيات الذكاء الاصطناعي في Transform 2023.

من الصعب حسابيًا القيام بالكثير من هذا العمل. ونقوم بالكثير من العمل لتقليل انبعاثات الكربون. وقال كارتر: “هناك خطر هنا يتمثل في زيادة الانبعاثات حيث يقوم المزيد والمزيد من الناس بتدريب هذه النماذج والاستفادة منها في العالم الحقيقي”.

نظرة شاملة على الآثار المترتبة على التكنولوجيا

تهتم منظمة Jain ، ACM ، بالمخاطر كمجتمع متخصص في علوم الكمبيوتر.

قال جاين: “نحن نبني هذه النماذج ، لكن علينا حقًا أن ننظر إليها بشكل أكثر شمولية”.

قد يركز المهندسون على الدقة والأداء الفني والجوانب الفنية. لكن جاين قال إن الباحثين بحاجة أيضًا إلى النظر بشكل شامل إلى تداعيات التكنولوجيا. هل هي تقنية شاملة يمكن أن تخدم جميع السكان؟ أصدرت ACM مؤخرًا بيان مبادئ للمساعدة في توجيه المجتمعات ووضع إطار لكيفية التفكير في هذه القضايا ، مثل تحديد الحدود المناسبة للتكنولوجيا. سؤال آخر هو انعكاسات التكنولوجيا على الشفافية. هل يجب أن نستخدم التكنولوجيا فقط إذا سمحنا للناس بمعرفة أنها من صنع الذكاء الاصطناعي وليس من صنع الإنسان؟ وفقًا لجين ، قال ACM إن الباحثين يتحملون مسؤولية على هذه الجبهة.

وأشار كارتر أيضًا إلى أن Google أصدرت مبادئها الخاصة بالذكاء الاصطناعي لتوجيه العمل الذي تقوم به في اتجاه مسؤول وبطريقة يمكن مساءلتها. يجب على الباحثين التفكير في المراجعات التي يجب أن تحدث لأي تقنية جديدة. وأشارت إلى أن بعض المنظمات غير الربحية مثل مؤسسة روكفلر تبحث في تأثير الذكاء الاصطناعي على المجتمعات الضعيفة.

مخاطر الذكاء الاصطناعي على المؤسسات

وفي الوقت نفسه ، تواجه الشركات أيضًا مخاطر عندما تحصل على التكنولوجيا والبدء في تطبيقها داخل جدرانها.

قال جاين: “أول شيء بالنسبة لأي مؤسسة هو ، قبل التسرع في تبني التكنولوجيا ، قضاء الوقت والجهد لإجراء محادثة داخلية حول أهداف المنظمة وقيمها”.

يجب أن يأخذ هذا النوع من المحادثة في الاعتبار العواقب غير المقصودة لتبني التكنولوجيا الجديدة. لهذا السبب مرة أخرى يحتاج المزيد من أصحاب المصلحة إلى المشاركة في المحادثة. قال جين إن التأثير على المخاض سيكون مخاطرة كبيرة. أنت لا تريد أن تتفاجأ من التأثيرات.

وافق كارتر على أنه من المهم للمنظمات تطوير مبادئها الخاصة. وقالت إن الأمر يستحق إلقاء نظرة على مناقشات حركة حقوق المعوقين التي تشير إلى أنه لا يجب عليك فعل أي شيء عنا بدوننا. هذا يعني أنه يجب عليك إشراك أي مجموعات سكانية متأثرة في مناقشة التكنولوجيا الجديدة.

قال كارتر: “تأتي أفضل الأفكار من أولئك الأقرب إلى القضايا”. “أود أيضًا أن أشجع المنظمات التي تدخل هذا الفضاء على اتباع نهج تعاوني حقًا. نحن نعمل عن كثب مع الحكومات والأكاديميين والمنظمات غير الربحية والمجتمعات في كل هذه المجموعات المختلفة وصانعي السياسات وجميع هذه المجموعات المختلفة معًا “.

دور الحكومة

قال جاين إن دور الحكومة هو إنشاء إطار تنظيمي ، سواء كان مكتبًا أو وكالة على المستوى الحكومي. والسبب في حاجتنا إلى ذلك هو رفع مستوى الدرابزين إلى مستوى ساحة اللعب بحيث يمكن أن يحدث التبني بشكل أسرع وبطريقة مسؤولة. علاوة على ذلك ، نحن بحاجة إلى شيء مثل وكالة مشاريع الأبحاث المتقدمة للذكاء الاصطناعي ، حيث إن للقطاع الخاص حدوده عند التفكير في البحث طويل المدى الضروري للتعامل مع مخاطر مثل أبحاث الأمن القومي والسلامة.

قال كارتر إن الذكاء الاصطناعي “مهم للغاية لعدم التنظيم ، ومن المهم جدًا عدم التنظيم بشكل جيد ، وبالتالي فإن صانعي السياسة لديهم دور حاسم الأهمية فيما يتعلق بقضية معقدة حقًا”.

وقالت إن التعليم جزء أساسي من تجنيد الحكومة والحصول على التعاون عبر القطاعات في نوع من الحرم الجامعي للذكاء الاصطناعي.

قال كارتر: “الهدف هو تدريب صانعي السياسات على كل من المبادئ والأفكار التأسيسية لدينا ، ولكن أيضًا في أحدث فهم للقدرات والمخاطر”.

عقيدة GamesBeat عندما تكون تغطية صناعة الألعاب “حيث يلتقي الشغف بالعمل”. ماذا يعني هذا؟ نريد أن نخبرك بمدى أهمية الأخبار بالنسبة لك – ليس فقط كصانع قرار في استوديو ألعاب ، ولكن أيضًا كمشجع للألعاب. سواء كنت تقرأ مقالاتنا أو تستمع إلى ملفاتنا الصوتية أو تشاهد مقاطع الفيديو الخاصة بنا ، فإن GamesBeat ستساعدك على التعرف على الصناعة والاستمتاع بالتفاعل معها. اكتشف إحاطاتنا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى