Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تقنية

يطالب كبار التكنولوجيين وإيلون ماسك بإيقاف فوري لأنظمة الذكاء الاصطناعي المتقدمة


وقع تحالف واسع النطاق يضم أكثر من 500 تقني ومهندس وخبير في أخلاقيات الذكاء الاصطناعي اتفاقية. رسالة مفتوحة دعوة مختبرات الذكاء الاصطناعي إلى الإيقاف الفوري لجميع التدريبات على أي أنظمة ذكاء اصطناعي أقوى من Open AI الذي تم إصداره مؤخرًا GPT-4 لمدة ستة أشهر على الأقل. الموقعون ، ومن بينهم المؤسس المشارك لشركة Apple ستيف وزنياك و مطور “قائم على الذكاء الاصطناعي” Elon Musk، حذروا من أن هذه النماذج المتقدمة الجديدة للذكاء الاصطناعي قد تشكل “مخاطر جسيمة على المجتمع والإنسانية” ، إذا سُمح لها بالتقدم دون ضمانات كافية. إذا رفضت الشركات وقف التطوير ، فإن الرسالة تقول إن على الحكومات أن تبتعد عن الأسلحة الكبيرة وتضع تعليقًا إلزاميًا.

تقول الرسالة: “يمكن أن يمثل الذكاء الاصطناعي المتقدم تغييرًا عميقًا في تاريخ الحياة على الأرض ، ويجب التخطيط له وإدارته بما يتناسب مع العناية والموارد”. “لسوء الحظ ، لا يحدث هذا المستوى من التخطيط والإدارة ، على الرغم من أن الأشهر الأخيرة شهدت أن مختبرات الذكاء الاصطناعي تخوض سباقًا خارج نطاق السيطرة لتطوير ونشر عقول رقمية أكثر قوة لا يمكن لأحد – ولا حتى منشئوها – فهمها . أو توقع أو تحكم بشكل موثوق “.

تم الافراج عن الرسالة من قبل معهد مستقبل الحياة، وهي منظمة وصفت نفسها بأنها تركز على توجيه التقنيات بعيدًا عن المخاطر واسعة النطاق المتصورة على البشرية. تشمل مجموعات الخطر الأساسية هذه الذكاء الاصطناعي والتكنولوجيا الحيوية والأسلحة النووية وتغير المناخ. ترتكز مخاوف المجموعة بشأن أنظمة الذكاء الاصطناعي على افتراض أن تلك الأنظمة “أصبحت الآن قادرة على المنافسة البشرية في المهام العامة”. تجادل الرسالة بأن هذا المستوى من التطور يمكن أن يؤدي إلى مستقبل قريب حيث يستخدم الفاعلون السيئون الذكاء الاصطناعي لإغراق الإنترنت بالدعاية ، وجعل الوظائف المستقرة ذات مرة زائدة عن الحاجة ، وتطوير “عقول غير بشرية” يمكن أن تكمل أو “تحل محل” البشر.

وتجادل الرسالة بأن أنظمة الذكاء الاصطناعي الناشئة تفتقر حاليًا إلى ضمانات أو ضوابط ذات مغزى تضمن أنها آمنة ، “دون أدنى شك معقول”. لحل هذه المشكلة ، تقول الرسالة إن على مختبرات الذكاء الاصطناعي استخدام الإيقاف المؤقت لتنفيذ مجموعة مشتركة من بروتوكولات السلامة والاتفاق عليها وضمان مراجعة الأنظمة من خلال مراجعة مستقلة لخبراء خارجيين. أخبر أحد الموقعين البارزين موقع Gizmodo أن تفاصيل ما تبدو عليه هذه المراجعة في الواقع لا تزال “مسألة مناقشة إلى حد كبير”. لن ينطبق التوقف المؤقت والضمانات المضافة بشكل ملحوظ على جميع عمليات تطوير الذكاء الاصطناعي. بدلاً من ذلك ، سيركز على “نماذج الصندوق الأسود ذات القدرات الناشئة” ، والتي تعتبر أقوى من GPT 4. للذكاء الاصطناعي المفتوح. في التنمية GPT5.

تقول الرسالة: “يجب إعادة تركيز البحث والتطوير في مجال الذكاء الاصطناعي على جعل أنظمة اليوم القوية والحديثة أكثر دقة وأمانًا وقابلية للتفسير وشفافية وقوة ومتماسكة وجديرة بالثقة وولاء”.

المشككون في الذكاء الاصطناعي منقسمون حول حجم التهديد

تحدث مع Gizmodo ستيوارت راسلأستاذ علوم الكمبيوتر بجامعة بيركلي ومؤلف مشارك في الذكاء الاصطناعي: نهج حديث. راسل ، وهو أيضًا أحد أبرز الموقعين على الرسالة ، قال إن المخاوف بشأن التهديدات للديمقراطية والمعلومات المضللة المسلحة تنطبق بالفعل على GPT-4 و Google Bard ونماذج اللغات الكبيرة الأخرى المتاحة. وقال إن أكثر كوابيس القلق بشأن الذكاء الاصطناعي هي تلك استطاع الخروج من الجيل القادم من الأدوات.

قال راسل لـ Gizmodo في مقابلة: “يأتي القلق الأكثر أهمية مما يبدو أنه سباق غير مقيد بين شركات التكنولوجيا ، التي تقول بالفعل إنها لن تتوقف عن تطوير أنظمة أكثر وأكثر قوة ، بغض النظر عن المخاطر”. “ولنكن واضحين: الخطر الذي يشيرون إليه هنا هو فقدان السيطرة البشرية على العالم ومستقبلنا ، مثلما فقدت الغوريلا السيطرة على مستقبلها بسبب البشر.”

يدعي راسل أنه ليس لدينا نحن ولا مبتكرو أدوات الذكاء الاصطناعي أنفسهم أي فكرة عن كيفية عملها بالفعل. على الرغم من أن باحثين بارزين آخرين في مجال الذكاء الاصطناعي قد دحضوا هذا الوصف ، إلا أن راسل يقول إن النماذج هي أساسًا “قائمة فارغة من تريليون معلمة”.

قال راسل: “هذا كل ما نعرفه”. “لا نعرف ، على سبيل المثال ، ما إذا كانوا قد طوروا أهدافهم الداخلية الخاصة والقدرة على متابعتها من خلال التخطيط الممتد.” أشار راسل إلى ورقة بحثية حديثة أجراها باحثو مايكروسوفت زعمت أن GPT-4 الذي تم إصداره مؤخرًا من Open AI أظهر “شرارات من الذكاء الاصطناعي العام”.

تحدث خبراء الذكاء الاصطناعي الآخرون مع Gizmodo الذين لم يضيفوا أسمائهم إلى الرسالة المفتوحة لمعهد Future of Life ، وكانوا أكثر تحفظًا بكثير من انتقاداتهم. شارك الخبراء مخاوفهم بشأن إساءة استخدام الذكاء الاصطناعي المحتملة ، لكنهم ارتدوا من المحاولات الشائعة بشكل متزايد لمقارنة أنظمة الذكاء الاصطناعي بالذكاء البشري. وأشاروا إلى أن الحديث عن الذكاء العام الاصطناعي يمكن أن يأتي بنتائج عكسية. ChatGPT من OpenAI ، والذي كان قادرًا على اجتياز فصول كلية إدارة الأعمال وامتحان ترخيص طبي رئيسي ، يكافح في نفس الوقت مع العمليات الحسابية الأساسية.

قالت سارة مايرز ويست ، المديرة الإدارية لمعهد AI Now جزمودو. “ولكن إليك ما هو مفتاح فهمه حول Chat GPT ونماذج اللغات الكبيرة الأخرى المماثلة: فهي لا تعكس بأي شكل من الأشكال عمق فهم اللغة البشرية – إنها تحاكي شكلها.”

على الرغم من أن مايرز تشارك مخاوفها بشأن إساءة استخدام الذكاء الاصطناعي ، إلا أنها تشعر بالقلق من أن قطار الضجيج الحالي للتكنولوجيا والمبالغة في قدراتها قد يصرف الانتباه عن المزيد من المخاوف الملحة.

اعترف راسل ببعض هؤلاء النقاد لكنه قال إن المجهول حول ما هي النماذج الجديدة استطاع هل كانت سببًا كافيًا للقلق.

“هل تنشئ LLM أهدافًا داخلية لتقليد البشر بشكل أفضل؟” سأل راسل. إذا كان الأمر كذلك، ما هي؟ ليس لدينا فكرة. ليس لدينا فكرة. نأمل فقط أن هذا لم يحدث بعد “.

صورة للمقال بعنوان 500 من كبار التقنيين وإيلون ماسك يطالبون بوقف فوري لأنظمة الذكاء الاصطناعي المتقدمة

صورة: وليام برادبيري (صراع الأسهم)

لا يحتاج المرء بالضرورة إلى الإيمان بإصدار وشيك في العالم الحقيقي من The Terminator حتى يظل لديه مخاوف حقيقية بشأن الذكاء الاصطناعي. أعرب العديد من الباحثين في مجال الذكاء الاصطناعي الذين تحدث معهم موقع Gizmodo عن مخاوفهم الحقيقية بشأن الافتقار إلى القوانين أو التنظيم ذي المغزى في الفضاء ، لا سيما بالنظر إلى اعتماد التكنولوجيا على مساحات شاسعة من البيانات وسرعتها الفائقة. نماذج اللغات الكبيرة البارزة مثل GPT-4 تفتقر حاليًا إلى الشفافية الهادفة حول أنواع بيانات التدريب التي يستخدمونها لتطوير نماذجهم ، مما يجعل عمليات التدقيق المستقلة صعبة. التحيزات المتعلقة بالجنس والعرق ، والتي تم الشعور بها على نطاق واسع بالفعل في نماذج الذكاء الاصطناعي الأقل تقدمًا ، تخاطر بالتضخم بشكل أكبر.

هناك أيضًا المشكلة المزعجة لنماذج LLM التي تكمن في أسنانهم ، وهي ميزة أشار إليها البعض باسم “هلوسة الذكاء الاصطناعي. ” في الوقت الحالي ، هذه الهلوسة هي في الغالب عبارة مضحكة ، ولكن يمكن أن يتغير ذلك مع تحول المزيد والمزيد من المستخدمين إلى تقنية البحث والطرق الأخرى لجمع المعلومات. تعني الموضوعية المتصورة للتكنولوجيا أن المستخدمين يمكن أن يفترضوا أن ردود الذكاء الاصطناعي هي بيانات واقعية عندما يكونون أقرب إلى تخمين جيد التقدير. هذا التجاهل التام للحقيقة أو الواقع على نطاق واسع يمكن أن يجعل النظام الإيكولوجي للمعلومات المزدحمة بالفعل غير قابل للإدراك.

قالت أستاذة اللسانيات في جامعة واشنطن إميلي إم بيندر لـ Gizmodo: “هذه برامج لإنشاء نص (سريعًا وفي الوقت الحالي على الأقل للمستخدمين النهائيين) يبدو معقولًا ولكن ليس له أساس في أي التزام بالحقيقة”. “هذا يعني أن نظامنا الإيكولوجي للمعلومات يمكن أن يغمر بسرعة بالمعلومات غير المعلوماتية ، مما يجعل من الصعب العثور على مصادر معلومات جديرة بالثقة ويصعب الوثوق بها.”

وعلى الرغم من كل الضجيج المحيط به ، لا يزال عامة الناس غير متأكدين في أحسن الأحوال بشأن المسار الحالي للذكاء الاصطناعي. 9٪ فقط من البالغين الأمريكيين الذين شملهم الاستطلاع في جامعة مونماوث الأخيرة تصويت قالوا إنهم يعتقدون أن الذكاء الاصطناعي سيفيد المجتمع أكثر من إلحاق الضرر به. قال 56٪ آخرون إنهم يعتقدون أن العالم الذي يغمره الذكاء الاصطناعي المتقدم سيضر بنوعية حياة البشر بشكل عام.

وقال باتريك موراي ، مدير استطلاعات الرأي في معهد الاستطلاعات بجامعة مونماوث ، في بيان: “يبدو أن بعض الناس لا ينظرون إلى الذكاء الاصطناعي على أنه مصدر قلق تكنولوجي واقتصادي فحسب ، بل يمثل أيضًا مسألة تتعلق بالصحة العامة”.

توحد الخبراء والمثيرون للقلق بشأن دعوات للتنظيم

شيء واحد الموقعون عليه من معهد مستقبل الحياة والأكثر حذرًا المشككون في الذكاء الاصطناعي فعل اتفقوا على أن هناك حاجة ملحة لقيام المشرعين بوضع قواعد جديدة للذكاء الاصطناعي. ودعت الرسالة صانعي السياسات إلى “الإسراع بشكل كبير في تطوير أنظمة حوكمة قوية للذكاء الاصطناعي” ، والتي تشمل المنظمين الذين يركزون بشكل خاص على الذكاء الاصطناعي بالإضافة إلى الإشراف على أدوات الذكاء الاصطناعي القوية وتتبعها. بالإضافة إلى ذلك ، دعت الرسالة إلى أدوات وضع العلامات المائية لمساعدة المستخدمين على التمييز بسرعة بين المحتوى التركيبي والحقيقي.

“ما لم يكن لدينا تدخل في السياسة ، فإننا نواجه عالماً يكون فيه مسار الذكاء الاصطناعي غير خاضع للمساءلة أمام الجمهور ، ويتم تحديده من قبل حفنة من الشركات التي لديها الموارد لتطوير هذه الأدوات وتجربتها في البرية ،” قال. من معهد AI Now لـ Gizmodo.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى