أخبار التقنية

يتحدى خبراء الذكاء الاصطناعي رواية “المصير” ، بما في ذلك ادعاءات “خطر الانقراض”


انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح.. يتعلم أكثر


يتراجع كبار الباحثين في مجال الذكاء الاصطناعي عن السرد الحالي “المصير” الذي يركز على المخاطر المستقبلية الوجودية من الذكاء الاصطناعي العام الجامح (AGI). من بينها بيان الأمس حول مخاطر الذكاء الاصطناعي ، الذي وقعه مئات الخبراء بما في ذلك الرؤساء التنفيذيون لشركة OpenAI و DeepMind و Anthropic ، والذي حذر من “خطر الانقراض” من الذكاء الاصطناعي المتقدم إذا لم تتم إدارة تطويره بشكل صحيح.

يقول الكثيرون إن هذا “ يوم القيامة ” ، مع تركيزه على المخاطر الوجودية من الذكاء الاصطناعي ، أو المخاطر السينية ، يحدث على حساب التركيز الضروري على مخاطر الذكاء الاصطناعي الحالية والقابلة للقياس – بما في ذلك التحيز والمعلومات الخاطئة والتطبيقات عالية المخاطر والأمن السيبراني. يؤكدون أن الحقيقة هي أن معظم الباحثين في مجال الذكاء الاصطناعي لا يركزون على مخاطر x أو يهتمون بها بشدة.

قالت سارة هوكر ، رئيسة منظمة Cohere غير الربحية للذكاء الاصطناعي وعالمة الأبحاث السابقة في Google Brain ، لموقع VentureBeat: “إنه عالم متقلب رأساً على عقب”. في الخطاب العام ، [x-risk] يتم التعامل معها كما لو كانت وجهة النظر السائدة لهذه التكنولوجيا “. ولكن ، كما أوضحت ، في مؤتمرات التعلم الآلي (ML) مثل المؤتمر الدولي الأخير لتمثيلات التعلم (ICLR) في أوائل شهر مايو الذي جذب الباحثين من جميع أنحاء العالم ، كان x-risk “موضوعًا هامًا”.

وقالت: “في المؤتمر ، قال عدد قليل من الباحثين الذين تحدثوا عن التهديدات الوجودية إنهم شعروا بالتهميش لأنهم كانوا أقلية”.

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

تطبيع التهديدات الوجودية للذكاء الاصطناعي من خلال التكرار

أشار مارك ريدل ، الأستاذ المشارك في معهد جورجيا للتكنولوجيا ، إلى أن أولئك المهتمين بالمخاطر الوجودية ليسوا مجموعة متجانسة – فهم يتراوحون بين أولئك المقتنعين بأننا تجاوزنا العتبة (مثل إليعازر يودكوفسكي) ، إلى أولئك الذين يعتقدون أنها وشيكة. وحتمية (مثل Sam Altman من شركة OpenAI). هذا بالإضافة إلى أولئك الذين هم في وضع الانتظار والمراقبة ، وأولئك الذين لا يرون طريقًا واضحًا إلى الذكاء الاصطناعي العام بدون بعض الاختراقات الجديدة.

ولكن ، قال ريدل ، يبدو أن تصريحات الباحثين البارزين وقادة شركات التكنولوجيا الكبرى تلقى قدرًا هائلاً من الاهتمام في وسائل التواصل الاجتماعي وفي الصحافة.

قال لـ VentureBeat: “غالبًا ما يتم الإبلاغ عن التهديدات الوجودية على أنها حقيقة”. “هذا يقطع شوطًا طويلاً في تطبيع ، من خلال التكرار ، الاعتقاد بأن السيناريوهات التي تعرض الحضارة ككل للخطر فقط وأن الأضرار الأخرى لا تحدث أو لا تترتب على ذلك.”

أشار ياسين جيرنيت ، باحث ML في Hugging Face ، إلى أ سقسقة بواسطة Timnit Gebru بالأمس الذي شبه السرد المستمر لخطر x بهجوم DDoS – أي عندما يغمر مهاجم إلكتروني خادمًا بحركة مرور الإنترنت لمنع المستخدمين من الوصول إلى الخدمات والمواقع.

قال إن هناك قدرًا كبيرًا من الاهتمام الذي ينصب على مخاطر x ، حيث إنه “يأخذ الهواء من القضايا الأكثر إلحاحًا” ويفرض ضغطًا اجتماعيًا خبيثًا على الباحثين الذين يركزون على المخاطر الحالية الأخرى ويجعل من الصعب حمل أولئك الذين يركزون على مخاطر x مسؤول. وأضاف أنه يلعب أيضًا في قضايا الاستحواذ التنظيمي ، مشيرًا إلى الإجراءات الأخيرة لشركة OpenAI كمثال.

وقال: “كان بعض هؤلاء الأشخاص يضغطون من أجل نظام ترخيص للذكاء الاصطناعي ، والذي هوجم بحق على أساس الضغط من أجل السيطرة التنظيمية”. “سرد الخطر الوجودي يلعب في هذا من خلال [companies saying] نحن الذين يجب أن نضع القواعد لكيفية [AI] محكوم.”

في الوقت نفسه ، يمكن أن تقول شركة OpenAI إنها ستغادر الاتحاد الأوروبي إذا كان “مفرطًا في التنظيم” ، كما أوضح ، في إشارة إلى تهديدات الأسبوع الماضي من الرئيس التنفيذي سام التمان.

إغراق الأصوات الساعية للفت الانتباه إلى الأضرار الحالية

اعترف ريدل بأن واضعي البيان المتعلق بمخاطر الذكاء الاصطناعي يقرون بأنه يمكن للمرء أن يشعر بالقلق إزاء الأحداث طويلة الأجل منخفضة الاحتمال ، كما أنه يشعر بالقلق أيضًا بشأن الأضرار ذات الاحتمالية العالية على المدى القريب ، لكن هذا يتجاهل حقيقة أن “مصير” وأوضح أن سرد الأصوات التي تسعى إلى لفت الانتباه إلى الأضرار الحقيقية التي تحدث لأناس حقيقيين في الوقت الحالي.

وقال: “غالبًا ما تكون هذه الأصوات من أولئك الموجودين في المجتمعات المهمشة والممثلة تمثيلاً ناقصًا لأنهم تعرضوا لأضرار مماثلة بشكل مباشر أو غير مباشر”. كما أن الاهتمام الكبير بأحد جوانب سلامة الذكاء الاصطناعي يؤثر بشكل غير مباشر على كيفية تخصيص الموارد.

قال: “على عكس القلق ، الذي هو في إمداد غير محدود ، فإن الموارد الأخرى مثل تمويل البحوث (والاهتمام) محدودة”. “ليس فقط أولئك الذين يتحدثون بصوت عالٍ حول المخاطر الوجودية هم بالفعل بعض الجماعات والأفراد الذين يتمتعون بموارد جيدة ، ولكن تأثيرهم يمكن أن يشكل الحكومات والصناعة والعمل الخيري.”

وافق كوير من هوكر من منظمة العفو الدولية ، قائلاً إنه في حين أنه من الجيد لبعض الأشخاص في هذا المجال العمل على مخاطر طويلة الأجل ، فإن عدد هؤلاء الأشخاص حاليًا غير متناسب مع القدرة على تقدير هذا الخطر بدقة.

وقالت: “شاغلي الرئيسي هو أنه يقلل الكثير من المحادثات حول مخاطر اليوم ومن حيث تخصيص الموارد”. “أتمنى أن يتم إيلاء المزيد من الاهتمام للمخاطر الحالية لنماذجنا التي يتم نشرها يوميًا واستخدامها من قبل ملايين الأشخاص. لأنه بالنسبة لي ، هذا ما يعمله الكثير من الباحثين يومًا بعد يوم ، وهو يحل محل الرؤية والموارد لجهود العديد من الباحثين الذين يعملون في مجال السلامة “.

وأضافت أن الآراء المنمقة حول المخاطر الوجودية قد تكون “أكثر إثارة” ، لكنها قالت إنها تضر بقدرة الباحثين على التعامل مع أشياء مثل الهلوسة ، والتأسيس الواقعي ، ونماذج التدريب للتحديث ، وصنع النماذج التي تخدم أجزاء أخرى من العالم ، والوصول إلى الحوسبة: “الكثير من إحباط الباحثين الآن يتعلق بكيفية تدقيقهم ، كيف يشاركون في بناء هذه النماذج؟”

“حيرة من المواقف التي يتخذها هؤلاء الأشخاص البارزون”

كان توماس جي ديتريتش ، رائد تعلم الآلة وأستاذ فخري لعلوم الكمبيوتر في جامعة ولاية أوريغون ، صريحًا في تقييمه لبيان الأمس حول مخاطر الذكاء الاصطناعي.

قال لـ VentureBeat: “أشعر بالحيرة من المواقف التي يتخذها هؤلاء الأشخاص البارزون”. “في أجزاء من الذكاء الاصطناعي خارج التعلم العميق ، يعتقد معظم الباحثين أن الصناعة والصحافة يبالغون في رد فعلهم على الطلاقة الواضحة واتساع نطاق المعرفة في LLM.”

قال ديتريتش إنه في رأيه ، فإن الخطر الأكبر الذي تشكله أجهزة الكمبيوتر هو من خلال الهجمات الإلكترونية مثل برامج الفدية والتهديدات المستمرة المتقدمة المصممة لإلحاق الضرر بالبنية التحتية الحيوية أو السيطرة عليها. قال: “بينما نكتشف كيفية ترميز المزيد من المعرفة في برامج الكمبيوتر (كما في ChatGPT و Stable Diffusion) ، تصبح هذه البرامج أدوات أكثر قوة للتصميم ، بما في ذلك تصميم الهجمات الإلكترونية”.

فحص الحوافز المالية الأساسية

إذن لماذا يثير قادة الصناعة والباحثون البارزون شبح الذكاء الاصطناعي باعتباره خطرًا وجوديًا؟ أشار ديتريتش إلى أن المنظمات التي تحذر من المخاطر الوجودية ، مثل معهد أبحاث الذكاء الآلي ، ومعهد فيوتشر أوف لايف ، ومركز أمان الذكاء الاصطناعي ومعهد مستقبل الإنسانية ، تحصل على تمويلها على وجه التحديد من خلال إقناع المانحين بأن الخطر الوجودي للذكاء الاصطناعي هو خطر حقيقي. والخطر الحالي.

قال: “بينما لا أشكك في صدق الناس في هذه المنظمات ، أعتقد أن الأمر يستحق دائمًا دراسة الحوافز المالية في العمل”. وعلى نفس المنوال ، يتلقى الباحثون مثلي تمويلنا لأننا نقنع وكالات التمويل الحكومية والشركات بأن تحسين برمجيات الذكاء الاصطناعي سيؤدي إلى فوائد في تعزيز البحث العلمي ، والنهوض بالرعاية الصحية ، وجعل الاقتصادات أكثر كفاءة وإنتاجية وتعزيز الدفاع الوطني. في حين أن التحذيرات بشأن المخاطر الوجودية لا تزال غامضة للغاية ، فقد حقق مجتمع البحث تقدمًا ملموسًا عبر العلوم والصناعة والحكومة “.

يتحدث قادة بارزون آخرون في منظمة العفو الدولية

يتحدث العديد من باحثي الذكاء الاصطناعي البارزين الآخرين ، على تويتر وأماكن أخرى ، ضد رواية “المصير”. على سبيل المثال ، أصر Andrew Ng أمس على أن الذكاء الاصطناعي سيكون جزءًا أساسيًا من حل المخاطر الوجودية:

وفي الوقت نفسه ، قالت باحثة الذكاء الاصطناعي ميريديث ويتاكر ، التي طُردت من Google في عام 2019 وهي الآن رئيسة مؤسسة Signal ، مؤخرًا إن التحذير من مخاطر x اليوم من رواد الذكاء الاصطناعي مثل جيفري هينتون هو صرف الانتباه عن التهديدات الأكثر إلحاحًا.

“إنه لأمر مخيب للآمال أن نرى جولة الاسترداد هذه في الخريف من شخص لم يحضر حقًا عندما كان أشخاص مثل Timnit [Gebru] وميج [Mitchell] وآخرون كانوا يخوضون مخاطر حقيقية في مرحلة مبكرة من حياتهم المهنية لمحاولة إيقاف بعض أخطر دوافع الشركات التي تتحكم في التقنيات التي نطلق عليها الذكاء الاصطناعي “.

كيفية التعامل مع قصة “المصير”

بالنسبة لريدل ، هناك مجال للقلق بشأن مخاطر الذكاء الاصطناعي الوجودية ، على الرغم من أنه أكد أنه “لم يطلع شخصيًا بعد على الادعاءات أو الأدلة التي أجدها ذات مصداقية عالية”.

ومع ذلك ، قال: “إذا حظيت المخاطر الوجودية التي تواجهها سلامة الذكاء الاصطناعي بالاهتمام والموارد ، فعندئذٍ ستتأثر القدرة على المعالجة الحالية والأضرار المستمرة سلبًا”.

قال جيرنيت من Hugging Face إنه من “المغري” صياغة خطاب مضاد للبيان حول مخاطر الذكاء الاصطناعي. لكنه أضاف أنه لن يفعل ذلك.

وقال: “تحتوي التصريحات على الكثير من الثغرات المنطقية ويمكننا أن نقضي الكثير من وقتنا وطاقتنا في محاولة إحداث ثغرات في كل من هذه العبارات”. قال: “ما وجدته أكثر فائدة وأفضل لصحتي العقلية هو الاستمرار في العمل على الأشياء المهمة”. “لا يمكنك [push back] كل خمس دقائق “.

مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى