Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تقنية

كيف ستتعامل السيارة ذاتية القيادة مع مشكلة الترولي؟


سيارة جوجل ذاتية القيادة

صورة: جاستن سوليفان (GettyImages)

ماذا ستفعل إذا رأيت سيارة ذاتية القيادة تصطدم بشخص ما؟

في أخلاقيات الروبوتمارك كويكلبيرج ، أستاذ فلسفة الإعلام والتكنولوجيا بجامعة فيينا ، يطرح مشكلة عربة لعام 2022: هل يجب أن تواصل السيارة مسارها وتقتل خمسة من المشاة ، أم تغير مسارها وتقتل أحدهم؟

في الفصل المقدم هنا ، يفحص Coeckelbergh كيف وضع البشر مفهومًا للروبوتات كإطار أكبر ويتحدث عن كيفية تعامل السيارات ذاتية القيادة مع المواقف المرورية المميتة – وما إذا كان هذا سؤالًا جديرًا بالاهتمام.

في فيلم الخيال العلمي الأمريكي 2004 أنا روبوت، الروبوتات الشبيهة بالبشر تخدم البشرية. ومع ذلك ، ليس كل شيء يسير على ما يرام. بعد وقوع حادث ، يتم إنقاذ رجل من السيارة الغارقة بواسطة روبوت ، ولكن لا يتم إنقاذ فتاة تبلغ من العمر اثني عشر عامًا. حسب الروبوت أن الرجل لديه فرصة أكبر للبقاء على قيد الحياة ؛ ربما اتخذ البشر خيارًا آخر. لاحقًا في الفيلم ، تحاول الروبوتات الاستيلاء على السلطة من البشر. يتم التحكم في الروبوتات بواسطة الذكاء الاصطناعي (AI) ، VIKI ، الذي قرر أن تقييد السلوك البشري وقتل بعض البشر سيضمن بقاء البشرية. يوضح الفيلم الخوف من سيطرة الروبوتات والذكاء الاصطناعي على العالم. كما يشير إلى معضلات أخلاقية افتراضية يجب أن تصل الروبوتات والذكاء الاصطناعي إلى الذكاء العام. ولكن هل هذا ما تعنيه أخلاقيات الروبوت وما ينبغي أن تدور حوله؟

الروبوتات القادمة أم أنهم هنا بالفعل؟

عادة عندما يفكر الناس في الروبوتات ، فإن الصورة الأولى التي تتبادر إلى الذهن هي إنسان آلي ذكي للغاية ، وغالبًا ما تكون هذه الصورة مستمدة من الخيال العلمي ، حيث نجد روبوتات تبدو وتتصرف بشكل أو بآخر مثل البشر ، وتحذر العديد من الروايات من الروبوتات التي تتولى الخوف هو أنهم لم يعودوا خدامنا بل جعلونا بدلاً من ذلك عبيداً لهم. مصطلح “الروبوت” ذاته يعني “العمل الجبري” باللغة التشيكية ويظهر في مسرحية كاريل شابيك RURو أقيم في براغ عام 1921 – قبل ما يزيد قليلاً عن مائة عام. المسرحية تقف في تاريخ طويل من القصص عن آلات تمرد تشبه الإنسان ، من ماري شيلي فرانكشتاين لأفلام مثل 2001: رحلة فضائيةفاصل عداء شفرةو أنا روبوت. في المخيلة العامة ، غالبًا ما تكون الروبوتات هدفًا للخوف والافتتان في نفس الوقت. نخشى أن يتولى زمام الأمور ، ولكن في نفس الوقت من المثير التفكير في تكوين كائن مصطنع يشبهنا. تعتبر الروبوتات جزءًا من تراثنا الرومانسي ، وهي بمثابة إسقاطات لأحلامنا وكوابيس حول إنشاء شخص آخر مصطنع.

أولاً ، هذه الروبوتات مخيفة بشكل أساسي ؛ هم وحوش وخارقة. لكن في بداية القرن الحادي والعشرين ، ظهرت صورة مختلفة للروبوتات في الغرب: الروبوت كرفيق وصديق وربما شريك. الفكرة الآن هي أنه لا ينبغي أن تقتصر الروبوتات على المصانع الصناعية أو الكواكب البعيدة في الفضاء. في الخيال المعاصر ، يتم تحريرهم من أعمال العبيد القذرة ، ويدخلون المنزل كشركاء اجتماعيين لطيفين ومفيدون ومثيرون في بعض الأحيان يمكنك التحدث معهم. في بعض الأفلام ، لا يزالون متمردون في النهاية – فكروا آلة السابقين، على سبيل المثال – لكنها تصبح عمومًا ما يسميه مصممو الروبوتات “الروبوتات الاجتماعية”. هم مصممون ل التفاعل “الطبيعي” بين الإنسان والروبوت – أي التفاعل بالطريقة التي اعتدنا عليها للتفاعل مع البشر أو الحيوانات الأليفة الأخرى. لقد تم تصميمها بحيث لا تكون مخيفة أو وحشية بل لطيفة ومفيدة ومسلية ومضحكة ومغرية.

هذا يقودنا إلى الحياة الحقيقية. الروبوتات لن تأتي. هم بالفعل هنا. لكنهم ليسوا تمامًا مثل الروبوتات التي نلتقي بها في الخيال العلمي. إنهم ليسوا مثل وحش فرانكشتاين أو المنهي. إنها روبوتات صناعية وأحيانًا “روبوتات اجتماعية”. هؤلاء ليسوا أذكياء مثل البشر أو أقاربهم من الخيال العلمي ، وغالبًا ما لا يكون لهم شكل بشري. حتى الروبوتات الجنسية ليست ذكية أو قادرة على المحادثة مثل الروبوت الموضح في الصورة آلة السابقين. على الرغم من التطورات الأخيرة في الذكاء الاصطناعي ، فإن معظم الروبوتات لا تشبه الإنسان بأي شكل من الأشكال. ومع ذلك ، فإن الروبوتات هنا ، وهي موجودة لتبقى. هم أكثر ذكاء وأكثر قدرة على الأداء الذاتي من ذي قبل. وهناك المزيد من تطبيقات العالم الحقيقي. لا تُستخدم الروبوتات في الصناعة فحسب ، بل تُستخدم أيضًا في الرعاية الصحية والنقل والمساعدة المنزلية.

غالبًا ما يجعل هذا حياة البشر أسهل. ومع ذلك ، هناك مشاكل أيضًا. قد تكون بعض الروبوتات خطيرة بالفعل – ليس لأنها ستحاول قتلك أو إغوائك (alعلى الرغم من أن “الطائرات بدون طيار القاتلة” والروبوتات الجنسية مدرجة أيضًا في قائمة أخلاقيات الروبوت) ، ولكن عادةً لأسباب أكثر دنيوية ، مثل أنها قد تأخذ وظيفتك ، قد تخدعك للاعتقاد بأنها شخص ، ويمكن أن تتسبب في وقوع حوادث عندما استخدامها كسيارة أجرة. هذه المخاوف ليست خيال علمي. هم متعلقون بالمستقبل القريب. بشكل عام ، نظرًا لتأثير التقنيات النووية والرقمية وغيرها على حياتنا وكوكبنا ، هناك وعي واعتراف متزايد بأن التقنيات تُحدث تغييرات أساسية في حياتنا ومجتمعاتنا وبيئتنا ، وبالتالي فإننا نفكر بشكل أفضل ، و بشكل أكثر أهمية ، حول استخدامها وتطويرها. هناك شعور بالإلحاح: نحن نفهم التقنيات بشكل أفضل ونقيّمها الآن ، قبل فوات الأوان – أي قبل أن يكون لها تأثيرات لا يريدها أحد. يمكن أيضًا تقديم هذه الحجة لتطوير واستخدام الروبوتات: دعونا ننظر في القضايا الأخلاقية التي تثيرها الروبوتات واستخدامها في مرحلة التطوير وليس بعد الحقيقة.

السيارات ذاتية القيادة والوكالة الأخلاقية والمسؤولية

تخيل سيارة ذاتية القيادة تسير بسرعة عالية عبر ممر ضيق. الأطفال يلعبون في الشارع. السيارة لديها خياران: إما أن تتجنب الأطفال وتقود في الحائط ، وربما تقتل الراكب البشري الوحيد ، أو تستمر في طريقها ومكابحها ، ولكن ربما فات الأوان لإنقاذ حياة الأطفال. ماذا يجب أن تفعل السيارة؟ ماذا ستفعل السيارات؟ كيف يجب برمجة السيارة؟

هذه التجربة الفكرية هي مثال لما يسمى معضلة العربة. عربة المدرج على وشك قيادة أكثر من خمسة أشخاص مقيدون إلى مضمار. أنت تقف بجانب المسار ويمكنك سحب رافعة تعيد توجيه العربة إلى مسار آخر ، حيث يتم تقييد شخص واحد. هل تسحب الرافعة؟ إذا لم تفعل شيئًا ، فسيقتل خمسة أشخاص. إذا قمت بسحب الرافعة ، فسيقتل شخص واحد. غالبًا ما يستخدم هذا النوع من المعضلات لجعل الناس يفكرون فيما يُنظر إليه على أنه معضلات أخلاقية تثيرها السيارات ذاتية القيادة. الفكرة هي أن مثل هذه البيانات يمكن أن تساعد الآلات على اتخاذ القرار.

على سبيل المثال ، جمعت منصة Moral Machine عبر الإنترنت ملايين القرارات من المستخدمين في جميع أنحاء العالم حول تفضيلاتهم الأخلاقية في الحالات التي يتعين فيها على السائق اختيار “أهون الشرين”. سُئل الناس عما إذا كانت السيارة ذاتية القيادة يجب أن تعطي الأولوية للبشر على الحيوانات الأليفة ، والركاب على المشاة ، والنساء على الرجال ، وما إلى ذلك. ومن المثير للاهتمام ، أن هناك اختلافات بين الثقافات فيما يتعلق بالخيارات التي يتم اتخاذها. بعض الثقافات مثل اليابان والصين ، على سبيل المثال ، كانت أقل احتمالا لتجنيب الشباب على كبار السن ، في حين أن ثقافات أخرى مثل المملكة المتحدة والولايات المتحدة كانت أكثر احتمالا لتجنيب الشباب. وبالتالي ، لا تقدم هذه التجربة طريقة للتعامل مع أخلاقيات الآلات فحسب ، بل تطرح أيضًا السؤال الأكثر عمومية حول كيفية مراعاة الاختلافات الثقافية في الروبوتات والأتمتة.

تين. 3

تين. 3
صورة: مطبعة معهد ماساتشوستس للتكنولوجيا / مارك كويكلبيرج

يوضح الشكل 3 مثالاً على حالة معضلة عربة: هل يجب أن تواصل السيارة مسارها وتقتل خمسة من المشاة ، أم تغير مسارها وتقتل أحدهم؟ قد لا يكون تطبيق معضلة العربة على حالة السيارات ذاتية القيادة هو أفضل طريقة للتفكير في أخلاقيات السيارات ذاتية القيادة ؛ لحسن الحظ ، نادرًا ما نواجه مثل هذه المواقف في حركة المرور ، أو قد تكون التحديات أكثرمكررة ولا تتضمن اختيارات ثنائية ، ويعكس تعريف المشكلة هذا نهجًا معياريًا محددًا للأخلاق (العواقبية ، ولا سيما النفعية). هناك نقاش في الأدبيات حول المدى الذي تمثل فيه معضلات العربة التحديات الأخلاقية الفعلية. ومع ذلك ، غالبًا ما تُستخدم معضلات العربة كتوضيح لفكرة أنه عندما تصبح الروبوتات أكثر استقلالية ، علينا أن نفكر في مسألة ما إذا كان من الممكن منحهم نوعًا من الأخلاق أم لا (إذا كان من الممكن تجنب ذلك على الإطلاق) ، وإذا لذا ، أي نوع من الأخلاق. علاوة على ذلك ، فإن الروبوتات المستقلة تثير تساؤلات حول الموضوعجي المسؤولية الأخلاقية. خذ بعين الاعتبار الذات-قيادة السيارة مرة أخرى.

في مارس 2018 ، قتلت سيارة أوبر ذاتية القيادة أحد المشاة في تيمبي ، أريزونا. كان هناك عامل في السيارة ، لكن في وقت وقوع الحادث كانت السيارة ذاتية القيادة الوضع. الوضع. كان المشاة يسير خارج ممر المشاة. لم تتباطأ فولفو SUV عندما اقتربت من النساء. ليس هذا هو الحادث الوحيد المميت الذي تم الإبلاغ عنه. في عام 2016 ، على سبيل المثال ، فشلت سيارة Tesla Model S في وضع الطيار الآلي في ذلك اكتشاف شاحنة كبيرة ومقطورة تعبر الطريق السريع ، و اصطدم بالمقطورة ، مما أسفر عن مقتل سائق تسلا. للعديد من المراقبين ، مثل هذه الحوادث لا تظهر فقط قيود التطور التكنولوجي في الوقت الحاضر (لا يبدو حاليًا مثل السيارات جاهزة للمشاركة في المرور) والحاجة للتنظيم أنها تثير تحديات فيما يتعلق فيتوزيع المسؤولية. خذ بعين الاعتبار قضية أوبر. الذي هو المسؤول عن الحادث؟ السيارة لا تستطيع تحمل المسؤوليةالمرونة. لكن الأطراف البشرية المعنية يمكن أن تكون جميعًا كن مسؤولاً: شركة أوبر التي تستخدم الكارت القبعة ليست جاهزة للطريق بعد ؛ شركة تصنيع السيارات فولفو التي فشلت في تطوير سيارة آمنة ؛ ثيوبيراتورين السيارة التي لم تتفاعل في الوقت المناسب لإيقاف السيارة ؛ ال المشاة الذي لم يكن يسير داخل ممر المشاة ؛ و المنظمون (على سبيل المثال ، ولاية أريزونا) التي سمحت بذلك السيارة المراد اختبارها على الطريق. كيف لنا أن ننسب و توزيع المسؤولية على اعتبار أن السيارة كانت تقود بشكل مستقل والعديد من الأطراف متورطة؟ كيف هل علينا أن ننسب المسؤولية في جميع أنواع autonoحالات الروبوت ، وكيف نتعامل مع هذه المسألة كمهنة (على سبيل المثال ، المهندسين) ، وشركة ، والمجتمع – ويفضل بشكل استباقي قبل وقوع الحوادث؟

بعض الأسئلة جفيما يتعلق بالروبوتات المستقلة

كما هو موضح في حادث Uber ، فإن السيارات ذاتية القيادة ليست كذلك العلم كله فايعمل. العاشريتم اختبارهم على الطريق ، وتقوم شركات تصنيع السيارات بتطويرها. على سبيل المثال،تختبر تسلا وبي إم دبليو ومرسيدس بالفعل المركبات ذاتية القيادةcles. العديد من هذه السيارات ليست مستقلة بالكامل بعد ، ولكن الأمور تسير في هذا الاتجاه. والسيارات ليست هي فقط الروبوتات المستقلة والذكية حولها. يعتبر مرة أخرى الروبوتات المستقلة في المنازل والمستشفيات.

ماذا إذا يضرون الناس؟ كيف يمكن تجنب ذلك؟ وينبغي أنها تحمي الناس بنشاط من الأذى؟ ماذا لو كانوا يجب أن تصنع اختيارات أخلاقية؟ هل لديهم القدرة لاتخاذ مثل هذه الخيارات؟ علاوة على ذلك ، بعض الروبوتات متطورةفتحت من أجل القتل (انظر الفصل 7 عن الروبوتات العسكرية). إذا يختارون هدفهم بشكل مستقل ، هل يمكنهم فعل ذلك بطريقة أخلاقية (على افتراض ، من أجل الجدل ، أن نسمح لمثل هذه الروبوتات بالقتل على الإطلاق)؟ أي نوع من الأخلاق يجب أن يستخدموا؟ هل يمكن أن يكون للروبوتات أخلاقيات على الإطلاق؟ مع فيما يتعلق بالروبوتات المستقلة بشكل عام ، فإن السؤال هو إذا إنهم بحاجة إلى نوع من الأخلاق ، وإذا كان ذلك ممكنًا (إذا يمكننا وينبغي أن يكون لدينا “آلات أخلاقية”). هل يمكن أن يكون لديهم وكالة أخلاقية؟ ما هي الفاعلية الأخلاقية؟ ويمكن أن تكون الروبوتات كذلك مسؤول؟ من أو ما هو المسؤول ويجب أن يكون مسؤولاً إذا حدث خطأ ما؟

مقتبس من أخلاقيات الروبوت بواسطة مارك كويكلبيرج. حقوق الطبع والنشر 2022. تستخدم بإذن من مطبعة معهد ماساتشوستس للتكنولوجيا.

أخلاقيات الروبوت

صورة: مطبعة معهد ماساتشوستس للتكنولوجيا / مارك كويكلبيرج

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى