منصات

حاولت منطقة مدرسية المساعدة في تدريب Waymos على التوقف عند الحافلات المدرسية. لم ينجح الأمر

واحد من تتمثل المزايا المزعومة لتقنية السيارات ذاتية القيادة في أن كل سيارة يمكن أن تتعلم من أخطاء مركبة واحدة. وإليك كيفية تشغيل Waymo موقعها على الانترنت: “يتعلم سائق Waymo من التجارب الجماعية التي تم جمعها عبر أسطولنا، بما في ذلك أجيال الأجهزة السابقة.”

لكن في أوستن، كافحت مركبات Waymo لعدة أشهر لتتعلم كيفية التوقف للحافلات المدرسية أثناء قيام السائقين بنقل الأطفال وإنزالهم. مسؤول في منطقة مدارس أوستن المستقلة (AISD) المزعوم أن المركبات قد مرت، في 19 حالة على الأقل، “بشكل غير قانوني وخطير” بالحافلات المدرسية بالمنطقة بينما كانت أضواءها الحمراء تومض وتم تمديد أذرع التوقف الخاصة بها بدلاً من التوقف الكامل، كما يقتضي القانون.

وفي أوائل ديسمبر/كانون الأول، أصدرت Waymo استدعاءً فيدراليًا يتعلق بالحوادث، معترفًا به على الأقل 12 منهم إلى المنظمين الفيدراليين في الإدارة الوطنية للسلامة المرورية على الطرق السريعة (NHTSA)، التي تشرف على السلامة على الطرق. ووفقاً للملفات الفيدرالية، كان المهندسون في شركة المركبات ذاتية القيادة قد “طوروا تغييرات برمجية لمعالجة السلوك” قبل أسابيع.

ولكن حتى بعد الاستدعاء، استمرت حوادث مرور الحافلات المدرسية، وفقًا لمسؤولي المدرسة و تقرير من المجلس الوطني لسلامة النقل (NTSB)، وهي هيئة مراقبة السلامة الفيدرالية المستقلة التي تحقق أيضًا في الموقف.

الآن، تُظهر رسائل البريد الإلكتروني والرسائل النصية بين مسؤولي المدرسة وممثلي Waymo، والتي حصلت عليها WIRED من خلال طلب السجلات العامة، المدى الذي بذلته منطقة المدارس العامة في أوستن وWaymo لمحاولة حل المشكلة. حتى أن AISD استضافت حدثًا “لجمع البيانات” لمدة نصف يوم في ساحة انتظار السيارات بالمدرسة في منتصف ديسمبر، كما تظهر الوثائق، حيث قام العديد من الموظفين بجمع الحافلات المدرسية وإشارات التوقف من جميع أنحاء الأسطول حتى تتمكن شركة السيارات ذاتية القيادة من جمع المعلومات المتعلقة بالمركبات وأضوائها الساطعة.

ومع ذلك، بحلول منتصف يناير، بعد مرور أكثر من شهر، أبلغت المنطقة التعليمية عن وقوع أربعة حوادث أخرى على الأقل لمرور الحافلات المدرسية في أوستن. مسؤول في قسم شرطة المدرسة: “البيانات التي جمعناها من بداية العام الدراسي حتى نهاية الفصل الدراسي تظهر أن حوالي 98 بالمائة من الأشخاص الذين يتلقون مخالفة واحدة لا يتلقون مخالفة أخرى”. قال لفرع NBC المحلي في ذلك الشهر. “يخبرنا هذا أن الشخص يتعلم، ولكن لا يبدو أن نظام التشغيل الآلي Waymo يتعلم من خلال تحديثات البرامج الخاصة به، أو استرجاعه، أو ماذا لديك، لأننا لا نزال نواجه انتهاكات”.

يثير هذا الوضع تساؤلات حول النقاط العمياء المثيرة للاهتمام في تقنيات القيادة الذاتية وقدرة الصناعة على التعويض عنها حتى بعد اكتشافها.

تقول ميسي كامينغز، التي تبحث في المركبات ذاتية القيادة في جامعة جورج ماسون وعملت كمستشارة للسلامة لدى NHTSA خلال إدارة بايدن، إن برمجيات القيادة الذاتية عانت منذ فترة طويلة من أجل التعرف على أضواء الطوارئ الوامضة وأجهزة السلامة على الطرق ذات الأذرع الطويلة والرفيعة، بما في ذلك البوابات وأذرع التوقف. “إذا.” [the company] وتقول: “لم يتم حل هذه المشكلة قبل بضع سنوات، فكلما زاد عدد سياراتهم، زادت المشكلة”. “هذا بالضبط ما يحدث هنا.”

لم تستجب Waymo لطلبات WIRED للتعليق. أحال متحدث باسم منطقة المدارس المستقلة في أوستن WIRED إلى NTSB بينما تكون الحوادث قيد التحقيق. رفض متحدث باسم NTSB الإجابة على أسئلة WIRED أثناء استمرار التحقيق.

تمرير غير قانوني

بحلول منتصف شتاء عام 2025، شعر مسؤولو AISD بالإحباط. في واحدة من 19 حادثة ادعى عليها محامي المنطقة في رسالة تم إصدار Waymo لاحقًا من قبل المنظمين الفيدراليين للسلامة على الطرق، حيث مرت بحافلة مدرسية لترك الأطفال “بعد لحظات فقط من عبور أحد الطلاب أمام السيارة، وبينما كان الطالب لا يزال على الطريق”.

وكتب المحامي: “من المثير للقلق أن خمسة من الحوادث المزعومة وقعت بعد أن أكدت شركة Waymo للمنطقة أنها قامت بتحديث برامجها لإصلاح المشكلة”. كان لدى المنظمين الفيدراليين مع NHTSA أطلقت بالفعل التحقيق في السلوك. وحذر المحامي من أن “أوستن ISD يقوم بتقييم جميع سبل الانتصاف القانونية المحتملة المتاحة له ويعتزم اتخاذ أي إجراء ضروري لحماية سلامة طلابه، إذا لزم الأمر”.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى