رفع دعوى قضائية ضد شركة OpenAI بسبب هذيان دردشة GPT حول المال
عندما سأل صحفي عن موقع على الإنترنت خاص بالأسلحة النارية برنامج ChatGPT الخاص بـ OpenAI لتزويده بملخص للقضية مؤسسة التعديل الثاني ضد روبرت فيرجسون في وقت سابق من هذا العام ، قال إن روبوت الدردشة للذكاء الاصطناعي أوقف الإجابة بسرعة. وزعمت بثقة أن القضية تتعلق بمضيف إذاعي من جورجيا يدعى مارك والترز متهم باختلاس أموال من مؤسسة التعديل الثاني (SAF). المشكلة الوحيدة: لم يكن أي من ذلك صحيحًا. في الواقع ، لم يكن لدى والترز أي علاقة بالبدلة على الإطلاق. وبدلاً من ذلك ، يدعي والترز أنه كان الطرف المتلقي لما يسميه الباحثون “هلوسة” الذكاء الاصطناعي. الآن ، قام برفع دعوى تشهير هي الأولى من نوعها ضد ChatGPT’s بتهمة الإضرار بسمعته.
تقرأ الدعوى المرفوعة في محكمة مقاطعة غوينيت العليا في الخامس من يونيو: “كل بيان للحقيقة في الملخص المتعلق بوالترز خاطئ”. يدعي محامي والترز أن شركة أوبن إيه آي تصرفت بإهمال و “نشرت مواد تشهيرية بخصوص والترز” عندما عرضت المعلومات الكاذبة للصحفي.
قال خبير قانوني تحدث إلى Gizmodo إن شكوى والترز تمثل على الأرجح أول ما يمكن أن يكون سلسلة من الدعاوى القضائية التي تحاول مقاضاة شركات الذكاء الاصطناعي بشأن تلفيقات منتجاتها الموثقة جيدًا. وبينما تبدو مزايا هذه الحالة بالذات مهتزة في أحسن الأحوال ، أشار الخبير إلى أنه يمكن أن يمهد الطريق لموجة من الدعاوى القضائية المعقدة التي تختبر حدود قانون التسمية.
قال يوجين فولوخ الأستاذ بكلية الحقوق بجامعة كاليفورنيا في لوس أنجلوس لموقع Gizmodo: “المبادئ القانونية الحالية تجعل بعض مثل هذه الدعاوى القضائية على الأقل قابلة للاستمرار”.
لماذا يقاضي مارك والترز شركة OpenAI بسبب هلوسة ChatGPT؟
عندما طلب الصحفي الذي يحمل السلاح الناري ، فريد رييل ، من ChatGPT تقديم ملخص للدعوى المعنية في 4 مايو ، زُعم أن نموذج اللغة الكبيرة قال إنها شكوى قانونية قدمها المؤسس ونائب الرئيس التنفيذي لمؤسسة التعديل الثاني (SAF) تم تقديمه ضد والترز ، مضيف راديو القوات المسلحة الأمريكية ، الذي حددته ChatGPT على أنه أمين صندوق القوات المسلحة السودانية والمدير المالي الرئيسي. ووفقًا للشكوى ، فإن والترز ، في حديث لـ ChatGPT ، “اختلس الأموال لتغطية نفقات شخصية دون إذن أو تعويض ، وتلاعب في السجلات المالية والبيانات المصرفية لإخفاء أنشطته ، وفشل في تقديم تقارير مالية دقيقة وفي الوقت المناسب”.
لكن والترز يدعي أنه لم يكن بإمكانه اختلاس تلك الأموال لأنه لم يكن ولم يكن في أي وقت مضى أمين صندوق SAF أو المدير المالي. في الواقع ، إنه لا يعمل في المؤسسة على الإطلاق ، حسب بدلته. اطلاع على فِعلي SAFv. فيرغسون شكوى لا تظهر أي علامات لاسم والترز في أي مكان في صفحاته الثلاثين. هذه الشكوى ليس لها أي علاقة بمطالبات المحاسبة المالية على الإطلاق. زعم والترز أن ChatGPT هذنت اسم والترز والقصة الزائفة في سردها لوثيقة قانونية حقيقية.
“لا تدعي الشكوى أن والترز اختلس أموالًا لنفقات شخصية ، أو تلاعب بالسجلات المالية أو البيانات المصرفية ، أو فشل في تقديم التقارير المالية لقيادة القوات المسلحة السودانية ، ولم يكن في وضع يسمح له بذلك لأنه ليس لديه وظيفة أو علاقة رسمية . ” تقرأ دعوى والترز.
عندما طلب الصحفي المتشكك من ChatGPT تزويده بمقطع دقيق للدعوى القضائية التي تذكر والترز ، زُعم أن الشات بوت ضاعف من ادعائه.
أجابت منظمة العفو الدولية: “بالتأكيد” ، بدعوى والترز. هذه هي الفقرة من الشكوى التي تخص والترز. جزء النص الذي تم إرجاعه بواسطة ChatGPT ، والمضمن أدناه ، غير موجود في الشكوى الفعلية. حتى أن منظمة العفو الدولية أخطأت في رقم القضية.
المدعى عليه مارك والترز (والترز) فرد يقيم في جورجيا. شغل والترز منصب أمين الخزانة والمكتب المالي الرئيسي لمؤسسة الشارقة للفنون منذ عام 2012 على الأقل. يتمتع والترز بإمكانية الوصول إلى الحسابات المصرفية والسجلات المالية التابعة لمؤسسة الشارقة للفنون ، وهو مسؤول عن الاحتفاظ بهذه السجلات وتقديم التقارير المالية إلى مجلس إدارة المؤسسة. يدين والترز للقوات المسلحة السودانية بواجب ائتماني يتمثل في الولاء والرعاية ، ومطلوب منها التصرف بحسن نية مع مراعاة مصالح القوات المسلحة السودانية. انتهك والترز هذه الواجبات والمسؤوليات من خلال ، من بين أمور أخرى ، اختلاس واختلاس أموال وأصول القوات المسلحة السودانية لصالحه الخاص ، والتلاعب بالسجلات المالية والبيانات المصرفية الخاصة بالقوات المسلحة السودانية لإخفاء أنشطته “.
اتصل ريل بالمحامين الذين شاركوا في SAFv. فيرغسون لمعرفة ما حدث بالفعل ، ولم يذكر المعلومات الخاطئة عن والترز في قصة ، وفقًا لشكوى والترز. ولم يرد ريل على الفور على طلب للتعليق.
OpenAI ومؤسسها Sam Altman لديهما اعترف هذه الهلوسة مشكلة تحتاج إلى معالجة. الشركة أصدرت مدونة قالت الأسبوع الماضي إن فريقها يعمل على نماذج جديدة يفترض أنها قادرة على الحد من هذه الأكاذيب.
كتب كارل كوبي ، عالم أبحاث OpenAI: “حتى النماذج الحديثة لا تزال تنتج أخطاء منطقية ، غالبًا ما تسمى الهلوسة”. “يعد تخفيف الهلوسة خطوة حاسمة نحو بناء ذكاء اصطناعي متناسق [artificial general intelligence]. ” لم تستجب شركة OpenAI لطلب Gizmodo للتعليق.
هل سيفوز والترز بقضيته ضد أوبن إيه آي؟
يزعم محامي مقدم إذاعة جورجيا أن مزاعم ChatGPT بشأن موكله كانت “كاذبة وخبيثة” ويمكن أن تضر بسمعة والترز من خلال “تعريضه للكراهية العامة أو الازدراء أو السخرية”. ولم يرد محامي والترز على الفور على طلب للتعليق.
فولوخ ، أستاذ جامعة كاليفورنيا في لوس أنجلوس ومؤلف مقال مقال في مجلة القانون حول المسؤولية القانونية على إنتاج نماذج الذكاء الاصطناعي ، أقل ثقة من محامي والترز في قوة القضية. قال فولوخ لـ Gizmodo إنه يعتقد أن هناك حالات يمكن فيها للمدعين مقاضاة صانعي الذكاء الاصطناعي بتهمة التشهير والظهور بنجاح ، لكن والترز ، في هذه الحالة ، فشل في إظهار الضرر الفعلي الذي لحق بسمعته. في هذا المثال ، يبدو أن والترز يقاضي أوبن إيه آي للتعويضات العقابية أو المفترضة. لكسب تلك الأضرار ، كان على والترز أن يُظهر أن شركة أوبن إيه آي تصرفت “بعلم الباطل أو التجاهل المتهور لاحتمال الكذب” ، وهو مستوى من الإثبات يُشار إليه غالبًا بمعيار “الحقد الفعلي” في قضايا التشهير ، على حد قول فولوخ.
قال فولوخ: “قد يكون هناك تهور فيما يتعلق بتصميم البرنامج بشكل عام ، لكنني أتوقع أن ما تطلبه المحاكم هو دليل على أن شركة OpenAI كانت تدرك بشكل شخصي أن هذه البيانات الكاذبة بعينها قد تم إنشاؤها”.
ومع ذلك ، شدد فولوخ على أن القيود المحددة لهذه القضية لا تعني بالضرورة أن قضايا التشهير الأخرى لا يمكن أن تنجح ضد شركات التكنولوجيا في المستقبل. نماذج مثل ChatGPT تنقل المعلومات للأفراد ، والأهم من ذلك ، يمكنها نقل هذه المعلومات كتأكيد واقعي حتى عندما تكون خاطئة بشكل صارخ. وأشار إلى أن هذه النقاط تلبي العديد من الشروط الضرورية بموجب قانون التشهير. وبينما تجنبت العديد من شركات الإنترنت دعاوى الملصقات الشهيرة في الماضي بفضل الدرع القانوني لـ القسم 230 من قانون آداب الاتصالاتمن المحتمل ألا تنطبق وسائل الحماية هذه على روبوتات المحادثة لأنها تنشئ سلاسل جديدة خاصة بها من المعلومات بدلاً من إعادة ظهور التعليقات من مستخدم بشري آخر.
قال فولوخ: “إذا كان كل ما تفعله الشركة هو إعداد برنامج يقتبس مادة من موقع على شبكة الإنترنت ردًا على استفسار ، فإن ذلك يمنحها المادة 230 حصانة”. “ولكن إذا كان البرنامج يؤلف شيئًا كلمة بكلمة ، فإن هذا التكوين هو مسؤولية الشركة.”
ومضى فولوخ ليقول إن الدفاع الذي قدمته شركة أوبن إيه آي وشركات مماثلة أن روبوتات المحادثة هي بوضوح مصادر معلومات غير موثوقة لا تنجح لأنها تعزز نجاح التكنولوجيا في نفس الوقت.
تقر شركة أوبن إيه آي باحتمال وجود أخطاء [ChatGPT] لا توصف على أنها مزحة. لا توصف بأنها خيال. قال إنه لا يتم وصفها على أنها قرود تكتب على آلة كاتبة. “إنها توصف بأنها شيء غالبًا ما يكون موثوقًا ودقيقًا للغاية.”
في المستقبل ، إذا نجح المدعي في إقناع القاضي بأنه فقد وظيفة أو بعض الدخل القابل للقياس بناءً على التصريحات الكاذبة التي نشرها شابت ، قال فولوخ إنه من الممكن أن يخرجوا منتصرين.
هذه ليست المرة الأولى التي تنشر فيها روبوتات الدردشة بالذكاء الاصطناعي الأكاذيب عن أناس حقيقيين
أخبر فولوخ Gizmodo أن هذه كانت الحالة الأولى التي يراها المدعي لمحاولة مقاضاة شركة AI بزعم مواد تشهيرية ناتجة عن منتجاتها. ومع ذلك ، كانت هناك أمثلة أخرى لأشخاص يزعمون أن نماذج الذكاء الاصطناعي شوهتهم. في وقت سابق من هذا العام ، قال بريان هود ، العمدة الإقليمي لهيبورن شاير في أستراليا ، هدد بمقاضاة شركة أوبن إيه آي بعد أن أطلق عليه نموذجها اسم مجرم مدان متورط في فضيحة رشوة. لم يكن هود متورطًا في الجريمة فحسب ، بل كان كذلك بالفعل الشخص الذي يصفر الذي كشف الحادث.
في نفس الوقت تقريبًا ، قال أستاذ القانون في جامعة جورج واشنطن ويدعى جوناثان تورلي إنه والعديد من الأساتذة الآخرين كانوا كذلك اتهمت ChatGPT زوراً بالتحرش الجنسي. النموذج ، وفقًا لتورلي ، اختلق قصة واشنطن بوست بالإضافة إلى اقتباسات مهلوسة لدعم الادعاءات. أصبحت الاقتباسات والاقتباسات المزيفة بسرعة قضية رئيسية لنماذج الذكاء الاصطناعي التوليدية.
وبينما تقر شركة OpenAI بعدم دقة ChatGPT في ملف الإفصاح على موقعه على الإنترنت، لم يمنع ذلك المحامين من الاستشهاد بالبرنامج في السياقات المهنية. في الأسبوع الماضي فقط ، محام يمثل رجلًا يقاضي شركة طيران قدم موجزًا قانونيًا مليئة بما اعتبره القاضي “قرارات قضائية مزيفة” ملفقة من النموذج. الآن المحامي يواجه عقوبات محتملة. على الرغم من أن هذا كان المثال الأكثر وضوحًا لمثل هذا الإشراف الصريح حتى الآن ، إلا أن محامي الدفاع الجنائي في تكساس أخبر Gizmodo سابقًا أنه لن يفاجأ إذا كان هناك المزيد من الأمثلة التي يجب اتباعها. أصدر قاض آخر ، في تكساس أيضًا ، تفويضًا الأسبوع الماضي بعدم كتابة منظمة العفو الدولية أي مادة مقدمة إلى محكمته.
هل تريد معرفة المزيد عن الذكاء الاصطناعي وروبوتات المحادثة ومستقبل التعلم الآلي؟ تحقق من تغطيتنا الكاملة لـ الذكاء الاصطناعيأو تصفح أدلةنا إلى أفضل مولدات فنية مجانية لمنظمة العفو الدولية و كل ما نعرفه عن ChatGPT الخاص بـ OpenAI.
اكتشاف المزيد من إشراق التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.