اهتم بلغتك: مخاطر استخدام روبوتات الدردشة التي تعمل بالذكاء الاصطناعي مثل ChatGPT في المؤسسة
انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح.. يتعلم أكثر
توافد الملايين من المستخدمين على ChatGPT منذ إطلاقه الرئيسي في نوفمبر 2022. وبفضل قدراته الاستثنائية لتوليد اللغة الشبيهة بالبشر ، ومدى قدرته على استخدام برامج الترميز ، وتحليل النص بسرعة البرق ، فقد ظهر ChatGPT سريعًا كأداة انتقال . للمطورين والباحثين والمستخدمين العاديين.
ولكن كما هو الحال مع أي تقنية تخريبية ، فإن أنظمة الذكاء الاصطناعي التوليدية مثل ChatGPT تأتي مع مخاطر محتملة. على وجه الخصوص ، قام اللاعبون الرئيسيون في صناعة التكنولوجيا ووكالات الاستخبارات الحكومية والهيئات الحكومية الأخرى برفع الأعلام الحمراء حول المعلومات الحساسة التي يتم إدخالها في أنظمة الذكاء الاصطناعي مثل ChatGPT.
ينبع القلق من احتمال تسرب مثل هذه المعلومات في نهاية المطاف إلى المجال العام ، سواء من خلال الانتهاكات الأمنية أو استخدام المحتوى الذي ينشئه المستخدم “لتدريب” روبوتات المحادثة.
استجابة لهذه المخاوف ، تتخذ المؤسسات التقنية إجراءات للتخفيف من المخاطر الأمنية المرتبطة بنماذج اللغة الكبيرة (LLMs) والذكاء الاصطناعي للمحادثة (CAI). اختارت العديد من المنظمات حظر استخدام ChatGPT تمامًا ، بينما حذرت منظمات أخرى موظفيها من مخاطر إدخال بيانات سرية في مثل هذه النماذج.
حدث
تحويل 2023
انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.
سجل الان
ChatGPT: ذكاء اصطناعي مخيف في العراء؟
أصبح ChatGPT المدعوم بالذكاء الاصطناعي أداة شائعة للشركات التي تتطلع إلى تحسين عملياتها وتبسيط المهام المعقدة. ومع ذلك ، فقد أكدت الأحداث الأخيرة على المخاطر المحتملة لتبادل المعلومات السرية من خلال المنصة.
في تطور مقلق ، تم الإبلاغ عن ثلاث حالات من تسرب البيانات الحساسة عبر ChatGPT في أقل من شهر. أحدثها حدث الأسبوع الماضي. دخلت شركة Samsung المصنعة للهواتف الذكية في جدل عندما ذكرت وسائل الإعلام الكورية أن الموظفين في مصانعها الرئيسية لأشباه الموصلات قد أدخلوا معلومات سرية ، بما في ذلك شفرة المصدر شديدة الحساسية المستخدمة لحل أخطاء البرمجة ، في روبوت الدردشة AI.
تعد شفرة المصدر واحدة من أكثر أسرار أي شركة تقنية تخضع لحراسة مشددة ، حيث تعمل بمثابة لبنة أساسية لأي برنامج أو نظام تشغيل. ومن ثم ، فإن الأسرار التجارية الثمينة قد سقطت الآن عن غير قصد في حيازة OpenAI ، مزود خدمات الذكاء الاصطناعي الهائل الذي أحدث ثورة في عالم التكنولوجيا.
على الرغم من طلبات VentureBeat ، لم تعلق Samsung على الأمر ، لكن مصادر قريبة من الشركة كشفت أن الشركة قلصت على ما يبدو وصول موظفيها إلى ChatGPT.
واجهت تكتلات أخرى من قائمة Fortune 500 ، بما في ذلك Amazon و Walmart و JPMorgan ، حالات مماثلة للموظفين دفعوا عن طريق الخطأ بيانات حساسة إلى برنامج الدردشة الآلي.
دفعت التقارير الخاصة بموظفي Amazon الذين يستخدمون ChatGPT للوصول إلى معلومات العملاء السرية الشركة التقنية العملاقة إلى تقييد استخدام الأداة بسرعة وتحذير العمال بشدة من إدخال أي بيانات حساسة فيها.
معرفة بدون حكمة
قال Mathieu Fortier ، مدير التعلم الآلي في منصة Coveo للتجربة الرقمية التي تعتمد على الذكاء الاصطناعي ، إن LLMs مثل GPT-4 و LLaMA تعاني من العديد من العيوب وحذر من أنه على الرغم من براعتها في فهم اللغة ، فإن هذه النماذج تفتقر إلى القدرة على تمييز الدقة والثبات. القوانين والواقع المادي والجوانب الأخرى غير اللغوية.
“بينما تقوم LLM بإنشاء مستودعات معرفة جوهرية واسعة النطاق من خلال بيانات التدريب ، إلا أنها لا تملك مفهومًا واضحًا للحقيقة أو الدقة الواقعية. بالإضافة إلى ذلك ، فهم عرضة للانتهاكات الأمنية وهجمات استخراج البيانات ، وهم عرضة للانحراف عن الاستجابات المقصودة أو إظهار “شخصيات مختلة”.
سلط فورتير الضوء على المخاطر الكبيرة التي تنطوي عليها الشركات. يمكن أن تؤدي التداعيات إلى تآكل ثقة العملاء بشدة وإلحاق ضرر لا يمكن إصلاحه بسمعة العلامة التجارية ، مما يؤدي إلى مشاكل قانونية ومالية كبيرة.
على خطى عمالقة التكنولوجيا الآخرين ، نفذت Walmart Global Tech ، قسم التكنولوجيا في شركة البيع بالتجزئة العملاقة ، تدابير للتخفيف من مخاطر انتهاكات البيانات. في مذكرة داخلية للموظفين ، وجهت الشركة الموظفين لحظر ChatGPT بعد اكتشاف نشاط مشبوه يمكن أن يعرض بيانات المؤسسة وأمانها للخطر.
صرح متحدث باسم Walmart أنه على الرغم من قيام بائع التجزئة بإنشاء روبوتات محادثة خاصة به على قدرات GPT-4 ، فقد نفذ العديد من الإجراءات لحماية بيانات الموظفين والعملاء من النشر على أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT.
تقدم معظم التقنيات الجديدة فوائد جديدة بالإضافة إلى مخاطر جديدة. لذلك ، ليس من غير المألوف بالنسبة لنا تقييم هذه التقنيات الجديدة وتزويد شركائنا بإرشادات الاستخدام لحماية بيانات عملائنا وأعضائنا وزملائنا “، كما قال المتحدث لـ VentureBeat.” الاستفادة من التكنولوجيا المتاحة ، مثل Open AI ، وبناء طبقة بالإضافة إلى أنه يتحدث عن البيع بالتجزئة بشكل أكثر فاعلية ، فإنه يمكننا من تطوير تجارب عملاء جديدة وتحسين القدرات الحالية “.
تبنت شركات أخرى ، مثل Verizon و Accenture ، أيضًا خطوات للحد من استخدام ChatGPT ، مع توجيه Verizon للعاملين بها لتقييد برنامج الدردشة الآلي بالمهام غير الحساسة ، وتنفيذ Accenture لضوابط أكثر صرامة لضمان الامتثال للوائح خصوصية البيانات.
كيف يستخدم ChatGPT بيانات المحادثة
ومما يزيد من تفاقم هذه المخاوف حقيقة أن ChatGPT يحتفظ ببيانات إدخال المستخدم لتدريب النموذج بشكل أكبر ، مما يثير تساؤلات حول احتمال تعرض المعلومات الحساسة من خلال انتهاكات البيانات أو غيرها من الحوادث الأمنية.
نفذت شركة OpenAI ، الشركة التي تقف وراء نماذج الذكاء الاصطناعي التوليدية الشهيرة ChatGPT و DALL-E ، مؤخرًا سياسة جديدة لتحسين خصوصية بيانات المستخدم وأمانها.
اعتبارًا من 1 مارس من هذا العام ، يجب على مستخدمي واجهة برمجة التطبيقات الاشتراك صراحة في مشاركة بياناتهم للتدريب أو تحسين نماذج OpenAI.
في المقابل ، بالنسبة للخدمات التي لا تعتمد على واجهة برمجة التطبيقات ، مثل ChatGPT و DALL-E ، يجب على المستخدمين الاختيار خارج إذا كانوا لا يرغبون في استخدام OpenAI لبياناتهم.
وفقًا لمدونة OpenAI ، التي تم تحديثها مؤخرًا ، “عندما تستخدم خدمات العملاء غير المتوافقة مع واجهة برمجة التطبيقات ، ChatGPT أو DALL-E ، فقد نستخدم البيانات التي تقدمها لنا لتحسين نماذجنا”. “إن مشاركة بياناتك معنا لا تساعد نماذجنا على أن تصبح أكثر دقة وأفضل في حل مشكلتك المحددة فحسب ، بل تساعد أيضًا في تحسين قدراتها العامة وسلامتها … يمكنك طلب إلغاء الاشتراك في استخدام بياناتك لتحسين خدماتنا غير API الخدمات عن طريق ملء هذا النموذج بمعرف مؤسستك وعنوان البريد الإلكتروني المرتبط بمالك الحساب “.
يأتي هذا الإعلان وسط مخاوف بشأن المخاطر الموضحة أعلاه وحاجة الشركات إلى توخي الحذر عند التعامل مع المعلومات الحساسة. انضمت الحكومة الإيطالية مؤخرًا إلى المعركة من خلال حظر استخدام ChatGPT في جميع أنحاء البلاد ، مشيرة إلى مخاوف بشأن خصوصية البيانات وأمنها.
تنص OpenAI على أنها تزيل أي معلومات تعريف شخصية من البيانات المستخدمة لتحسين نماذج الذكاء الاصطناعي الخاصة بها ، وتستخدم فقط عينة صغيرة من البيانات من كل عميل لهذا الغرض.
تحذير الحكومة
أصدرت وكالة استخبارات مقر الاتصالات الحكومية في المملكة المتحدة (GCHQ) ، من خلال المركز الوطني للأمن السيبراني (NCSC) ، مذكرة تحذيرية حول قيود ومخاطر النماذج اللغوية الكبيرة (LLMs) مثل ChatGPT. في حين تم الإشادة بهذه النماذج لقدراتها المثيرة للإعجاب في معالجة اللغة الطبيعية ، يحذر مركز NCSC من أنها ليست معصومة من الخطأ وقد تحتوي على عيوب خطيرة.
وفقًا لـ NCSC ، يمكن لـ LLM إنشاء حقائق غير صحيحة أو “مهلوسة” ، كما هو موضح خلال العرض التوضيحي الأول لروبوت الدردشة Bard من Google. يمكنهم أيضًا إظهار التحيز والسذاجة ، خاصة عند الرد على الأسئلة الإيحائية. بالإضافة إلى ذلك ، تتطلب هذه النماذج موارد حاسوبية كبيرة وكميات هائلة من البيانات للتدريب من نقطة الصفر ، وهي عرضة لهجمات الحقن وإنشاء المحتوى السام.
قال Coveo’s Fortier: “LLMs تولد استجابات للمطالبات بناءً على التشابه الجوهري لذلك الموجه إلى معرفتهم الداخلية ، والتي تحفظ الأنماط التي تظهر في بيانات التدريب”. “ومع ذلك ، نظرًا لعدم وجود” قواعد صارمة “داخلية أو قدرات منطقية داخلية ، لا يمكنهم الامتثال بنجاح بنسبة 100٪ للقيود التي قد تأمرهم بعدم الكشف عن معلومات حساسة”.
وأضاف أنه على الرغم من الجهود المبذولة للحد من توليد المعلومات الحساسة ، إذا تم تدريب LLM على مثل هذه البيانات ، فيمكنها إعادة توليدها.
وقال: “الحل الوحيد ليس تدريب هذه النماذج بمواد حساسة”. “يجب على المستخدمين أيضًا الامتناع عن تزويدهم بمعلومات حساسة عند المطالبة ، لأن معظم الخدمات الموجودة اليوم ستحتفظ بهذه المعلومات في سجلاتهم.”
أفضل الممارسات للاستخدام الآمن والأخلاقي للذكاء الاصطناعي التوليدي
مع استمرار الشركات في تبني الذكاء الاصطناعي والتقنيات الناشئة الأخرى ، سيكون من الضروري ضمان الضمانات المناسبة لحماية البيانات الحساسة ومنع الكشف غير المقصود عن المعلومات السرية.
تسلط الإجراءات التي اتخذتها هذه الشركات الضوء على أهمية توخي اليقظة عند استخدام نماذج لغة الذكاء الاصطناعي مثل ChatGPT. في حين أن هذه الأدوات يمكن أن تحسن الكفاءة والإنتاجية بشكل كبير ، إلا أنها تشكل مخاطر كبيرة إذا لم يتم استخدامها بشكل مناسب.
“أفضل نهج هو أخذ كل تطور جديد في التقدم الأولي لنماذج اللغة وتكييفها في بنية قائمة على سياسة المؤسسة والتي تحيط بنموذج اللغة مع المعالجات المسبقة والمعالجات اللاحقة لقضبان الحماية ، وضبطها للمؤسسات – بيانات محددة ، وربما حتى الانتقال إلى النشر في مكان العمل أيضًا ، “صرح بذلك بيتر ريلان ، رئيس شركة AI المبتدئة للمحادثة Got It AI ، لموقع VentureBeat. “بخلاف ذلك ، تكون النماذج اللغوية الأولية قوية جدًا وفي بعض الأحيان تكون ضارة للتعامل معها في المؤسسة.”
من جانبه ، قال براسانا أريكالا ، كبير موظفي التكنولوجيا في منصة Kore.ai للمحادثة التي تدعمها شركة Nvidia ، إنه من الضروري للمضي قدمًا أن تحد الشركات من وصول LLM إلى المعلومات الحساسة والشخصية لتجنب الانتهاكات.
يمكن أن يساعد تطبيق ضوابط وصول صارمة ، مثل المصادقة متعددة العوامل ، وتشفير البيانات الحساسة في التخفيف من هذه المخاطر. يمكن أيضًا إجراء عمليات تدقيق أمنية منتظمة وتقييمات نقاط الضعف لتحديد ومعالجة الثغرات الأمنية المحتملة. “في حين أن LLM هي أدوات قيمة إذا تم استخدامها بشكل صحيح ، فمن الأهمية بمكان أن تتخذ الشركات الاحتياطات اللازمة لحماية البيانات الحساسة والحفاظ على ثقة العملاء وأصحاب المصلحة.”
يبقى أن نرى كيف ستتطور هذه اللوائح ، ولكن يجب أن تظل الشركات يقظة ومطلعة للبقاء في الطليعة. مع الفوائد المحتملة للذكاء الاصطناعي التوليفي تأتي مسؤوليات وتحديات جديدة ، والأمر متروك لصناعة التكنولوجيا للعمل جنبًا إلى جنب مع صانعي السياسات لضمان تطوير التكنولوجيا وتنفيذها بمسؤولية وأخلاقية.
مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.
اكتشاف المزيد من إشراق التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.