تكشف الأنظمة غير الشفافة عن أدوات الذكاء الاصطناعي والتحليلات السرية قبل قمة الحوسبة السرية
انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح.. يتعلم أكثر
أعلنت شركة أنظمة الذكاء الاصطناعي والتحليلات Opaque Systems اليوم عن ابتكارات جديدة لمنصة الحوسبة السرية الخاصة بها. تعطي العروض الجديدة الأولوية لسرية البيانات التنظيمية أثناء استخدام نماذج اللغات الكبيرة (LLMs).
أعلنت الشركة أنها ستعرض هذه الابتكارات خلال خطاب Opaque الرئيسي في قمة الحوسبة السرية الافتتاحية ، التي ستعقد في 29 يونيو في سان فرانسيسكو.
وهي تتألف من ذكاء اصطناعي توليدي يحافظ على الخصوصية محسّن لـ Microsoft Azure’s Confidential Computing Cloud ، ومنصة تحليلات غير موثوقة: Data Clean Room (DCR). وفقًا للشركة ، فإن الذكاء الاصطناعي التوليدي الخاص بها يسخر طبقات متعددة من الحماية من خلال دمج جيوب الأجهزة الآمنة وتحصينات التشفير الفريدة.
قال جاي هاريل ، نائب رئيس المنتج في شركة Opaque Systems ، لـ VentureBeat: “تضمن المنصة غير الشفافة بقاء البيانات مشفرة من طرف إلى طرف أثناء تدريب النموذج ، والضبط الدقيق والاستدلال ، وبالتالي ضمان الحفاظ على الخصوصية”. “لتقليل احتمالية حدوث خروقات للبيانات طوال دورة الحياة ، يحمي نظامنا الأساسي البيانات في حالة السكون ، وأثناء النقل ، وأثناء الاستخدام”.
حدث
تحويل 2023
انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.
سجل الان
من خلال هذه العروض الجديدة ، تهدف Opaque إلى تمكين المنظمات من تحليل البيانات السرية بشكل آمن مع ضمان سريتها وحمايتها من الوصول غير المصرح به.
لدعم حالات استخدام الذكاء الاصطناعي السرية ، وسعت المنصة قدراتها لحماية التعلم الآلي ونماذج الذكاء الاصطناعي. يحقق ذلك من خلال تنفيذها على بيانات مشفرة داخل بيئات تنفيذ موثوقة (TEEs) ، وبالتالي منع الوصول غير المصرح به.
تؤكد الشركة أن غرف تنظيف البيانات (DCRs) غير الموثوقة يمكنها تشفير البيانات في حالة السكون ، وأثناء النقل ، وأثناء الاستخدام. يضمن هذا النهج أن تظل جميع البيانات المرسلة إلى الغرفة النظيفة سرية طوال العملية.
>> لا تفوّت إصدارنا الخاص: بناء الأساس لجودة بيانات العملاء. <
ضمان أمن البيانات من خلال الحوسبة السرية
تعتمد LLM مثل ChatGPT على البيانات العامة للتدريب. يؤكد معتم أن الإمكانات الحقيقية لهذه النماذج لا يمكن أن تتحقق إلا من خلال تدريبها على البيانات السرية للمؤسسة دون التعرض لخطر الانكشاف.
توصي معتم بأن تتبنى الشركات الحوسبة السرية للتخفيف من هذه المخاطر. الحوسبة السرية هي طريقة يمكنها حماية البيانات أثناء تدريب النموذج بأكمله وعملية الاستدلال. تدعي الشركة أن الطريقة يمكن أن تطلق العنان للقدرات التحويلية لـ LLMs.
قال هاريل من شركة Opaque لـ VentureBeat: “نحن نستخدم تقنية الحوسبة السرية للاستفادة من الأجهزة المتخصصة التي يوفرها موفرو الخدمات السحابية”. تضمن تقنية تحسين الخصوصية هذه تشفير مجموعات البيانات من طرف إلى طرف طوال دورة حياة التعلم الآلي. مع النظام الأساسي Opaque ، يظل النموذج والموجه والسياق مشفرين أثناء التدريب وأثناء تشغيل الاستدلال “.
قال هاريل إن عدم وجود مشاركة آمنة للبيانات وتحليلها في المؤسسات التي لديها العديد من مالكي البيانات أدى إلى قيود على الوصول إلى البيانات ، والقضاء على مجموعة البيانات ، وإخفاء مجال البيانات ، والوقاية المباشرة من مشاركة البيانات.
قال إن هناك ثلاث قضايا رئيسية عندما يتعلق الأمر بالذكاء الاصطناعي التوليدي والخصوصية ، لا سيما فيما يتعلق بـ LLM:
- استفسارات: يتمتع موفرو LLM بالرؤية في استفسارات المستخدم ، مما يزيد من إمكانية الوصول إلى المعلومات الحساسة مثل رمز الملكية أو معلومات التعريف الشخصية (PII). يتزايد قلق الخصوصية هذا مع تزايد مخاطر القرصنة.
- نماذج التدريب: لتحسين نماذج الذكاء الاصطناعي ، والوصول إلى مقدمي الخدمات وتحليل بيانات التدريب الداخلية الخاصة بهم. ومع ذلك ، فإن هذا الاحتفاظ ببيانات التدريب يمكن أن يؤدي إلى تراكم المعلومات السرية ، مما يزيد من التعرض لانتهاكات البيانات.
- قضايا الملكية الفكرية للمنظمات ذات النماذج الخاصة: تستلزم نماذج الضبط الدقيق باستخدام بيانات الشركة منح موفري LLM المملوكين حق الوصول إلى البيانات ، أو نشر نماذج احتكارية داخل المؤسسة. مع وصول الأفراد الخارجيين إلى البيانات الخاصة والحساسة ، يزداد خطر القرصنة وخرق البيانات.
طورت الشركة تقنية الذكاء الاصطناعي التوليدية مع وضع هذه المشكلات في الاعتبار. ويهدف إلى تمكين التعاون الآمن بين المؤسسات وأصحاب البيانات مع ضمان الامتثال التنظيمي.
على سبيل المثال ، يمكن لشركة ما تدريب وضبط ماجستير متخصص ، بينما يمكن لشركة أخرى استخدامها كمرجع. تظل بيانات الشركتين خاصة ، مع عدم منح حق الوصول للطرف الآخر.
قال هاريل: “من خلال النظام الأساسي المعتم الذي يضمن تشفير جميع البيانات طوال دورة حياتها بالكامل ، ستكون المؤسسات قادرة على تدريب وضبط وتشغيل الاستدلال على LLMs دون الوصول فعليًا إلى البيانات الأولية نفسها”.
سلطت الشركة الضوء على استخدامها لجيوب الأجهزة الآمنة وإغناء التشفير لعرض البيانات النظيفة (DCR) بدون ثقة. تدعي أن نهج الحوسبة السرية هذا يوفر طبقات متعددة من الحماية ضد الهجمات الإلكترونية وخروقات البيانات.
يعمل النظام في بيئة سحابية أصلية ، ويتم تنفيذه داخل منطقة آمنة على مثيل السحابة للمستخدم (مثل Azure أو GCP). يقيد هذا الإعداد حركة البيانات ، مما يمكّن الشركات من الاحتفاظ بالبنية التحتية الحالية للبيانات.
مهمتنا هي التأكد من أن الجميع يمكن أن يثق في خصوصية بياناتهم السرية ، سواء كانت معلومات تحديد الهوية الشخصية للعميل أو بيانات عملية الأعمال المملوكة. بالنسبة لأحمال عمل الذكاء الاصطناعي ، فإننا نمكّن الشركات من الاحتفاظ ببياناتها مشفرة وآمنة طوال دورة الحياة ، بدءًا من تدريب النموذج والضبط الدقيق حتى الاستدلال ، وبالتالي ضمان الحفاظ على الخصوصية “، أضاف هاريل. “يتم الاحتفاظ بسرية البيانات في حالة السكون ، وأثناء النقل وأثناء الاستخدام ، مما يقلل بشكل كبير من احتمالية فقدانها.”
مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.
اكتشاف المزيد من إشراق التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.