فقط لأننا لا نستطيع الوثوق بالذكاء الاصطناعي التوليدي (حتى الآن) لا يعني أننا يجب أن نخاف منه
انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو وتعلم كيف يتقدم قادة الأعمال بثورة الذكاء الاصطناعي التوليدية.. يتعلم أكثر
على الرغم من أن إصدار ChatGPT جلب له الكثير من الأحاديث حول التأثير الثوري للذكاء الاصطناعي على التكنولوجيا ، كان هناك تركيز مماثل على بعض أوجه القصور في التكنولوجيا. في الواقع ، كانت هناك بعض المناقشات الساخنة حول التأثير التوليدي للذكاء الاصطناعي الذي يحتمل أن يكون خطيرًا على المجتمع ، وتطبيقاته السلبية التي يمكن تخيلها ، والمخاوف الأخلاقية المهمة التي تحيط بتطوره.
ولكن من وجهة نظر تكنولوجيا المعلومات وتطوير البرمجيات – حيث يتوقع الكثيرون أن يكون للذكاء الاصطناعي التوليدي التأثير الأكبر في المستقبل – سؤال واحد ، على وجه الخصوص ، يستمر في الظهور: إلى أي مدى يمكن للمؤسسات أن تثق بالفعل في هذه التكنولوجيا للتعامل مع مهامها الحاسمة والإبداعية؟
>> تابع تغطية الذكاء الاصطناعي التوليدية المستمرة من VentureBeat <
الجواب ، على الأقل في الوقت الحالي ، ليس كثيرًا. التكنولوجيا مليئة بالمعلومات غير الدقيقة ، ولديها مشاكل موثوقية خطيرة ، وتفتقر إلى سياق العالم الحقيقي الذي يمكن للمؤسسات الاعتماد عليه بالكامل. هناك أيضًا بعض المخاوف المبررة للغاية بشأن نقاط الضعف الأمنية الخاصة بها ، وهي كيفية استخدام الجهات الفاعلة السيئة للتقنية لإنتاج محتوى مضلل مزيف عميق ونشره.
حدث
تحويل 2023
انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.
سجل الان
تتطلب كل هذه المخاوف بالتأكيد أن تتساءل الشركات عما إذا كان بإمكانها حقًا ضمان الاستخدام المسؤول للذكاء الاصطناعي التوليدي. لكن لا ينبغي لهم أيضًا أن يغرسوا الخوف فيهم. بالتأكيد ، يجب على الشركات دائمًا الموازنة بين الحذر والإمكانيات التي لا نهاية لها للتكنولوجيا. لكن صناع القرار في المؤسسات – وعلى وجه الخصوص ، محترفو التكنولوجيا – يجب أن يكونوا معتادين بالفعل على التصرف بمسؤولية عند تسليم ابتكارات جديدة تعد بإحداث نقلة في مجال صناعتهم بالكامل.
دعونا نفصل لماذا.
التعلم من الابتكارات السابقة
الذكاء الاصطناعي التوليدي ليس أول تقنية تقابل بالخوف والتشكيك. حتى الحوسبة السحابية ، التي لم تكن أقل من نعمة توفير منذ بداية ثورة العمل عن بُعد ، تسببت في إطلاق إنذارات بين قادة الأعمال بسبب مخاوف بشأن أمان البيانات والخصوصية والموثوقية. ترددت العديد من المؤسسات في الواقع في اعتماد الحلول السحابية خوفًا من الوصول غير المصرح به وانتهاكات البيانات وانقطاع الخدمة المحتمل.
ومع ذلك ، مع مرور الوقت ، مع قيام موفري الخدمات السحابية بتحسين تدابير الأمان ، وتنفيذ بروتوكولات قوية لحماية البيانات وإثبات موثوقية عالية ، تبنتها المؤسسات تدريجيًا.
البرمجيات مفتوحة المصدر (OSS) هي مثال آخر. في البداية ، كانت هناك مخاوف من افتقارها إلى الجودة والأمان والدعم مقارنة بالبدائل المسجلة الملكية. استمرت الشكوك بسبب الخوف من التعديلات غير المنظمة للشفرة والنقص الملحوظ في المساءلة. لكن حركة المصادر المفتوحة اكتسبت زخمًا ، مما أدى إلى تطوير مشاريع موثوقة للغاية ومعتمدة على نطاق واسع مثل Linux و Apache و MySQL. اليوم ، البرمجيات مفتوحة المصدر منتشرة عبر مجالات تكنولوجيا المعلومات ، وتقدم حلولاً فعالة من حيث التكلفة ، وابتكارًا سريعًا ودعمًا يحركه المجتمع.
بعبارة أخرى ، بعد فترة أولية من الحذر ، تبنت الشركات هذه التقنيات وتبنتها.
معالجة التحديات الفريدة للذكاء الاصطناعي التوليدي
هذا لا يقلل من مخاوف الناس بشأن الذكاء الاصطناعي التوليدي. هناك ، بعد كل شيء ، قائمة طويلة من المخاوف الفريدة – والمبررة – المحيطة بالتكنولوجيا. على سبيل المثال ، هناك قضايا تتعلق بالإنصاف والتحيز يجب معالجتها قبل أن تثق بها الشركات حقًا. تتعلم نماذج الذكاء الاصطناعي التوليدية من البيانات الموجودة ، مما يعني أنها قد تؤدي عن غير قصد إلى إدامة التحيزات والممارسات غير العادلة الموجودة في مجموعة بيانات التدريب. هذه التحيزات ، بدورها ، يمكن أن تؤدي إلى مخرجات تمييزية أو مشوهة.
في الواقع ، عندما أجري الاستطلاع الأخير الذي أجريناه لـ 400 من كبار المسؤولين التنفيذيين ومديري المعلومات حول تبنيهم للذكاء الاصطناعي التوليدي ووجهات نظرهم بشأنه ، سأل هؤلاء القادة عن مخاوفهم الأخلاقية ، كان “ضمان الإنصاف وتجنب التحيز” أهم اعتبار أخلاقي استشهدوا به.
عدم الدقة أو الهلوسة الخفية هي تهديد آخر. هذه ليست أخطاء جسيمة ، لكنها مع ذلك أخطاء. على سبيل المثال ، عندما طلبت مؤخرًا من ChatGPT أن تخبرني المزيد عن أعمالي ، قامت بتسمية ثلاث شركات محددة كعملاء سابقين.
هذه بالتأكيد مخاوف يجب معالجتها. ولكن إذا تعمقت في البحث ، ستجد بعضًا ربما يكون مبالغًا فيه أيضًا ، مثل أولئك الذين يتكهنون بأن هذه الابتكارات المدعومة بالذكاء الاصطناعي ستحل محل المواهب البشرية. كل ما عليك فعله هو إجراء بحث سريع على Google للاطلاع على العناوين الرئيسية حول أفضل 10 وظائف معرضة للخطر أو لماذا يبرر قلق العمال بشأن الذكاء الاصطناعي. عادةً ما يكون تأثيره على تطوير البرامج موضوعًا ساخنًا بشكل خاص.
ولكن إذا سألت متخصصي تكنولوجيا المعلومات ، فهذا ليس مصدر قلق حقًا. احتلت خسارة الوظائف المرتبة الأخيرة بين الاعتبارات الأخلاقية لمدراء تقنية المعلومات وكبار المسؤولين التنفيذيين في الاستطلاع المذكور أعلاه. علاوة على ذلك ، قال 88٪ أنهم يعتقدون أن الذكاء الاصطناعي التوليدي لا يمكن أن يحل محل مطوري البرمجيات ، وقال نصفهم إنهم يعتقدون أنه سيزيد بالفعل من الأهمية الاستراتيجية لقادة تكنولوجيا المعلومات.
فك الشفرة لتوليد مستقبل الذكاء الاصطناعي
تحتاج الشركات إلى إدراك الحاجة إلى التعامل مع الذكاء الاصطناعي التوليدي بحذر ، تمامًا كما كان عليه الحال مع التقنيات الناشئة الأخرى. لكن يمكنهم القيام بذلك مع الاحتفال أيضًا بالإمكانيات التحويلية التي توفرها لدفع عجلة التقدم في صناعة تكنولوجيا المعلومات وما وراءها. في الواقع ، تعمل التكنولوجيا بالفعل على إعادة تشكيل مساحات تطوير تكنولوجيا المعلومات والبرمجيات ، ولن تتمكن الشركات من إيقافها أبدًا.
ولا ينبغي عليهم إيقافه ، نظرًا لوعده بتعزيز قدرات أفضل المواهب التقنية لديهم وتحسين جودة البرامج. هذه قدرات لا يجب أن يخشوها. في الوقت نفسه ، هي قدرات لا يمكنهم تقديرها بالكامل حتى تتعامل مع عيوب الذكاء الاصطناعي التوليدية. فقط عندما يفعلون ذلك ، سوف يزيدون من قوة الذكاء الاصطناعي التوليدي إلى أقصى حد لدعم تكنولوجيا المعلومات وتطوير البرمجيات ، وتحسين الكفاءة وبناء حلول برمجية أكثر تقدمًا.
ناتالي كامينسكي هي الشريك المؤسس والرئيس التنفيذي لشركة تطوير تكنولوجيا المعلومات جيت روكتس.
صانعي القرار
مرحبًا بك في مجتمع VentureBeat!
DataDecisionMakers هو المكان الذي يمكن للخبراء ، بما في ذلك الأشخاص الفنيون الذين يقومون بعمل البيانات ، مشاركة الأفكار والابتكارات المتعلقة بالبيانات.
إذا كنت تريد أن تقرأ عن الأفكار المتطورة والمعلومات المحدثة ، وأفضل الممارسات ، ومستقبل البيانات وتكنولوجيا البيانات ، انضم إلينا في DataDecisionMakers.
يمكنك حتى التفكير في المساهمة بمقال خاص بك!
قراءة المزيد من DataDecisionMakers