ضجة ChatGPT ولماذا ستنتهي في وقت أقرب مما تعتقد
لا تتلاشى الضجة العامة حول الذكاء الاصطناعي في أي وقت قريبًا. لقد ظهرت في جميع الصناعات تقريبًا ، من خدمة العملاء إلى الطب. ومع ذلك ، يظل الفهم التقني لهذه الأدوات محادثة معقدة.
لا تستطيع نماذج اللغات الكبيرة (LLMs) فهم ومحاكاة المحادثات الشبيهة بالبشر. يتم تدريبهم بأحجام ضخمة من البيانات لإعطاء مخرجات معينة بناءً على المدخلات المحددة. لكنهم يفتقرون إلى القدرة على فهم المعنى الحقيقي وراء هذه الكلمات. أي استجابة تولدها LLM ستفتقر إلى الفهم الأساسي للسياق.
في حين أن LLMs يمكن أن تنتج قطعًا من النثر والشعر معدة ومنظّمة ، فإن هذه الكتابات غير ملهمة ومملة للغاية. تعد ChatGPT من OpenAI عبارة عن LLM تقوم بإنشاء نص جديد بعد التدريب بكميات هائلة من البيانات. بينما يخشى المعلمون أن تكون شعبية ChatGPT نهاية المهام والامتحانات المنزلية ، يكشف الفحص الدقيق لخوارزمية ChatGPT عن عدم قدرتها على إنتاج نثر إبداعي ومثير للاهتمام شبيه بالبشر. يطرح هذا النوع من عدم الكفاءة سؤالًا أساسيًا حول فائدة التكنولوجيا في حل مسائل الأعمال.
مخاوف مختلطة؟
وفقًا للإحصاءات ، من المتوقع أن ينمو سوق chatbot بمعدل نمو سنوي مركب يبلغ 23.5٪ ، ليصل إلى 10.6 مليار بحلول عام 2026.
ChatGPT هو برنامج AI التوليدي الشهير ، وليس أول روبوت محادثة قائم على الذكاء الاصطناعي. إنها تتنافس في سوق مليء بالروبوتات اللغوية المختلفة. ومع ذلك ، اكتسب الإصدار المجاني الأخير من ChatGPT مزيدًا من الزخم بعد حصوله على مليون مستخدم في أسبوع واحد فقط. تعتمد ChatGPT على عدد كبير من الأشخاص الذين يتعاملون مع كميات هائلة من البيانات لتصنيف البيانات ووضع العلامات ووضع العلامات والتعليقات التوضيحية لتعزيز قدراتها. هناك بعض التكهنات القطعية بأن ChatGPT يمكن أن يحل محل محرك بحث Google.
ومع ذلك ، فإن احتمال عدم الدقة في إجابات ChatGPT يجبر المستخدمين على التحقق منها باستخدام مصادر خارجية. قد يكون هذا التحقق أكثر تعقيدًا لأن ChatGPT يوفر إجابات ملموسة دون أي روابط لمصادر (على عكس Google) أو يوضح مستوى ثقته. لذلك ، قد يتم الخلط بعض الشيء بين المخاوف والتكهنات حول استبدال Google.
عيوب ChatGPT
كما نوقش أعلاه ، يمكن لـ ChatGPT كتابة النثر والشعر والإجابة على الأسئلة المعقدة والدخول في محادثات ، ولكن لا يمكن التغاضي عن بعض أوجه القصور. بعضها يشمل ما يلي:
إجابات غير صحيحة
ChatGPT هي LLM شاملة تعمل على تحسين دقة استجاباتها من خلال التدريب المستمر. ومع ذلك ، نظرًا لأن LLM جديد بما فيه الكفاية ، فإنه لم يخضع لتدريب كافٍ. على هذا النحو ، يمكن أن يعطي إجابات غير دقيقة.
نتيجة لذلك ، قام Stackflow بحظر الإجابات من ChatGPT ، قائلاً إن الإجابات التي يقدمها ChatGPT ضارة بالمجتمع والمستخدمين الذين يبحثون عن إجابات صحيحة. في حين أن ChatGPT لديها معدل مرتفع لتوليد إجابات غير دقيقة ، فإن chatbot يجيب على جميع الأسئلة بثقة تجعلها تشعر أن هذه الإجابات ليست صحيحة فحسب ، بل هي الأفضل أيضًا.
القيود في بيانات التدريب
مثل جميع نماذج الذكاء الاصطناعي الأخرى ، تعاني ChatGPT من قيود في بيانات التدريب الخاصة بها. يمكن أن تؤدي القيود والقيود والتحيزات في بيانات التدريب إلى نتائج غير دقيقة. يمكن أن يؤثر بشكل غير متناسب على مجموعات الأقليات وإدامة التمثيلات النمطية. للحد من هذه التحيزات ، من الضروري تحسين شفافية البيانات.
الاستدامة
ChatGPT منتج مجاني ، لكن تشغيل هذه التقنية مكلف للغاية. تقدر تكلفة التشغيل بحوالي 100000 دولار في اليوم أو 3 ملايين دولار شهريًا. يثير هذا تساؤلات حول استدامته على المدى الطويل. قد تؤدي شراكة Open AI مع Microsoft إلى خفض بعض التكاليف. لكن هذه العملية ليست رخيصة بأي حال من الأحوال.
التقدم في مجال الذكاء الاصطناعي: طريق وعر أمامنا
في حين أن العديد من محددات التكنولوجيا قد أطلقوا على ChatGPT “الرمز الأحمر” لـ Google ، إلا أن الواقع بعيد كل البعد عن ذلك. أثبت الاختبار أن ChatGPT تنتج “عدم فهم طائش” – أي إجابات طائشة وغير متماسكة تكشف أن النظام لا يفهم ما يتحدث عنه. في حين أنه يحجب الاستجابات الهجومية (المشكلة الرئيسية مع برامج الروبوت التوليدية الأخرى) ، فإنه يفعل ذلك باستخدام الكلمات الرئيسية ولا يفهم ما الذي يحرس منه.
المشكلة الأخرى الأكثر أهمية في ChatGPT هي الهلوسة – فهي تفسد الأشياء ذات الصلة معًا ولا تجيب على السؤال بشكل صحيح. في الأساس ، يعيد صياغة ويجمع أجزاء مختلفة من المعلومات من بيانات التدريب. قد تكون هناك علاقة عشوائية أو غامضة بين هذه الأجزاء من المعلومات. هذا هو السبب في أن الإجابة قد تبدو معقولة أو ذات مصداقية ، لكنها قد تكون بعيدة عن الواقع.
على عكس روبوتات الدردشة التقليدية التي تربط الكلمات الرئيسية بالنوايا ، فإن LLMs مثل ChatGPT هي تنبؤات نصية. هذا يعني أنهم يتعلمون بشكل أساسي عن العلاقة بين النصوص والكلمات والجمل. ويستخدمون هذه العلاقات للتنبؤ بسلسلة الأحرف التالية.
بينما تكلف عمليات البحث على Google أقل من بنس واحد ، فإن ChatGPT باهظ التكلفة (بين جمع البيانات وأنشطة البيانات اليدوية والحوسبة الضخمة). وبالمثل ، يستغرق تجميع ردها بعض الوقت ، بينما تكون عمليات البحث على Google فورية. وضعت هذه المشكلات الاقتصادية والمتعلقة بالسرعة ChatGPT وراء Google.
توضح المناقشة أعلاه حول LLMs و ChatGPT أن الضجيج حول ChatGPT قد يكون مبالغًا فيه. يتم حشد الكثير من الإثارة عندما يبدأ الناس في تخيل الاحتمالات. ومع ذلك ، بعد فترة قصيرة من الزمن ، يكشف أولئك الذين يختبرون بالفعل معلمات هذه الأدوات في سيناريوهات أعمال محددة أننا ما زلنا بعيدين عن التفرد الكبير للذكاء الاصطناعي في السماء.
Srini Pagidyala هو الشريك المؤسس لـ ايجو. ai.
صانعي القرار
مرحبًا بك في مجتمع VentureBeat!
DataDecisionMakers هو المكان الذي يمكن للخبراء ، بما في ذلك الأشخاص الفنيون الذين يقومون بعمل البيانات ، مشاركة الأفكار والابتكارات المتعلقة بالبيانات.
إذا كنت تريد أن تقرأ عن الأفكار المتطورة والمعلومات المحدثة ، وأفضل الممارسات ، ومستقبل البيانات وتكنولوجيا البيانات ، انضم إلينا في DataDecisionMakers.
يمكنك حتى التفكير في المساهمة بمقال خاص بك!
قراءة المزيد من DataDecisionMakers
اكتشاف المزيد من إشراق التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.