خلال حدث (Spring Update) الذي أقامته شركة (OpenAI)، كشفت عن مفاجأة كبيرة تتمثل
في نموذج الذكاء الاصطناعي الجديد (GPT-4o). يعد هذا النموذج تطورًا مطردًا
لسلسلة نماذجها السابقة، حيث يتميز بسرعة وأداء أفضل بالإضافة إلى تكلفة تشغيل
أقل ونتائج دقيقة وموثوقة.
مع كبار المسؤولين التقنيين في الشركة، أكدت ميرا موراتي أن الهدف من هذا
النموذج هو جعل الذكاء الاصطناعي متاحًا للجميع، ولذلك ستكون الوصول إليه
مجانيًا، دون الحاجة إلى اشتراكات مدفوعة كما كان الحال مع الإصدار السابق
(GPT-4).
يأتي نموذج (GPT-4o) بتحسينات ملموسة في الأداء والكفاءة، وهو يعتبر نقلة نوعية
في عالم الذكاء الاصطناعي. تعرضت ميرا موراتي لتوضيح كيفية عمل هذا النموذج وما
الذي يميزه عن النسخة السابقة، مما يوفر للمستخدمين فهمًا شاملاً لقدراته
واستخداماته المحتملة.
ما هو GPT-4o
نموذج جديد يسمى GPT-4o، وهو متاح الآن للجميع وأيضًا مجانًا بدءًا من اليوم (هذا
نعم، مع قيود ممعينة حيث يُقدم النموذج الجديد GPT-4o تحسينًا كبيرًا في قدراته
مقارنةً بالإصدار السابق GPT-4، مع زيادة في الذكاء والسرعة وتقليل التكلفة.
يعتبر هذا التحسين نقلة نوعية في مجال التعلم الآلي والذكاء الاصطناعي.
تعبّر الحرف "o" في اسم النموذج GPT-4o عن مفهوم "omni" من اللغة اللاتينية، الذي
يعني الشامل أو الكل. يعكس هذا التسمية التطور الجديد للنموذج، حيث يتميز بقدرته
على التعامل مع مجموعة واسعة من المدخلات مثل النصوص والصوت والفيديو والصور
بكفاءة ودقة عالية.
من المتوقع أن يسهم هذا التطور في جعل تفاعل الإنسان مع الحاسوب أكثر طبيعية،
خاصة من خلال تحسين قدرات روبوتات الدردشة مثل ChatGPT في التفاعل مع النصوص
المكتوبة والأوامر الصوتية، بالإضافة إلى فهم واستيعاب البيانات المُرسلة من
كاميرات الهواتف الذكية.
كيف يعمل نموذج GPT-4o الجديد
في
بيان
صادر عن شركة (OpenAI)، أعلنت الشركة عن نموذجها الجديد GPT-4o، الذي يتميز
بقدرته على التفاعل مع المدخلات الصوتية بسرعة استثنائية، حيث يمكنه الاستجابة في
أقل من 232 ميلّي ثانية، مع متوسط يبلغ 320 ميلّي ثانية. وتم تزويد النموذج
بتقنيات مبتكرة تمكنه من فهم الأصوات المتداخلة لمتحدثين بلغات مختلفة وترجمتها
بفعالية، بالإضافة إلى قدرته على فهم نبرة الأصوات وتحليل ملامح الوجوه وفهم
المشاعر من خلالها.
وأشارت الشركة إلى أن GPT-4o يحاكي أداء نموذج (GPT-4 Turbo) في التعامل مع
النصوص باللغة الإنجليزية وعمليات البرمجة، لكنه يتفوق عليه بسرعة وفعالية في
التعامل مع اللغات غير الإنجليزية، حيث يمكنه الآن العمل بما يصل إلى 50 لغة، مما
يجعله أداة قوية للتواصل والترجمة عبر العالم. وتتضمن هذه اللغات الكورية
والروسية والصينية والعربية وغيرها.
بالإضافة إلى ذلك، يتميز GPT-4o بكفاءة عالية في المعالجة، حيث يعمل بسرعة مضاعفة
مقارنة بالنماذج السابقة، ويقلل التكلفة التشغيلية بنسبة 50%. ويبرز تفوقه بشكل
خاص في فهم المواد المرئية والمقاطع الصوتية، حيث يظهر مهارات استثنائية في تحليل
المشاهد وفهم المعنى من خلال الصوت.
وفي عرضها التقديمي، أوضحت OpenAI كيف سيتيح نموذج (GPT-4o) للمستخدمين التحدث مع
ChatGPT، وكيف يمكنه التعرف على المشاعر ومساعدة في حل المعادلات الرياضية، وغير
ذلك الكثير. ورغم إظهار بعض القيود في العرض التقديمي، إلا أنها كانت محدودة
ومتفرقة.
مزايا نموذج GPT-4o
- **مجاني للجميع:
تعلن شركة OpenAI عن إطلاق نموذجها الجديد (GPT-4o) بشكل تدريجي على روبوت
ChatGPT لجميع المستخدمين، بما في ذلك أصحاب الحسابات المجانية. وبالرغم من ذلك،
ستتمتع الاشتراكات المدفوعة بأداء أسرع بما يصل إلى 5 مرات.
تأكدت الشركة من توفير فوائد ChatGPT للجميع دون استثناء، بما في ذلك إمكانية
الوصول إليه دون الحاجة إلى إنشاء حساب.
ومن بين التحسينات الجديدة في (GPT-4o)، سيحصل جميع المستخدمين على الوصول إلى
ميزات جديدة مجانية، مثل: متجر الروبوتات البرمجية (GPTs Store) وإمكانية استخدام
ChatGPT للتعامل مع الصور وتصفح الويب بالإضافة إلى مزية الذاكرة Memory.
- **يقدم أداءً أسرع بكثير من GPT-4 و GPT-4 Turbo:
يتميز نموذج (GPT-4o) بسرعة استجابة فائقة، حيث يستطيع الرد على المدخلات الصوتية
في وقت قياسي لا يتجاوز 232 ميلّي ثانية، بمتوسط 320 ميلّي ثانية، مقارنة بزمن
استجابة الإنسان في المحادثة.
قبل ظهور GPT-4o، كان يمكن استخدام وضع الصوت للتفاعل مع ChatGPT، لكنه كان يعاني
من زمن تأخير كبير يبلغ 2.8 ثانية مع نموذج GPT-3.5 و 5.4 ثانية مع GPT-4 في
المتوسط. وكان ذلك بسبب عملية تشغيل وضع الصوت التي تتضمن ثلاثة نماذج منفصلة.
يتألف وضع الصوت من نموذج بسيط يحول الصوت إلى نص، ونموذج GPT-3.5 أو GPT-4 الذي
يعالج النص ويُخرج نصًا آخر، ونموذج بسيط ثالث يحول النص مرة أخرى إلى صوت. ومع
ذلك، كانت هذه العملية تؤدي إلى فقدان الكثير من المعلومات، مثل ملاحظة نبرة
الصوت أو وجود عدد من المتحدثين أو الضوضاء الخلفية بشكل مباشر، وكذلك القدرة على
إخراج الضحك أو الغناء أو التعبير عن المشاعر.
للتغلب على هذه القيود، قامت OpenAI بتطوير نموذج GPT-4o الذي يمكنه التعامل مع
المدخلات المتعددة الوسائط، بما في ذلك النص والصوت والمقاطع المرئية في الوقت
نفسه. وبفضل ذلك، فإن جميع المدخلات والمخرجات يتم معالجتها عبر الشبكة العصبية
نفسها.
يتمتع GPT-4o بنطاق ذاكرة أوسع بكثير من نموذجي GPT-4 و GPT-3.5، مما يسمح له
بمعالجة المزيد من المعلومات وفهم السياق بشكل أفضل. وتم تصميمه ليكون أكثر كفاءة
في استخدام الموارد، مما يجعله أسرع مرتين في الأداء من GPT-4 Turbo، وأقل تكلفة
في التشغيل بنسبة تصل إلى 50%. ونظرًا للتكلفة المنخفضة لتشغيل هذا النموذج، فمن
المنطقي توفيره مجانًا للجميع من قبل OpenAI.
كيفية تفعيل GPT-4o في ChatGPT
إذا كنت ترغب في تجربة نموذج اللغة الجديد GPT-4o وأنت مستخدم مجاني، يمكنك
بسهولة الوصول إليه عبر تطبيق ChatGPT. بمجرد دخولك، ستُرحب بك رسالة ترحيب تقدم
لك خيار استخدام GPT-4o الجديد. كل ما عليك هو الضغط على زر "جرب الآن" للبدء في
استخدامه في محادثاتك اليومية.
بالنسبة لمستخدمي ChatGPT Plus، فهم محظوظون بإمكانية التفاعل مع GPT-4o دون
قيود، حيث يمكنهم طرح الاستفسارات بشكل غير محدود. أما بالنسبة للمستخدمين
المجانيين، فإنهم يمكنهم إرسال ما يصل إلى 5 استفسارات يوميًا كحد أقصى. وإذا كنت
ترغب في التبديل إلى نموذج لغة آخر، يمكنك فعل ذلك ببساطة عن طريق النقر على
أيقونة الفلاش الموجودة أسفل كل استجابة من ChatGPT.
ومع ذلك، يبدو أنه في الوقت الحالي لا يمكن التبديل إلى GPT-3.5 مباشرة، ولكن يجب
استنفاد الاستشارات الخمس المجانية أولاً في GPT-4o.
التسميات :
ذكاء اصطناعي