في عالم يتطور فيه الذكاء الاصطناعي بسرعة البرق، تصبح التحديثات المستمرة أمراً ضرورياً لتحسين الأداء والقدرات. ولكن أحياناً، قد تؤدي هذه التحديثات إلى نتائج غير متوقعة، وهذا بالضبط ما حدث مع نموذج الذكاء الاصطناعي الأحدث والأكثر تقدماً من OpenAI، وهو GPT-4o.
يوم السبت الماضي، قامت OpenAI بتحديث نموذجها القوي GPT-4o، الذي يشغّل التجربة الافتراضية لمستخدمي المستوى المجاني في ChatGPT، بالإضافة إلى دعم ميزات مهمة مثل توليد الصور المدمج. كان الهدف المعلن من التحديث هو تحسين جوانب الذكاء والشخصية في النموذج، لجعله أكثر دقة وفائدة وأكثر طبيعية في تفاعلاته.
ولكن يوم الأحد، وبعد يوم واحد فقط من طرح التحديث، اكتشفت الشركة – واعترف بذلك رئيسها التنفيذي علناً – أن التحديث قد أدى إلى نتيجة غريبة وغير مرغوبة: أصبحت ردود النموذج “مقبولة للغاية” أو بعبارة أخرى، “شديدة الإزعاج والمزعجة” (super annoying and obnoxious)، كما وصفها سام ألتمان، الرئيس التنفيذي لـ OpenAI، بنفسه!
خلل غير متوقع في شخصية GPT-4o بعد التحديث
تحديث نماذج الذكاء الاصطناعي ممارسة روتينية لشركات التكنولوجيا لتحسين الأداء وإضافة ميزات. عادة ما يتضمن ذلك تحديث قواعد البيانات وتعديل الخوارزميات. OpenAI نفسها قامت بتحديثات سابقة لـ GPT-4o لجعله أكثر طبيعية في المحادثة وحتى لإضافة قدرات مثل توليد الصور. جوجل أيضاً تحدث نماذجها باستمرار لهذا الغرض.
لكن في هذا التحديث الأخير لـ GPT-4o، يبدو أن التحسين المزعوم في “الشخصية” قد تجاوز الحد المرغوب فيه. لم يوضح سام ألتمان بالتحديد طبيعة هذا “الإزعاج” أو “القبول المبالغ فيه” في الردود، لكن تعبيره القوي يشير إلى أن النموذج ربما أصبح أكثر ثرثرة بشكل غير مبرر، أو يقدم ردوداً بطريقة استفزازية أو غير مرغوبة للمستخدمين.
اعترف ألتمان بالخلل عبر منشور على منصة X (تويتر سابقاً)، قائلاً بصراحة: “لقد جعلت آخر تحديثات GPT-4O الشخصية شديدة الإزعاج والمزعجة.” وأضاف أن الشركة بدأت العمل فوراً على إصلاح المشكلة. ورغم أن بعض جوانب الإصلاح قد تتم بسرعة، إلا أنه توقع أن يستغرق حل المشكلة بالكامل حتى الأسبوع المقبل.
كما أشار ألتمان في ذات المنشور إلى أن بعض الأجزاء الأخرى من نموذج GPT-4o الجديد “جيدة جداً”، مما يعني أن التحديث لم يكن سيئاً بالكامل، وأن الخلل محصور على ما يبدو في جانب معين من جوانب “الشخصية” أو نمط الردود.
الحاجة إلى خيارات والتحكم في الإصدارات
يثير هذا الخلل تساؤلاً مهماً طرحه أحد المستخدمين لسام ألتمان: هل يمكن للمستخدمين التمييز بين إصدارات النموذج المختلفة، أو حتى العودة إلى إصدار أقدم كان يعمل بشكل أفضل؟ حالياً، عند تحديث النموذج، يتم تطبيق التغيير على جميع المستخدمين ولا يوجد خيار للرجوع.
اعترف ألتمان بهذا القيد، مؤكداً أن الشركة “في النهاية، نحتاج بوضوح إلى أن نكون قادرين على تقديم خيارات متعددة.” هذه الإشارة مهمة، فقد تعني أن OpenAI تفكر في المستقبل في منح المستخدمين مزيداً من التحكم في النموذج الذي يستخدمونه، أو القدرة على اختيار بين أنماط شخصية مختلفة.
في الختام: تحديات تطوير الذكاء الاصطناعي
الخلل الذي ظهر في GPT-4o هو تذكير بأن تطوير نماذج الذكاء الاصطناعي المتقدمة ليس عملية سهلة ومستقيمة. تغيير جانب واحد (مثل الشخصية) يمكن أن يؤثر على جوانب أخرى بطرق غير متوقعة.
شفافية OpenAI واعتراف رئيسها التنفيذي بالمشكلة علناً أمر مرحب به، ويعكس جدية التعامل مع التأثير غير المقصود للتحديث. وبينما ينتظر المستخدمون إصلاح الخلل الذي يجعل نموذجهم المفضل “مزعجاً”، تستمر رحلة تحسين الذكاء الاصطناعي، مليئة بالابتكارات… وأحياناً ببعض التحديات والنتائج غير المتوقعة.
هل لاحظت أي تغيير في طريقة ردود ChatGPT بعد التحديث الأخير؟ ما رأيك في هذا الخلل وهل تفضل أن تكون نماذج الذكاء الاصطناعي بـ “شخصية” معينة أم محايدة تماماً؟ شاركنا رأيك في التعليقات!