أخطاء صادمة في ‘نظرات الذكاء الاصطناعي’ ببحث جوجل تثير الجدل.. هل هو خلل مؤقت أم مشكلة عميقة؟

في الأيام الأخيرة، لاحظ الكثير من مستخدمي محرك بحث جوجل الشهير حول العالم أن تجربة البحث أصبحت مختلفة بعض الشيء. لم تعد النتائج مجرد قائمة من الروابط الزرقاء كما اعتدنا، بل بات يظهر في أعلى الصفحة غالباً تلخيص كبير يقدم إجابة سريعة ومباشرة لاستعلامك، يحمل عنوان “نظرات الذكاء الاصطناعي” (AI Overviews).

هذه الميزة الجديدة هي جزء من دفعة جوجل الكبيرة لدمج الذكاء الاصطناعي التوليدي في قلب منتجاتها، وخاصة في أهمها على الإطلاق: البحث. الهدف المعلن هو توفير إجابات أسرع وأكثر شمولاً، تلخص المعلومات من عدة مصادر لمساعدتك في فهم الموضوع بسرعة.

لكن، وكما هو الحال غالباً مع التقنيات الجديدة، خاصة تلك التي تعتمد على الذكاء الاصطناعي الذي لا يزال في طور التطور، فإن هذه الميزة لم تمر مرور الكرام. فبدلاً من تقديم معلومات دقيقة ومفيدة دائماً، تسببت “نظرات الذكاء الاصطناعي” في موجة عارمة من الجدل والانتقادات بسبب ظهور “أخطاء صادمة” ونتائج غريبة وغير منطقية على الإطلاق.

شارك المستخدمون عبر منصات التواصل الاجتماعي لقطات شاشة لنتائج بحث تضمنت اقتراحات لا تصدق، معلومات خاطئة تماماً، بل وأحياناً نصائح قد تكون خطيرة لو تم اتباعها! فما الذي يحدث بالضبط؟ وهل هذه مجرد “آلام نمو” لتقنية جديدة، أم أنها تكشف عن مشاكل أعمق في دمج الذكاء الاصطناعي في مهمة بالغة الحساسية مثل البحث عن المعلومات؟

في هذا المقال على Tqn.news، نستعرض معكم طبيعة هذه المشاكل، ونحلل لماذا قد تحدث، وماذا تعني لمستقبل بحث جوجل ولنا كمستخدمين.

ما هي “نظرات الذكاء الاصطناعي” (AI Overviews) أصلاً؟

قبل الغوص في المشاكل، دعنا نوضح سريعاً ماهية هذه الميزة. “نظرات الذكاء الاصطناعي” هي ملخص يتم إنشاؤه بواسطة نموذج ذكاء اصطناعي كبير، يظهر في الجزء العلوي من صفحة نتائج بحث جوجل لبعض الاستعلامات. يعتمد هذا الملخص على المعلومات المتاحة في الويب (من المواقع التي يفهرسها جوجل) ويحاول تجميعها وتلخيصها لتقديم إجابة مباشرة للسؤال المطروح.

هذه الميزة كانت تُعرف سابقاً باسم “تجربة البحث التوليدي” (Search Generative Experience – SGE) وكانت متاحة للاختبار لعدد محدود من المستخدمين. والآن، بدأت جوجل في طرحها بشكل أوسع لملايين المستخدمين كجزء أساسي من نتائج البحث.

الهدف: توفير الوقت على المستخدمين وتقديم سياق أعمق للمعلومات. ولكن كما سنرى، فإن التنفيذ لا يزال بعيداً عن الكمال.

موجة الأخطاء الغريبة: أمثلة وتفاصيل صادمة

هذا هو الجزء الذي أثار ضجة كبيرة على الإنترنت. لاحظ المستخدمون أن “نظرات الذكاء الاصطناعي” كانت تقدم أحياناً إجابات لا يمكن تصديقها. على سبيل المثال (بناءً على لقطات شاشة تم تداولها على نطاق واسع):

  • اقتراح إضافة الغراء إلى البيتزا للمساعدة في تماسك الجبن! (استناداً على ما يبدو إلى محتوى ساخر أو غير جاد على الويب).

  • تقديم حقائق طبية خاطئة أو خطيرة عن أمراض معينة أو طرق علاج.

  • إعطاء نصائح سخيفة أو مستحيلة لمهام يومية (مثل اقتراح تناول الصخور بكمية معينة).

  • الخلط بين الشخصيات التاريخية أو تقديم معلومات غير دقيقة عن أحداث مهمة.

  • تقديم معلومات غير منطقية تماماً لا تمت للواقع بصلة.

هذه الأخطاء ليست مجرد هفوات بسيطة، بل هي نتائج قد تكون مضللة جداً أو حتى خطيرة إذا تم التعامل معها على أنها معلومات موثوقة من أكبر محرك بحث في العالم.

لكن لماذا تحدث هذه الأخطاء؟

هذه النقطة مهمة لفهم التحدي الذي يواجه جوجل. “نظرات الذكاء الاصطناعي” ليست قاعدة بيانات حقائق يتم استرجاع المعلومات منها بشكل مباشر. إنها نموذج توليدي، يحاول فهم السياق وتوليد نص جديد بناءً على البيانات التي تم تدريبه عليها وعلى المعلومات التي يجدها حالياً في نتائج البحث.

هذا يعني أن النموذج يمكن أن يرتكب أخطاء لعدة أسباب:

  1. الاعتماد على بيانات التدريب: إذا كانت البيانات التي تم تدريب النموذج عليها تتضمن معلومات غير دقيقة أو متحيزة أو حتى محتوى ساخر بدون تمييز واضح، فقد يعكس النموذج ذلك في نتائجه.

  2. فهم السياق: الذكاء الاصطناعي لا يزال يجد صعوبة في فهم الفروق الدقيقة، السخرية، النبرة، أو حتى النوايا الخفية خلف بعض النصوص على الويب. قد يأخذ معلومة من سياق معين (مثل منتدى ساخر) ويعرضها كحقيقة في سياق جاد (إجابة عن سؤال جاد).

  3. “الهلوسة” (Hallucinations): نماذج الذكاء الاصطناعي التوليدية يمكن أن “تخلق” معلومات غير موجودة ببساطة لملء الفراغ أو استكمال نمط معين تعلمته، حتى لو لم تكن هذه المعلومات صحيحة.

  4. حداثة المعلومات: على الرغم من أن النموذج يحلل نتائج البحث الحالية، إلا أنه قد لا يزال يعتمد جزئياً على معلومات قديمة أو لم يتم تحديثها بشكل كامل في بياناته الداخلية.

  5. تعقيد الاستعلام: كلما كان السؤال أكثر تعقيداً أو يتطلب فهماً عميقاً أو تفكيراً نقدياً، زادت احتمالية أن ينتج الذكاء الاصطناعي نتيجة غير دقيقة أو مضللة.

رد جوجل الرسمي.. والموقف الحالي

لم تصمت جوجل طويلاً أمام موجة الانتقادات هذه. صرحت الشركة بأنها على علم بالمشاكل التي ظهرت في “نظرات الذكاء الاصطناعي” وأنها تعمل بسرعة على معالجتها. أكدت جوجل أنها تتخذ إجراءات لتجنب ظهور نصائح غير مفيدة أو غير دقيقة على الإطلاق، خاصة فيما يتعلق بالمواضيع الحساسة مثل الصحة أو السلامة.

تؤكد جوجل أن هذه الميزة لا تزال جديدة وأنها ستتحسن مع الوقت بناءً على الملاحظات والتفاعل مع المستخدمين. كما أنها أشارت إلى أن بعض الأمثلة التي تم تداولها كانت “نادرة” أو “مفبركة” (مأخوذة من استعلامات غريبة جداً)، ولكن هذا لا ينفي ظهور أخطاء حقيقية ومقلقة في استعلامات عادية.

الموقف الحالي هو أن جوجل مستمرة في طرح الميزة، مع التأكيد على أنها تعمل بنشاط على تحسينها وتطويرها لتصبح أكثر دقة وموثوقية.

ماذا تعني هذه المشاكل لمستقبل بحث جوجل؟

ظهور هذه الأخطاء يطرح تساؤلات جدية حول مستقبل بحث جوجل ودوره كمصدر موثوق للمعلومات. فإذا كان محرك البحث الأكبر في العالم يقدم أحياناً معلومات خاطئة أو خطيرة بهذه السهولة، فإلى أي مدى يمكن للمستخدمين الوثوق بالنتائج التي يقدمها، خاصة في المسائل الهامة؟

  • تحدي الثقة: بناء الثقة يتطلب وقتاً طويلاً، ولكن فقدانها يمكن أن يحدث بسرعة. تحتاج جوجل إلى إثبات أن الذكاء الاصطناعي في البحث آمن ودقيق بما يكفي للاعتماد عليه.

  • تأثير على المواقع (الناشرون): هناك قلق أيضاً بين أصحاب المواقع والناشرين من أن “نظرات الذكاء الاصطناعي” ستقلل الزيارات إلى مواقعهم، حيث يحصل المستخدم على الإجابة مباشرة دون الحاجة للنقر على الروابط. وإذا كانت النظرات تستقي معلوماتها من هذه المواقع وتقدمها بشكل خاطئ، فهذه مشكلة مضاعفة.

  • مستقبل السيو: تتغير قواعد تحسين محركات البحث (SEO) باستمرار. مع التركيز المتزايد على تقديم إجابات مباشرة عبر الذكاء الاصطناعي، قد يصبح التركيز على “تحسين المحتوى للنظرات” أمراً ضرورياً، بالإضافة إلى الاستمرار في إنتاج محتوى عالي الجودة وموثوق يعزز عامل “الخبرة، التخصص، السلطة، والموثوقية” (EEAT) الذي تهتم به جوجل.

لا يعني هذا بالضرورة أن بحث جوجل “سينهار”، فجوجل لديها موارد ضخمة وخبرة سنوات طويلة في فهم المعلومات والويب. ولكنها بالتأكيد تواجه تحدياً كبيراً جداً في دمج تقنية قوية لكنها معقدة وغير مثالية مثل الذكاء الاصطناعي التوليدي في منتج حاسم يستخدمه مليارات الأشخاص يومياً.

في الختام: الحاجة إلى يقظة المستخدم

في الختام، لا شك أن “نظرات الذكاء الاصطناعي” تمثل تطوراً كبيراً في طريقة تفاعلنا مع محركات البحث. لديها القدرة على توفير الوقت وتقديم معلومات قيمة بسرعة.

ولكن، موجة الأخطاء التي ظهرت مؤخراً هي تذكير صارخ بأن هذه التقنية لا تزال في مراحلها الأولى، وأنها ليست بديلاً عن التفكير النقدي والتحقق من المعلومات. كمستخدمين، يجب أن نتعامل مع هذه “النظرات” كملخصات أولية أو نقطة انطلاق للبحث، وليس كحقائق مطلقة ومؤكدة. العودة إلى المصادر الأصلية التي تستند إليها النظرة (والمذكورة غالباً أسفلها) أمر حيوي، خاصة في المواضيع الهامة.

تراقب جوجل بلا شك ردود الفعل وتعمل على تحسين النموذج. ومع مرور الوقت وتجميع المزيد من البيانات والملاحظات، نأمل أن تصبح “نظرات الذكاء الاصطناعي” أكثر دقة وموثوقية. لكن حتى ذلك الحين، كن حذراً، وتحقق دائماً قبل أن تأكل الصخور أو تضع الغراء على طعامك!

شاركونا تجاربكم: هل لاحظتم نتائج غريبة عند استخدام “نظرات الذكاء الاصطناعي” في بحث جوجل؟ ما رأيكم في هذه الميزة ومستقبل البحث مع الذكاء الاصطناعي؟ شاركونا آراءكم في التعليقات أدناه!

Tqn news

رامي النجار

باحث في مجال تقنيات الذكاء الاصطناعي والروبوتات، يقدم تحليلات مبسطة وعميقة لأحدث ما تقدمه شركات مثل OpenAI وGoogle وMeta.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى