تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



5 تريليونات إجابة خاطئة في Google


القاهرة: الأمير كمال فرج.

تواجه شركة Google انتقادات حادة بعد صدور تحليل حديث يشير إلى أن ميزات الذكاء الاصطناعي في محرك بحثها تقدم معلومات مغلوطة على نطاق قد يكون الأضخم في تاريخ البشرية، مما ينذر بكارثة معرفية في ظل اعتماد الملايين على هذه الإجابات السريعة.

ذكر فرانك لانديمور في تقرير نشرته مجلة Futurism إن "التحليل الذي أجراه المختبر الناشئ Oumi أظهر أن ملخصات الذكاء الاصطناعي دقيقة بنسبة 91%. ورغم أن هذا الرقم قد يبدو مبشراً، إلا أن الجانب المظلم يكمن في حجم الاستخدام؛ فمع معالجة Google لنحو 5 تريليونات استفسار سنوياً، فإن نسبة الخطأ الضئيلة (9%) تترجم فعلياً إلى ملايين الإجابات الخاطئة كل ساعة، ومئات الآلاف من المعلومات المضللة كل دقيقة".

ظاهرة "الاستسلام المعرفي"

يسلط التقرير الضوء على معضلة نفسية تسمى "الاستسلام المعرفي"، حيث تميل الغالبية العظمى من المستخدمين للثقة في إجابات الذكاء الاصطناعي دون تمحيص. وأشارت الدراسات إلى أن:

    8% فقط من المستخدمين يقومون بالتحقق من صحة إجابات الذكاء الاصطناعي.

    المستخدمون يتبعون إجابات الآلة حتى لو كانت خاطئة بنسبة تقارب 80%، نظراً للنبرة الواثقة والأسلوب السلطوي الذي تتحدث به النماذج اللغوية الكبيرة.

مقارنة بين Gemini 2 وGemini 3

استخدمت الدراسة اختبار SimpleQA (وهو معيار صممه OpenAI لقياس الدقة)، وشملت الاختبارات آلاف عمليات البحث:

    Gemini 2: بلغت دقة استجاباته 85%.

    Gemini 3: حقق تحسناً بنسبة دقة وصلت إلى 91%.

ومع ذلك، كشف التحليل عن ثغرة أمنية ومعرفية خطيرة؛ ففي حين تحسنت الدقة الإجمالية في Gemini 3، قفزت نسبة الإجابات "غير المستندة إلى مصدر" (Ungrounded) من 37% في النسخة السابقة إلى 56%. وهذا يعني أن الذكاء الاصطناعي يستشهد بمواقع إلكترونية لا تدعم في الواقع المعلومات التي يقدمها، مما يجعل التحقق من الادعاءات أمراً شبه مستحيل على المستخدم العادي.

رد Google: ثغرات في الدراسة

من جهتها، وصفت Google الدراسة بأنها "معيبة"، وصرح المتحدث باسم الشركة Ned Adriance بأنها لا تعكس طبيعة ما يبحث عنه الناس فعلياً. ورغم ذلك، تشير تقارير داخلية مسربة من Google إلى أن نموذج Gemini 3 أنتج معلومات غير صحيحة بنسبة 28% في بعض الاختبارات، لكن الشركة تراهن على أن ربط النموذج بنتائج البحث المباشرة يقلل من هذه الأخطاء.

يبقى التحدي الأكبر هو التوفيق بين سرعة تقديم الإجابات وبين الأمان المعلوماتي، في وقت يبدو فيه أن "الهلوسة الرقمية" أصبحت جزءاً لا يتجزأ من تجربة البحث الحديثة.

تاريخ الإضافة: 2026-04-09 تعليق: 0 عدد المشاهدات :76
0      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات