تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



التخمين خطيئة الذكاء الاصطناعي


القاهرة: الأمير كمال فرج.

تزعم شركة OpenAI أنها توصلت إلى السبب الرئيسي وراء "الهلوسة"، أي ميل نماذج الذكاء الاصطناعي إلى اختلاق إجابات غير صحيحة.

ذكر تقرير نشرته مجلة Futurism إن "مشكلة تمثل تحديًا كبيرًا للصناعة بأكملها، حيث تقلل بشكل كبير من فائدة التكنولوجيا. الأسوأ من ذلك، أن الخبراء لاحظوا أن المشكلة تتفاقم مع زيادة قدرات نماذج الذكاء الاصطناعي. ونتيجة لذلك، ورغم التكاليف الهائلة لنشرها، فإن النماذج المتطورة للذكاء الاصطناعي لا تزال عرضة لتقديم معلومات خاطئة عند مواجهة سؤال لا تعرف إجابته".

لا يزال إيجاد حل لهذه المشكلة موضوعًا للنقاش الحاد، حيث يرى بعض الخبراء أن الهلوسة متأصلة في التكنولوجيا نفسها. بعبارة أخرى، قد تكون نماذج اللغة الكبيرة طريقًا مسدودًا في سعينا لتطوير ذكاء اصطناعي يمكن الاعتماد عليه في تقديم معلومات دقيقة.

سبب الهلوسة

في ورقة بحثية نُشرت الأسبوع الماضي، حاول فريق من باحثي OpenAI تقديم تفسير للمشكلة. يشيرون إلى أن نماذج اللغة الكبيرة تهلوس لأنها أثناء تدريبها تُكافأ على التخمين بدلًا من الاعتراف بأنها ببساطة لا تعرف الإجابة.

جاء في الورقة البحثية: "تستمر الهلوسات بسبب طريقة تقييم معظم الاختبارات، حيث يتم تحسين نماذج اللغة لتكون جيدة في أداء الاختبارات، والتخمين عند عدم اليقين يحسن أداء الاختبار".

تقليديًا، يتم تقييم ناتج الذكاء الاصطناعي بشكل ثنائي: يُكافأ النموذج عند تقديم إجابة صحيحة ويُعاقب عند تقديم إجابة غير صحيحة. ببساطة، يتم مكافأة التخمين - لأنه قد يكون صحيحًا - على حساب اعتراف الذكاء الاصطناعي بأنه لا يعرف الإجابة، والذي يُصنّف دائمًا على أنه خاطئ.

ونتيجة لذلك، ومن خلال "الضغوط الإحصائية الطبيعية"، أصبحت نماذج اللغة الكبيرة أكثر عرضة لاختلاق إجابة بدلًا من "الإقرار بعدم اليقين".

كتبت OpenAI في تدوينة مصاحبة: "معظم لوحات النتائج تعطي الأولوية وتصنف النماذج بناءً على الدقة، ولكن الأخطاء أسوأ من الامتناع عن الإجابة". بعبارة أخرى، تقول OpenAI إنها - وكل من يقلدها في الصناعة - ارتكبت خطأً هيكليًا فادحًا في طريقة تدريب الذكاء الاصطناعي.

هل يمكن إصلاح المشكلة؟

يعتمد الكثير على ما إذا كان يمكن تصحيح هذه المشكلة في المستقبل. تزعم OpenAI أن "هناك حلًا مباشرًا" للمشكلة، وهو: "عاقب الأخطاء الواثقة أكثر مما تعاقب عدم اليقين، وامنح درجات جزئية للتعبيرات المناسبة عن عدم اليقين".

تضيف التدوينة أن التقييمات المستقبلية يجب أن تضمن أن "نظام تسجيلها يثبط التخمين". "إذا استمرت لوحات النتائج الرئيسية في مكافأة التخمينات المحظوظة، فستستمر النماذج في تعلم التخمين".

وخلص باحثو الشركة في الورقة البحثية إلى أن "التعديلات البسيطة على التقييمات السائدة يمكن أن تعيد مواءمة الحوافز، وتكافئ التعبيرات المناسبة عن عدم اليقين بدلًا من معاقبتها". "هذا يمكن أن يزيل الحواجز التي تحول دون كبح الهلوسات، ويفتح الباب أمام عمل مستقبلي على نماذج لغة أكثر دقة، على سبيل المثال، مع كفاءة عملية أغنى."

يبقى أن نرى كيف ستؤثر هذه التعديلات على التقييمات في العالم الحقيقي، وبينما زعمت الشركة أن نموذجها الأحدث GPT-5 يهلوس بشكل أقل، لم يكن المستخدمون مقتنعين إلى حد كبير.

في الوقت الحالي، سيتعين على صناعة الذكاء الاصطناعي الاستمرار في التعامل مع هذه المشكلة بينما تبرر عشرات المليارات من الدولارات في النفقات الرأسمالية والانبعاثات المتزايدة.

وعدت OpenAI في تدوينتها: "تظل الهلوسات تحديًا أساسيًا لجميع نماذج اللغة الكبيرة، لكننا نعمل بجد للحد منها بشكل أكبر".

تاريخ الإضافة: 2025-09-15 تعليق: 0 عدد المشاهدات :85
0      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات