القاهرة: الأمير كمال فرج.
يتميز البشر بقدرة فريدة على الاستدلال بالتشبيه – أي مقارنة مواقف أو حقائق مختلفة واستخلاص قواعد عامة منها. هذه المهارة أساسية في مجالات مثل العلوم والقانون والطب، حيث تُستخدم لتحليل المشكلات المعقدة وابتكار حلول إبداعية. لكن دراسة حديثة أكدت أن الذكاء الاصطناعي يعجز عن فهم هذه الخاصية الفريدة.
ذكر أليكس ناب في تقرير نشرته مجلة Forbes أن "دراسة حديثة نُشرت في دورية Transactions on Machine Learning Research كشفت أن نماذج الذكاء الاصطناعي مثل GPT-3 وGPT-4 تعاني ضعفًا ملحوظًا في فهم التشبيهات، ففي اختبارات قياس القدرة على الاستدلال التشابهي، تفوق البشر على هذه النماذج بنسبة كبيرة، خاصة عند التعامل مع مسائل غير مألوفة".
الفرق بين "التدريب" و"الفهم الحقيقي"
أظهرت الدراسة أن أداء الذكاء الاصطناعي يعتمد بشكل حاسم على مدى تشابه المشكلة مع البيانات التي دُرِّب عليها. بينما يستطيع البشر تعميم معرفتهم حتى في المجالات غير الخبرة، حيث يظل الذكاء الاصطناعي محدودًا بجودة بيانات التدريب.
هذه النتائج تتوافق مع دراسة سابقة (يناير 2024) وجدت أن نماذج مثل ChatGPT تُظهر دقة عالية في تشخيص الأمراض عند طرح أسئلة طبية مباشرة، لكنها تفشل في تحليل المحادثات الطبيعية مع المرضى لاستنتاج التشخيص المناسب.
هل يمكن للذكاء الاصطناعي أن يطور قدرته على التجريد؟
بدأت شركات الذكاء الاصطناعي الانتقال من الاعتماد على نماذج اللغة الكبيرة فقط إلى دمج تقنيات متعددة، مثل الشبكات العصبية المتخصصة وقواعد المعرفة المنطقية. ومع ذلك، يبقى السؤال الأهم: هل يمكن لهذه النماذج أن تكتسب قدرة شبيهة بالإنسان على الاستدلال المجرد؟، أم أن قيودها ستستمر بسبب اعتمادها على البيانات المُدخلة وعدم قدرتها على محاكاة الحدس البشري؟.
والتشبيه فضلًا عن أنه وسيلة أساسية في اللغة، يعتبر القياس أو المقارنة عامل مهم للتقييم، ففي القانون، يستخدم القضاة التشبيهات لربط السوابق القضائية بالقضايا الجديدة، وفي الطب يستخدم الأطباء الحالات السابقة في التشخيص.ولكن الواقع يؤكد أن الذكاء الاصطناعي يعجز عن ذلك إذا لم يُدرب على حالات متطابقة، فقد يخطئ الروبوت في تشخيص مرض نادر لأنه لم يتعرض لوصف مماثل في بياناته.