القاهرة: الأمير كمال فرج.
تواجه شركة Microsoft موجة من السخرية والانتقادات الحادة بعد اكتشاف بنود في شروط خدمة مساعدها الذكي Copilot تصفه بأنه مخصص للترفيه فقط، وذلك رغم إصرار الشركة على دمج الأداة في كافة زوايا نظام تشغيل Windows وتطبيقاته الإنتاجية.
ذكر فيكتور تنجدرمان في تقرير نشرته مجلة Futurism إن "وثيقة شروط الخدمة المطولة ذكرت إن Copilot مخصص لأغراض الترفيه فقط. يمكن أن يرتكب أخطاء، وقد لا يعمل كما هو مقصود. لا تعتمد على Copilot للحصول على نصائح مهمة، واستخدمه على مسؤوليتك الخاصة".
تناقض صارخ يثير حفيظة المستخدمين 🤔
أثار هذا البند استغراب المستخدمين والخبراء، خاصة وأن Microsoft تروج لـ Copilot كأداة ثورية لزيادة الإنتاجية، وقامت بدمجه في تطبيقات بسيطة مثل Microsoft Paint وNotepad، وصولاً إلى حزمة برامج المكتب.
وعلق أحد مستخدمي Reddit قائلاً: بالنسبة لي، ليست علامة جيدة عندما لا تدعم الشركة دقة منتجها.. إذا كانت Microsoft لا تثق في Copilot، فلماذا يجب عليّ أنا أن أثق به؟، بينما سخر آخر من استثمار ثلث الاقتصاد الأمريكي في تكنولوجيا مخصصة للترفيه فقط.
تبرير الشركة: لغة قديمة موروثة 🔄
في محاولة لاحتواء الموقف، أوضح متحدث باسم الشركة لـ PCMag أن هذه الصياغة الغريبة هي لغة قديمة موروثة من وقت إطلاق Copilot لأول مرة كرفيق بحث في Bing. وأضاف المتحدث: مع تطور المنتج، لم تعد هذه اللغة تعكس كيفية استخدام Copilot اليوم، وسيتم تعديلها في التحديث القادم.
الفجوة بين الوعود والواقع 📉
يسلط هذا الموقف الضوء على اتجاه أوسع لدى شركات الذكاء الاصطناعي التي تروج لقدرات فائقة لروبوتات الدردشة، بينما تحاول في الوقت نفسه التنصل من المسؤولية عن أي أخطاء أو هلوسة رقمية قد تنتج عنها.
وتستخدم شركات منافسة لغة مشابهة لحماية نفسها من المسؤوليات القانونية؛ فعلى سبيل المثال، تحذر شركة xAI المملوكة لإيلون ماسك من أن روبوتاتها قد تهلوس أو تكون مسيئة أو لا تعكس الحقائق بدقة.
وتأتي هذه الشقوق في مصداقية الأدوات الذكية في وقت حرج، حيث أبلغت شركات كبرى مثل Amazon عن انقطاعات كبيرة في وقت سابق من هذا العام ناتجة عن أكواد برمجية معيبة تم إنشاؤها بواسطة الذكاء الاصطناعي، مما دفع الإدارات إلى اشتراط مراجعة المهندسين البشريين لأي تغييرات تتم بمساعدة التقنية الجديدة.