القاهرة: الأمير كمال فرج.
تسربت مئات الآلاف من محادثات المستخدمين مع روبوت الدردشة Grok، الذي يملكه إيلون ماسك، إلى الإنترنت، بعض هذه المحادثات تصل إلى مستويات مقلقة للغاية.
ذكر تقرير نشرته مجلة Forbes أن "أكثر من 370 ألف محادثة تم نشرها بعد أن ضغط المستخدمون على زر مشاركة، مما أنشأ رابطًا لمحادثاتهم مع الروبوت، دون أن يدركوا أن هذا الإجراء جعلها قابلة للفهرسة من قبل محركات البحث مثل Google وBing.
من الواضح أن بعض المحادثات لم يكن من المفترض أن ترى النور أبدًا. وجدت مجلة Forbes أن Grok قدم تعليمات حول كيفية تحضير عقاقير مثل الفنتانيل والميث. كما قدم خطوات لبرمجة برامج خبيثة ذاتية التنفيذ، وصناعة قنبلة، وتنفيذ أشكال مختلفة من الانتحار. حتى أنه وضع خطة مفصلة لاغتيال ماسك نفسه، وهي ليست المرة الأولى التي يتمرد فيها الروبوت على منشئه.
تجدر الإشارة إلى أن بعض هذه المحادثات المتطرفة قد تكون نتيجة لمحاولات اختبار مدى الأمان في الروبوت، على الرغم من أن بعضها قد يكون حقيقيًا أيضًا. في كل الأحوال، هذه المحادثات تعد انتهاكًا صارخًا لشروط خدمة شركة xAI، التي تحظر صراحة استخدام Grok للتسبب في "أضرار بالغة لحياة الإنسان" أو لتطوير أسلحة دمار شامل، وفقًا لـ Forbes .
Grok ليس استثناءً
سلوك Grok ليس جديدا في هذا المجال. تواجه شركات الذكاء الاصطناعي صعوبة في منع نماذجها من تجاوز حواجز الحماية الخاصة بها، والتي يمكن تجاوزها بسهولة من قبل المستخدمين الأذكياء. ومع ذلك، يواجه Grok تدقيقًا مكثفًا لأن ماسك يروج له كبديل للذكاء الاصطناعي السائد.
صرح ماسك مرارًا وتكرارًا عن نيته "إصلاح" Grok لكي يروج لوجهات نظر تتوافق مع معتقداته المتطرفة. وربما ليس من قبيل الصدفة أن Grok مرّ بالعديد من الحالات التي خرج فيها عن السيطرة بشكل مروع، مثل تسمية نفسه بـ "MechaHitler" ونشر ادعاءات "الإبادة الجماعية للبيض" في محادثات لا علاقة لها بالموضوع.
مشاكل الخصوصية
Grok ليس أول روبوت دردشة تظهر محادثاته في محركات البحث. تسببت شركة OpenAI في حادثة مماثلة في وقت سابق من هذا الصيف، عندما اكتشف الخبراء أن الآلاف من محادثات ChatGPT كانت مفهرسة أيضًا بواسطة Google ، نتيجة لعدم إدراك المستخدمين أن إنشاء رابط للمشاركة جعل محادثاتهم "قابلة للاكتشاف" من قبل محركات البحث. بعد انتشار الخبر، أزالت OpenAI الميزة التي تجعل المحادثات قابلة للاكتشاف.
كشف تحليل لبيانات ChatGPT المسربة عن جدل خاص به، بما في ذلك محادثة قدم فيها الروبوت نصيحة لمحامٍ مزعوم حول كيفية "تهجير مجتمع أمازوني صغير من السكان الأصليين" من أجل بناء سد على أراضيهم.
وكشف تحقيق آخر في البيانات العامة عن عشرات المحادثات التي غذى فيها الذكاء الاصطناعي بشكل خطير معتقدات مستخدم يعاني من جنون ارتياب أو أوهام، بما في ذلك إقناع شخص بأنه على وشك اختراع نوع جديد من الفيزياء.
ومن المفارقات، أنه عندما تعرضت OpenAI للانتقاد بسبب تسريب المحادثات، تباهى ماسك بأن Grok لا يمتلك ميزة المشاركة وأن محادثاته ليست قابلة للفهرسة بواسطة Google ، حسبما أشارت المجلة.
فرصة سيئة
حتى خبراء الذكاء الاصطناعي تم خداعهم بشأن خصوصية Grok. قال ناثان لامبرت، باحث في تعلم الآلة في معهد ألين للذكاء الاصطناعي، لمجلة Forbes : "لقد تفاجأت بأن محادثات Grok التي تمت مشاركتها مع فريقي كانت تُفهرس تلقائيًا على Google ، على الرغم من عدم وجود تحذيرات بشأن ذلك، خاصة بعد الحادثة الأخيرة مع ChatGPT".
لكن في حين يشعر الآخرون بالصدمة من مخاطر الخصوصية التي تشكلها هذه الميزات، يرى المسوقون فرصة. وجدت Forbes أن مرسلي البريد المزعج spammers في مجال تحسين محركات البحث SEO يناقشون استغلال محادثات Grok المشتركة لتعزيز رؤية أعمالهم، مما يوفر وسيلة أخرى لاستخدام الذكاء الاصطناعي للتلاعب بنتائج البحث وتدمير الإنترنت للجميع في هذه العملية.
في الواقع، هذا يحدث بالفعل. أظهر ساتيش كومار، الرئيس التنفيذي لشركة SEO Pyrite Technologies، لـ Forbes كيف استخدمت إحدى الشركات Grok لتغيير نتائج بحث Google عن خدمة كتابة أطروحات الدكتوراه. وقال كومار للمجلة: "يستخدم الناس تكتيكات بنشاط لدفع هذه الصفحات إلى فهرس Google ".