"غروك" يثير الجدل مجددًا.. اتهامات بإهمال معايير الأمان في شركة الذكاء الاصطناعي التابعة لماسك


عاد روبوت الذكاء الاصطناعي "غروك 4.0"، الذي تطوّره شركة "إكس إيه آي" (xAI) المملوكة لإيلون ماسك، إلى واجهة الجدل التقني العالمي بعد موجة انتقادات لاذعة طالت سياسات الشركة في التعامل مع سلامة وأخلاقيات الذكاء الاصطناعي، عقب نشره تغريدات ومواد وُصفت بأنها "معادية للسامية" و"غير مسؤولة"، حسب ما كشفه تقرير لموقع "تيك كرانش" المتخصص بالتقنية اطلع عليه "معلومة ديجيتال".

لماذا تتوسع شركتي ميتا و جوجل في إطلاق الكابلات البحرية

انتقادات لاذعة من خبراء الذكاء الاصطناعي

أعرب خبراء أمن الذكاء الاصطناعي عن قلقهم الشديد بشأن "استهتار" الشركة بسلامة المستخدمين وعدم التزامها بالمعايير المتعارف عليها في هذا المجال. وقال البروفيسور بوعز باراك، أستاذ علوم الحاسوب في جامعة هارفارد، في تغريدة: "أقدّر الكفاءات التقنية في xAI، لكن الطريقة التي تعاملت بها الشركة مع قضايا الأمان غير مسؤولة بتاتًا".

وأشار باراك إلى غياب ما يُعرف بـ"بطاقات التقييم" أو (Safety Cards)، وهي وثائق أساسية تُنشر مع النماذج الكبرى لتقييم إجراءات السلامة التي اتُبعت أثناء تطوير وتدريب النماذج. وبدونها، من الصعب على الخبراء والمجتمع العلمي تقييم مدى التزام الشركة بمعايير الأمان.

"غروك" يعكس وجهة نظر ماسك؟

التقرير أشار أيضًا إلى أن الروبوت "غروك 4" أظهر في تفاعلاته على منصة "إكس" (تويتر سابقًا) ميولًا واضحة تتماشى مع آراء ماسك الشخصية، ما يطرح تساؤلات حول مدى استقلالية الذكاء الاصطناعي عن مطوّريه، لا سيما في المسائل الحساسة مثل الدين والسياسة والهوية.

وفي واحدة من الحوادث المثيرة، شارك "غروك" منشورات تتضمن صورًا ومحتويات مثيرة للجدل، ما زاد من الضغط على "إكس إيه آي" لإعادة تقييم ممارساتها الخاصة بالتدقيق والمراجعة.

غياب الشفافية يثير المخاوف

وانتقد باحثون من شركات منافسة مثل "أوبن إيه آي" و"أنثروبيك" قرار xAI بعدم الإفصاح عن نتائج اختبارات الأمان، رغم تأكيد مستشار السلامة في الشركة دان هندريكس أن هذه التقييمات قد أُجريت داخليًا. وقال الباحث المستقل ستيفن أدلر: "عدم نشر نتائج التقييمات أكثر خطورة من أي خطأ محتمل في النموذج نفسه".

كما كشف أحد المستخدمين المجهولين في منتدى "LessWrong" المتخصص في أبحاث الذكاء الاصطناعي أن "غروك 4" يفتقر تمامًا إلى حواجز الأمان الفعالة، بناءً على اختبارات أجراها بنفسه، وهو ادعاء لم تؤكده الشركة بعد.

ازدواجية مواقف ماسك تثير تساؤلات

يبرز التقرير تناقضًا واضحًا بين الانتقادات المتكررة التي يوجهها ماسك لشركات الذكاء الاصطناعي الأخرى بخصوص السلامة والأخلاقيات، وبين سياسة شركته الخاصة التي تبدو أقل التزامًا بهذه المعايير.

هذا التناقض قد يدفع جهات تنظيمية حول العالم إلى تسريع تشريعات وقوانين تلزم شركات الذكاء الاصطناعي بمعايير شفافة وموثوقة لتقييم الأمان، خاصة مع التزايد السريع في اعتماد هذه التقنيات في المجالات الحساسة.

نحو تنظيم أكثر صرامة للذكاء الاصطناعي

أزمة "غروك" الأخيرة قد تمثل نقطة تحوّل في مسار تنظيم صناعة الذكاء الاصطناعي، إذ تدعو مؤسسات بحثية ومجتمعات علمية إلى فرض قواعد ملزمة على الشركات التي تطور نماذج لغوية متقدمة.

وفي ظل تصاعد القلق من هلوسات الذكاء الاصطناعي والمحتوى المضلل، يبدو أن الطريق نحو "ذكاء آمن ومسؤول" لا يزال مليئًا بالتحديات، وقد تتصدر هذه القضايا أجندات الحكومات والمنظمات في السنوات القادمة.


تعليقات

مشاركة مميزة

بحث هذه المدونة الإلكترونية

كتبه فريق التحرير في
معلومة ديجيتال

نحن نعمل على تقديم محتوى تقني موثوق، شامل، ومحدث دائمًا لمساعدتك على فهم التكنولوجيا الحديثة وتطبيقاتها اليومية.

تابعنا لمزيد من الشروحات والمقالات الحصرية:
tech.ma3looma.online

تابع صفحاتنا الرسمية:
فيسبوك | تويتر | تيليغرام | يوتيوب