دودة الذكاء الاصطناعي worm قادمة!
مع تطور أنظمة الذكاء الاصطناعي المولِّدة للغة مثل ChatGPT من OpenAI وجيميني من جوجل، يتم توظيفها بشكل متزايد. تقوم الشركات الناشئة وشركات التكنولوجيا ببناء وكلاء ونظم بيئية للذكاء الاصطناعي فوق الأنظمة القادرة على إنجاز المهام المملة نيابة عنك، مثل إجراء حجوزات التقويم تلقائيًا وشراء المنتجات المحتملة. ولكن مع منح الأدوات المزيد من الحرية، تزداد أيضًا الطرق المحتملة التي يمكن مهاجمتها من خلالها.
الآن، وفي عرض توضيحي لمخاطر النظم البيئية للذكاء الاصطناعي المستقلة والمتصلة، ابتكر فريق من الباحثين واحدة مما يزعمون أنها أولى ديدان الذكاء الاصطناعي المولِّدة – والتي يمكن أن تنتشر من نظام إلى آخر، بما قد يؤدي إلى سرقة البيانات أو نشر البرامج الضارة في هذه العملية. يقول بن ناصي، الباحث في جامعة كورنيل تك والمتخصص في هذا البحث، “هذا يعني في الأساس أنك تملك الآن القدرة على تنفيذ أو القيام بنوع جديد من الهجمات الإلكترونية لم يُشاهد من قبل”.
قام Nassi، إلى جانب الباحثين ستاف كوهين ورون بيتون، بتطوير الدودة التي أطلقوا عليها اسم “موريس الثاني”، في إشارة إلى دودة موريس الأصلية التي تسببت في فوضى عارمة عبر الإنترنت عام 1988. في ورقة بحثية وموقع إلكتروني تم مشاركتهما حصريًا مع مجلة Wired، يوضح الباحثون كيف يمكن لدودة الذكاء الاصطناعي مهاجمة مساعد البريد الإلكتروني المولِّد للغة لسرقة البيانات من رسائل البريد الإلكتروني وإرسال رسائل البريد العشوائي – وكسر بعض الحماية الأمنية في ChatGPT وجيميني في هذه العملية.
يأتي هذا البحث، الذي تم إجراؤه في بيئات اختبار وليس ضد مساعد بريد إلكتروني متاح للجمهور، حيث تزداد نماذج اللغة الكبيرة (LLMs) بشكل متزايد لتصبح متعددة الوسائط، حيث يمكنها توليد الصور والفيديو وكذلك النص. في حين لم يتم اكتشاف ديدان الذكاء الاصطناعي المولِّدة للغة في البرية حتى الآن، إلا أن العديد من الباحثين يقولون إنها تشكل خطرًا أمنيًا يجب على الشركات الناشئة والمطورين وشركات التكنولوجيا أن تقلق بشأنه.
تعمل معظم أنظمة الذكاء الاصطناعي المولِّدة للغة من خلال تلقي إرشادات – تعليمات نصية تخبر الأدوات بالإجابة على سؤال أو إنشاء صورة. ومع ذلك، يمكن أيضًا استخدام هذه الإرشادات كسلاح ضد النظام. يمكن لعمليات “كسر القيود” جعل النظام يتجاهل قواعد السلامة الخاصة به ويبث محتوى سامًا أو ضارًا، بينما يمكن لهجمات “حقن الإرشادات” أن تمنح روبوت الدردشة تعليمات سرية. على سبيل المثال، قد يخفي مهاجم نصًا على صفحة ويب يخبر نموذج اللغة الكبيرة بالعمل كمحتال ويطلب تفاصيل حسابك المصرفي.
لإنشاء دودة الذكاء الاصطناعي المولِّدة للغة، لجأ الباحثون إلى ما يسمى بـ “الإرشاد المضاد ذاتي النسخ”. وهذا إرشاد يحفز نموذج الذكاء الاصطناعي المولِّد للغة على إخراج إرشاد آخر في استجابته، كما يقول الباحثون. باختصار، يُطلب من نظام الذكاء الاصطناعي إنتاج مجموعة من التعليمات الإضافية في ردوده. وهذا مشابه إلى حد كبير بهجمات حقن SQL وفيضان المخزن التقليدية، كما يقول الباحثون.
علي مايبدو أن الذكاء الاصطناعي سيفتح الباب علي مصراعيه لنوع جديد من الرعب التقني !!
المصدر: https://www.wired.com/story/here-come-the-ai-worms/
إرسال التعليق