سرقة البيانات.. الصور المزيفة بالذكاء الاصطناعي تهدد أمانك بشكل غير مسبوق

الهجمات الإلكترونية عبر إخفاء تعليمات خبيثة داخل الصور المعالجة بواسطة نماذج الذكاء الاصطناعي التوليدية أصبحت تهديداً حقيقياً يهدد الخصوصية ويسهل سرقة البيانات الشخصية، حيث يستغل القراصنة هذه التقنية الجديدة في تنفيذ اختراقات معقدة لا يمكن كشفها بسهولة من قبل المستخدمين. وتتمثل هذه الهجمات في إدخال أوامر ضارة داخل الصور التي تستخدمها أنظمة الذكاء الاصطناعي، والتي تظهر فقط بعد عمليات تحجيم الصور داخل النماذج، ما يجعلها غير مرئية لعين المستخدم العادي لكنها قابلة للقراءة من قبل الخوارزميات.

كيف تتم الهجمات الإلكترونية عبر إخفاء تعليمات خبيثة داخل الصور المعالجة بنماذج الذكاء الاصطناعي

كشفت شركة Trail of Bits عن أسلوب جديد للاختراق يعتمد بالأساس على إخفاء أوامر خبيثة داخل الصور التي تمر عبر نماذج الذكاء الاصطناعي التوليدية، حيث تبقى هذه الأوامر غير مرئية للمستخدمين أثناء العرض، لكنها تنكشف فور تقليص أبعاد الصورة أو تغيير حجمها عبر طرق التحجيم المختلفة المستخدمة في أنظمة الذكاء الاصطناعي مثل أقرب جار (Nearest Neighbor) وثنائي الخطي (Bilinear) والمكعب الثنائي (Bicubic)؛ فهذه الأساليب تكشف عن نصوص مخفية في الصور ذاتها من خلال تشوهات بصرية تظهر عند معالجتها. أظهرت التجارب التي أجراها الباحثون أن مناطق داكنة في الصورة الأصلية تتحول إلى نصوص واضحة في النسخ المصغرة بعد تحجيمها، ويمكن للنموذج قراءتها كأوامر تنفيذية دون أن يدرك المستخدم أي تغيير في الصورة المعروضة.

اختبر الباحثون الطريقة على عدة أنظمة مثل Gemini CLI وVertex AI Studio بالإضافة إلى مساعد جوجل على نظام أندرويد وواجهة جيميناي ويب، وكانت إحدى الحالات مروعة حين استطاعت التعليمات المخفية استخراج بيانات حساسة من تقويم جوجل وإرسالها تلقائياً عبر البريد الإلكتروني إلى جهات خارجية بدون إذن المستخدم، مما يسلط الضوء على حجم الخطر الذي تمثله هذه الهجمات على الخصوصية وحماية البيانات الشخصية.

تكنولوجيا تحجيم الصور وأداة Anamorpher في تسهيل الهجمات الإلكترونية الخبيثة

سبق وأن أشارت دراسة نشرت عام 2020 في جامعة TU Braunschweig الألمانية إلى إمكانية استغلال تقنيات تحجيم الصور كوسيلة فعالة للهجوم على أنظمة التعلم الآلي، وجاءت النتائج الحديثة لتؤكد هذه المخاطر عملياً. ولإبراز درجة الخطورة، طور فريق الباحثين أداة مفتوحة المصدر باسم Anamorpher، قادرة على توليد صور تحتوي تعليمات خفية باستخدام أساليب تحجيم متنوعة. وقد شدد الباحثون على أن هذه الأداة موجهة للأغراض البحثية فقط، لكنها تكشف بوضوح أن الهجمات عبر إخفاء تعليمات خبيثة داخل الصور المعالجة بنماذج الذكاء الاصطناعي يمكن أن تُعاد بسهولة إذا غابت الآليات الدفاعية الفعالة.

يثير هذا الأسلوب الجديد تساؤلات جدية حول مدى موثوقية أنظمة الذكاء الاصطناعي متعددة الوسائط، خصوصاً أن صورة واحدة يمكن أن تكون باباً لاختراق بيانات حساسة أو تسريب معلومات خاصة للمستخدمين، خاصة وأن معظم هذه النماذج تكون متصلة بتطبيقات حيوية يومية كالرسائل الإلكترونية، أدوات العمل، ومنصات التواصل الاجتماعي، ما يجعل الواقع الأمني عرضة لانتهاكات متطورة.

إجراءات وقائية وحماية فعالة ضد الهجمات الإلكترونية عبر الصور المعالجة بنماذج الذكاء الاصطناعي

في مواجهة التهديدات الخطيرة الناجمة عن إخفاء تعليمات خبيثة داخل الصور المعالجة بنماذج الذكاء الاصطناعي، أوصى الباحثون باتباع إجراءات محددة تزيد من أمن المستخدمين ومنها:

  • تقيد أبعاد الصور المدخلة لنظام الذكاء الاصطناعي لتقليل فرص استغلالها
  • مراجعة دقيقة لنتائج عمليات التحجيم قبل السماح للنظام بتنفيذ الأوامر المستخرجة
  • فرض آليات تأكيد صريحة وواضحة للتعامل مع أي أوامر حساسة تظهر خلال المعالجة

يرى الخبراء أن الدفاعات التقليدية مثل الجدران النارية غير مصممة لاكتشاف هذا النوع الجديد من الهجمات؛ لذلك، تعاني هذه الأنظمة من ثغرات كبيرة قد تفتح المجال أمام القراصنة مستقبلاً. وأوضح فريق Trail of Bits أن الحل الأمثل يكمن في اعتماد نماذج تصميم آمنة والعمل على بناء أنظمة دفاع متكاملة ومتعددة الطبقات، بحيث تكون قادرة على التعرف والتصدي لهجمات “حقن الأوامر” سواء كانت ضمن النصوص أو حتى داخل الصور.

تتجلى خطورة هذه الهجمات في كونها قد تسمح للمهاجمين بقيام آخرين كسرقة الهوية والاستحواذ على بيانات شخصية حساسة من المستخدمين بطرق دقيقة يصعب كشفها، مما يحتم على المؤسسات والمستخدمين رفع مستوى وعيهم الأمني وتعزيز آليات الحماية الخاصة بأنظمة الذكاء الاصطناعي المتقدمة لضمان سلامة البيانات وخصوصيتها.