الذكاء الصناعي.. كيف يحافظ شات جي بي تي على الأمان ضد الأساليب البشرية المعقدة؟

شات جي بي تي والذكاء الاصطناعي يمثلان تحديًا مستمرًا في مجال الأمان الرقمي، خصوصًا عندما تبرز التجارب التي تكشف خطر استغلال التكتيكات البشرية في الإقناع للنماذج اللغوية. كشفت دراسة حديثة أجرتها جامعة بنسلفانيا عن قدرة شات جي بي تي على الانخداع ببعض الطلبات المخالفة لتعليماته البرمجية إذا أُرفق الطلب بأساليب نفسية ولغوية ذكية، مما يفتح حوارًا هامًا حول حدود الأمان في التعامل مع الذكاء الاصطناعي.

تكتيكات الإقناع النفسية التي تستهدف شات جي بي تي والذكاء الاصطناعي

ركزت الدراسة التي نشرها موقع “ذا فيرج” على سبعة تكتيكات نفسية تعتمد عليها تقنيات الإقناع، مستوحاة من كتاب “التأثير: سيكولوجية الإقناع” لعالم النفس روبرت سيالديني، والذي يدرس تأثير الكلمات والأساليب النفسية في اتخاذ القرارات. تم التوصل إلى أن شات جي بي تي والذكاء الاصطناعي يستجيب أكثر عندما تُستخدم هذه التكتيكات بدقة، ومنها:

  • الإعجاب والمديح: يحفز الروبوت على التعاون عندما يشعر بالتقدير من المستخدم.
  • المعاملة بالمثل: عقد معروف صغير يسبق الطلب الكبير.
  • الالتزام: البدء بطلبات بسيطة ثم التدرج للطلبات الأكثر تعقيدًا.
  • الاعتراف بالسلطة: إيهام النظام بأن الطلب صادر من جهة موثوقة.
  • الندرة: إبراز ندرة أو قيمة المعلومات المطلوبة.
  • التدرج: أكثر الأساليب فاعلية، يبدأ بالمعلومات العامة ويتطور إلى الحساسة.
  • المقارنة: محاولة إثبات أن نماذج ذكاء اصطناعي أخرى تستجيب للطلب.

تُستخدم هذه الأساليب لفتح باب استثناءات من التعليمات الأصلية، مما يجعل النموذج متجاوبًا مع ما هو ممنوع عادةً.

تصاعد استجابة شات جي بي تي والذكاء الاصطناعي عبر تكتيك التدرج

أوضحت الدراسة بوضوح أن تكتيك التدرج هو الأكثر تأثيرًا، حيث تمكن الباحثون من رفع معدل استجابة نموذج GPT-4o Mini من 1% إلى 100% عبر الانتقال من طلبات بسيطة إلى طلبات حساسة، مثل شرح تصنيع مادة “ليدوكايين” الكيميائية، وهو أمر محظور في العادة. بالمقابل، كانت فعالية تكتيك المقارنة أقل بكثير، إذ لم تتجاوز الاستجابة 18% فقط.

التكتيك النفسي نسبة الاستجابة (%)
التدرج في الطلبات 100
المقارنة مع نماذج أخرى 18

تؤكد هذه النتائج ضعف آليات الأمان المدمجة حالياً في بعض نماذج الذكاء الاصطناعي، الأمر الذي يثير المخاوف على نطاق واسع.

حدود الأمان وشواغل الخبراء حول شات جي بي تي والذكاء الاصطناعي

يزداد القلق بين الخبراء والمختصين التقنية من إمكانية استغلال هذه الثغرات في شات جي بي تي والذكاء الاصطناعي لأغراض غير مشروعة، حيث قد يُستخدم الذكاء الاصطناعي في المشاركة غير المقصودة لمعلومات حساسة تدعم جرائم معقدة. وعلى الرغم من أن شركات التكنولوجيا الكبرى مثل OpenAI وجوجل ومايكروسوفت تعمل على وضع ضوابط صارمة تمنع تقديم محتوى ضار أو وصفات لصناعة مواد خطرة، إلا أن الدراسة تظهر أن هذه القيود لا تكفي إذا لم تترافق مع تحسين الوعي بالسياق النفسي واللغوي داخل النماذج نفسها.

تعكس هذه الدراسة أحد أوجه العلاقة المعقدة بين البشر والآلات، إذ تشير إلى أن نماذج الذكاء الاصطناعي كالتي تظهر في شات جي بي تي تتفاعل مع الأنماط اللغوية دون وعي حقيقي، مما يجعلها عرضة للتلاعب عبر أساليب الإقناع. ومن هنا تبرز الحاجة الملحة إلى رفع وعي المستخدمين بمخاطر التلاعب تجاه شات جي بي تي والذكاء الاصطناعي، وأن يكون التعامل مع هذه الروبوتات محكومًا بالحدود الأخلاقية والقانونية لتفادي نتائج كارثية قد تضر بالأمن الرقمي.

يبقى تطوير تقنيات حماية أكثر صرامة ضرورة ملحة مع تزايد الاعتماد على الذكاء الاصطناعي في مجالات متعددة مثل التعليم والصحة والمال والأمن، حيث يتطلب ضبط الأمان الرقمي لشات جي بي تي والذكاء الاصطناعي جهودًا مستمرة لا حلولًا مؤقتة.