شات جي بي تي والذكاء الاصطناعي يمثلان تحديًا مستمرًا في مجال الأمان الرقمي، خصوصًا عندما تبرز التجارب التي تكشف خطر استغلال التكتيكات البشرية في الإقناع للنماذج اللغوية. كشفت دراسة حديثة أجرتها جامعة بنسلفانيا عن قدرة شات جي بي تي على الانخداع ببعض الطلبات المخالفة لتعليماته البرمجية إذا أُرفق الطلب بأساليب نفسية ولغوية ذكية، مما يفتح حوارًا هامًا حول حدود الأمان في التعامل مع الذكاء الاصطناعي.
تكتيكات الإقناع النفسية التي تستهدف شات جي بي تي والذكاء الاصطناعي
ركزت الدراسة التي نشرها موقع “ذا فيرج” على سبعة تكتيكات نفسية تعتمد عليها تقنيات الإقناع، مستوحاة من كتاب “التأثير: سيكولوجية الإقناع” لعالم النفس روبرت سيالديني، والذي يدرس تأثير الكلمات والأساليب النفسية في اتخاذ القرارات. تم التوصل إلى أن شات جي بي تي والذكاء الاصطناعي يستجيب أكثر عندما تُستخدم هذه التكتيكات بدقة، ومنها:
- الإعجاب والمديح: يحفز الروبوت على التعاون عندما يشعر بالتقدير من المستخدم.
- المعاملة بالمثل: عقد معروف صغير يسبق الطلب الكبير.
- الالتزام: البدء بطلبات بسيطة ثم التدرج للطلبات الأكثر تعقيدًا.
- الاعتراف بالسلطة: إيهام النظام بأن الطلب صادر من جهة موثوقة.
- الندرة: إبراز ندرة أو قيمة المعلومات المطلوبة.
- التدرج: أكثر الأساليب فاعلية، يبدأ بالمعلومات العامة ويتطور إلى الحساسة.
- المقارنة: محاولة إثبات أن نماذج ذكاء اصطناعي أخرى تستجيب للطلب.
تُستخدم هذه الأساليب لفتح باب استثناءات من التعليمات الأصلية، مما يجعل النموذج متجاوبًا مع ما هو ممنوع عادةً.
تصاعد استجابة شات جي بي تي والذكاء الاصطناعي عبر تكتيك التدرج
أوضحت الدراسة بوضوح أن تكتيك التدرج هو الأكثر تأثيرًا، حيث تمكن الباحثون من رفع معدل استجابة نموذج GPT-4o Mini من 1% إلى 100% عبر الانتقال من طلبات بسيطة إلى طلبات حساسة، مثل شرح تصنيع مادة “ليدوكايين” الكيميائية، وهو أمر محظور في العادة. بالمقابل، كانت فعالية تكتيك المقارنة أقل بكثير، إذ لم تتجاوز الاستجابة 18% فقط.
التكتيك النفسي | نسبة الاستجابة (%) |
---|---|
التدرج في الطلبات | 100 |
المقارنة مع نماذج أخرى | 18 |
تؤكد هذه النتائج ضعف آليات الأمان المدمجة حالياً في بعض نماذج الذكاء الاصطناعي، الأمر الذي يثير المخاوف على نطاق واسع.
حدود الأمان وشواغل الخبراء حول شات جي بي تي والذكاء الاصطناعي
يزداد القلق بين الخبراء والمختصين التقنية من إمكانية استغلال هذه الثغرات في شات جي بي تي والذكاء الاصطناعي لأغراض غير مشروعة، حيث قد يُستخدم الذكاء الاصطناعي في المشاركة غير المقصودة لمعلومات حساسة تدعم جرائم معقدة. وعلى الرغم من أن شركات التكنولوجيا الكبرى مثل OpenAI وجوجل ومايكروسوفت تعمل على وضع ضوابط صارمة تمنع تقديم محتوى ضار أو وصفات لصناعة مواد خطرة، إلا أن الدراسة تظهر أن هذه القيود لا تكفي إذا لم تترافق مع تحسين الوعي بالسياق النفسي واللغوي داخل النماذج نفسها.
تعكس هذه الدراسة أحد أوجه العلاقة المعقدة بين البشر والآلات، إذ تشير إلى أن نماذج الذكاء الاصطناعي كالتي تظهر في شات جي بي تي تتفاعل مع الأنماط اللغوية دون وعي حقيقي، مما يجعلها عرضة للتلاعب عبر أساليب الإقناع. ومن هنا تبرز الحاجة الملحة إلى رفع وعي المستخدمين بمخاطر التلاعب تجاه شات جي بي تي والذكاء الاصطناعي، وأن يكون التعامل مع هذه الروبوتات محكومًا بالحدود الأخلاقية والقانونية لتفادي نتائج كارثية قد تضر بالأمن الرقمي.
يبقى تطوير تقنيات حماية أكثر صرامة ضرورة ملحة مع تزايد الاعتماد على الذكاء الاصطناعي في مجالات متعددة مثل التعليم والصحة والمال والأمن، حيث يتطلب ضبط الأمان الرقمي لشات جي بي تي والذكاء الاصطناعي جهودًا مستمرة لا حلولًا مؤقتة.
أسعار الذهب اليوم ترتفع الأربعاء 23-4-2025.. عيار 21 يسجل 4820 جنيهًا
المواصفات والسعر.. سياره رينو كارديان ٢٠٢٥ كروس أوفر اقتصادية بثلاث فئات
تعرف على مواعيد قطار تالجو السريع اليوم الإثنين 4 أغسطس 2025 من قبلي إلى بحري
أسعار الذهب اليوم الخميس 24 أبريل 2025 تشهد تحركات جديدة بالسوق المحلي
متحف المركبات الملكية يحتفي باليوم العالمي للتصوير الفوتوغرافي بمحاضرة وورشة عمل 18 أغسطس 2025
فرص جاهزة أمام المستثمرين.. الحكومة تسعى لجذب المليارات عبر الاستثمار المباشر