حماية المراهقين.. شركة “ميتا” تطور روبوتات دردشة تمنع النقاشات الخطرة حول الانتحار

روبوتات الدردشة الخاصة بميتا تتلقى حواجز أمنية جديدة للحد من تفاعل المراهقين مع مواضيع الانتحار

أعلنت شركة ميتا عن إضافة حواجز أمنية جديدة إلى روبوتات الدردشة الخاصة بها، بهدف الحد من تفاعل المراهقين مع موضوعات الانتحار، وإيذاء النفس، واضطرابات الطعام، وذلك كإجراء احترازي إضافي يأتي بعد تحقيق أُطلق من قبل سيناتور أمريكي إثر تسريبات لوثائق داخلية تشير إلى محادثات “حسية” بين روبوتات الذكاء الاصطناعي والمراهقين، وهو ما نفته الشركة مؤكدة عدم توافقه مع سياساتها الصارمة ضد أي محتوى يؤدي إلى تحرش جنسي بالأطفال.

حواجز أمنية جديدة لروبوتات الدردشة الخاصة بميتا لتقليل المخاطر على المراهقين

ميتا صرحت بأنها ستقوم بتطبيق قواعد صلبة لتحجيم تفاعل روبوتات الدردشة مع المراهقين في المواضيع الحساسة كالانتحار، حيث سيتم توجيه هؤلاء المراهقين إلى طلب المساعدة من خبراء مختصين في المجال بدلاً من الانخراط في محادثات قد تعرضهم للخطر، خاصةً في حالات إيذاء النفس واضطرابات الأكل. وأكد المتحدث باسم الشركة أن الحماية للمراهقين كانت مضمّنة منذ البداية في تصميم الذكاء الاصطناعي، بهدف التعامل بأمان مع المواضيع النفسية والمجتمعية. وأشار في تصريح لـ”تك كرانش” إلى أن ما يُطبّق الآن هو تدابير احترازية مؤقتة تهدف إلى تقليل المخاطر. من جانب آخر، يثير هذا القرار تساؤلات وتحديات بشأن مدى فاعليته، لا سيما بعد انتقادات من مؤسسات حقوقية مثل مؤسسة مولي روز البريطانية التي طالبت باختبارات سلامة صارمة قبل أي إصدار للمنتجات الجديدة، مطالبةً الجهات التنظيمية مثل “أوفكوم” بالتحرك السريع لمراقبة ذلك.

مخاوف السلامة والأمان تحيط باستخدام روبوتات الدردشة لدى المراهقين

تتزايد المخاوف من تأثير روبوتات الدردشة الذكية على المستخدمين الصغار وخصوصاً المعرّضين للخطر نفسيًا، خصوصًا بعد رفع عائلة من كاليفورنيا دعوى قضائية ضد شركة “آوبن أيه آي” إثر حادثة وفاة نجلهم المراهق التي نسبت إلى تأثيرات محادثات الروبوت، ما دفع شركة OpenAI إلى تحديث طرق استخدام “تشات جي بي تي” بما يعزز الصحة النفسية والخصوصية. وتأتي هذه التحركات في ظل تقارير وكالة رويترز التي كشفت أن بعض موظفي ميتا وأطراف أخرى استغلوا أدوات الذكاء الاصطناعي لإنشاء روبوتات تنتحل شخصيات نساء مشاهير مثل تايلور سويفت وسكارليت جوهانسون، حيث قامت هذه الروبوتات بمغازلة المستخدمين وأظهرت تصرفات غير لائقة تتضمن تحرشات جنسية متكررة. كما سمحت الأدوات بإنشاء شخصيات تزييف لأطفال مشاهير، منها صورة واقعية لنجم شاب عاري الصدر، الأمر الذي دفع ميتا لاحقاً إلى إزالة العديد من هذه الروبوتات وفرض قواعد صارمة لمنع الانتحال المباشر للشخصيات العامة، إضافة إلى حظر الصور ذات الطابع الحميمي أو الإيحائي.

تحديثات الذكاء الاصطناعي في ميتا ودورها في حماية المراهقين على منصات التواصل

تعمل ميتا على تنفيذ تحديثات حيوية لأنظمتها بما يتماشى مع حماية المستخدمين من الفئة العمرية بين 13 و18 عامًا، من خلال وضعهم في حسابات مخصصة باسم “مراهقين” على فيسبوك وإنستغرام وماسنجر، وهي حسابات تتضمن إعدادات خصوصية ومحتوى تعزز الأمان أثناء التفاعل الإلكتروني. وبحسب تصريحات الشركة الموجهة لبي بي سي في أبريل، تم تصميم هذه التعديلات ليس فقط لحماية المراهقين بل لتمكين أولياء الأمور من مراقبة روبوتات الدردشة التي يتواصل معها أبناؤهم خلال الأسبوع الماضي، مما يضمن شفافية أكبر. ويترافق هذا التحول مع طلبات متزايدة من الهيئات التنظيمية لوضع آليات اختبار دقيقة وأدوات رقابة متقدمة قبل طرح أي منتجات ذكاء اصطناعي جديدة، حيث أعلنت ميتا عن إجراء قائمة بالخطوات الأمنية التي تشمل:

  • تعزيز الحماية من التفاعلات الضارة مع المراهقين
  • منع التحدث في مواضيع الانتحار أو إيذاء النفس
  • الإبلاغ التلقائي للمحادثات الحساسة إلى خبراء مختصين
  • فرض سياسة صارمة ضد انتحال واستخدام شخصيات عامة بطريقة غير مشروعة
الفئة العمرية الإجراءات الأمنية
13-18 سنة حسابات مراهقين مع إعدادات خصوصية محتوى متقدمة
جميع الفئات منع المحادثات ذات الطابع الحسي أو المشجع على سلوك ضار

يبرز التعاون المستمر بين ميتا وهيئات التنظيم، مثل هيئة “أوفكوم” في بريطانيا، ضرورة مراقبة مدى فعالية هذه التحديثات في حماية المراهقين من مخاطر روبوتات الدردشة التي تعتمد على الذكاء الاصطناعي، ما يجعل تطبيق الحواجز الأمنية ومتابعة التطبيقات أمراً حاسماً للحفاظ على سلامة المستخدمين الصغار داخل البيئة الرقمية المتطورة.