الشرق تريبيون- وكالات
في تطور لافت يثير قلق الخبراء الأمنيين، كشفت تقارير صحفية حديثة عن توجه تنظيم داعش لتدريب عناصره على توظيف تقنيات الذكاء الاصطناعي وروبوتات المحادثة في عملياته الإرهابية، ضِمن إستراتيجية جديدة تعكس تحولًا خطيرًا في تكتيكات التنظيمات المتطرفة.
دليل إرشادي للمقاتلين
أفادت صحيفة بوليتيكو الأمريكية بأن العددين الأخيرين من مجلة "صوت خراسان"، الناطقة بالإنجليزية عن الصادرة عن فرع تنظيم داعش في أفغانستان المعروف باسم "داعش خراسان"، تضمنا صفحات مخصصة لشرح كيفية استخدام أنصار التنظيم للذكاء الاصطناعي ليكونوا "مجاهدين مسؤولين".
وأشارت الصحيفة إلى أن التنظيم، الذي ارتبط بهجمات في روسيا وإيران وأفغانستان وباكستان، وكذلك المحاولة الفاشلة لاستهداف حفلات تايلور سويفت في فيينا عام 2024، بات يروِّج لهذه التقنيات بين عناصره بشكل منهجي.
وبحسب بوليتيكو، يقدم العدد الأخير من المجلة نصائح مفصلة حول "الطرق المسؤولة لاستخدام روبوتات المحادثة"، مستِهلًّا القسم بمقولة تشبه الذكاء الاصطناعي بالنار التي يمكن استخدامها للإضاءة أو الحرق.
وتتضمن التعليمات أمثلة عملية لتوظيف هذه الأدوات في الحملات الدعائية والدينية، مع تأكيد أن "الذكاء الاصطناعي في كل مكان، تعلمه قبل أن يتعلم الكثير عنك".
توجيهات للاستخدام الآمن
تسلط المجلة الضوء، وفق ما نقلته بوليتيكو، الضوء على أهمية استخدام الذكاء الاصطناعي في إجراء أبحاث خاصة بشكل مجهول، بما يتجنب "مشاركة معلومات حساسة" أو "التعرض لمخاطر غير ضرورية".
وتحذر التعليمات من استخدام روبوتات المحادثة لمشاركة معلومات شخصية يمكن تتبعها، أو رفع ملفات سرية، أو طرح استفسارات سياسية وأمنية حساسة، أو طلب فتاوى دينية.
كما كشفت بوليتيكو أن العدد السابق قدم مقارنة تفصيلية بين نماذج الذكاء الاصطناعي من شركات عالمية مثل "أوبن إيه آي" و"أنثروبيك" و"ميتا" و"مايكروسوفت" و"ديب سيك"، مع توجيه تحذيرات من نماذج معينة؛ بسبب "تورطها المزعوم في البنية التحتية للذكاء الاصطناعي التابعة للجيش الإسرائيلي"، موصيًا بأداة "بريف ليو" المركِّزة على حماية الخصوصية عند إجراء استفسارات حساسة.
تحذيرات بريطانية
حذر جوناثان هول، المراجع المستقل لتشريعات مكافحة الإرهاب في الحكومة البريطانية، من أن الذكاء الاصطناعي يمثل "موجة قادمة" ستعزز بشكل هائل قدرات الدعاية الإرهابية وتسهّل التحضير للهجمات.
وقال هول في تصريحات لصحيفة بوليتيكو، إن "التطورات المتسارعة في الذكاء الاصطناعي باتت تتيح المزيد من القدرات الجاهزة للاستخدام أمام الجماعات الإرهابية"، محذرًا من أن "نماذج اللغة الكبيرة تخفض حواجز إنتاج دعاية متطورة ومخصصة، وهو ما يشكل مشكلة كبيرة".
وأضاف هول أنه لن يتفاجأ من انتشار "التطرف عبر روبوتات المحادثة"، متسائلًا: "إذا كان بإمكانك إنشاء موقع إرهابي، فلماذا تمتنع عن إنشاء روبوت محادثة إرهابي؟"، مشددًا على ضرورة أن يتابع المسؤولون الحكوميون التطورات المتلاحقة في مجال الذكاء الاصطناعي.
تحول أيديولوجي
أشار آفي جاجر، المدير الأول لقسم استخبارات الأضرار الجسيمة في شركة "أليس" المتخصصة في أمن الذكاء الاصطناعي، في تصريحات لبوليتيكو، إلى أن هذه الوثائق لا تقدم مجرد "إرشادات تكتيكية"، بل تمثل "تحولًا أيديولوجيًا ذا تداعيات بعيدة المدى".
وأوضح أن جماعات مثل داعش والحركات الجهادية عمومًا كانت لسنوات طويلة حذرة من التقنيات الناشئة كالذكاء الاصطناعي، بل وُجِدَت في أدبياتهم السابقة حجج تعتبر استخدام هذه الأدوات "غير إسلامي"، أو متعارضًا مع نقاء الإرشاد الإلهي.
وأضاف جاجر أن "هذا ما يجعل اللحظة الراهنة بالغة الأهمية، إذ إن داعش خراسان لم تعد تتسامح فقط مع الذكاء الاصطناعي، بل باتت تؤيد استخدامه صراحة في ظل شروط معينة"، لافتًا إلى أن أحد أعداد المجلة السابقة وصف إلمام الأفراد بالذكاء الاصطناعي بأنه "فرض عين"، معتبرة أن "الذكاء الاصطناعي لم يعد اختياريًا، بل أصبح درعك وبوصلتك في عالم رقمي مليء بالتهديدات الخفية".