كيف توظف المنظمات الإرهابية الذكاء الاصطناعي لخدمة أجندتها؟

أظهر مقطع فيديو إحدى حلقات برنامج مشهور في عام 2013، وهو أحد أشهر عروض الرسوم المتحركة الكوميدية في العالم، الذي تبدأ قصته بظهور الشخصية الرئيسية، بيتر غريفين، حيث يقود شاحنة تحتوي على قنبلة تحت تهديد السلاح فوق الجسر. ويبدو أنه ليس مجرد مثال واحد من الرسوم المتحركة، ولكنها تبين كيفية إنشاء هذه الجماعات المتطرفة للحوسبة المتقدمة أو الذكاء الاصطناعي وصنع محتوى لأتباعها.

يغطي مصطلح “الذكاء الاصطناعي” نطاقًا واسعًا من التقنيات الرقمية ويمكن أن يعني أي شيء بدءًا من المعالجة الأسرع لكميات كبيرة من البيانات الرقمية لتحليلها إلى ما يُعرف باسم “الذكاء الاصطناعي التوليدي”، الذي “يولد” نصوصًا أو صورًا جديدة بناءً على كميات هائلة من البيانات. هذه هي الطريقة التي تم بها إنشاء أغنية بيتر غريفين.

في مقال لمجلة جلوبال كتب دانييل حول شبكة التطرف والتكنولوجيا والتي سلط الضوء فيها على فيديو بيتر غريفين، وكيف يقوم تنظيم “الدولة الإسلامية” والجماعات المتطرفة الأخرى بتشجيع أتباعها على الاستفادة من الأدوات الرقمية الجديدة. وقال سيجل، الباحث الأمريكي، الذي قام بتحليل كيفية استخدام الذكاء الاصطناعي لأغراض ضارة “نحن مراقبون من مجموعة متنوعة من المنظمات المتطرفة”. وكيف يقوم تنظيم “الدولة الإسلامية” والجماعات المتطرفة الأخرى بتشجيع أتباعها على الاستفادة من الأدوات الرقمية الجديدة.

وأضاف أن التحول السريع لتكنولوجيا الذكاء الاصطناعي التوليدي في السنوات الأخيرة… له تأثير عميق على كيفية انخراط المنظمات المتطرفة في عمليات التأثير عبر الإنترنت.

 

“الذكاء الاصطناعي” كمكمل للدعاية الرسمية

في فبراير/ الماضي، أعلنت مجموعة تابعة لتنظيم القاعدة أنها ستبدأ في عقد ورش عمل حول الذكاء الاصطناعي عبر الإنترنت، حسبما ذكرت صحيفة واشنطن بوست. وفي وقت لاحق، أصدرت نفس المجموعة دليلاً حول استخدام روبوتات الدردشة المدعمة بالذكاء الاصطناعي.

وأيضا في مارس/ بعد أن قتل فرع من تنظيم “الدولة الإسلامية”أكثر من 135 شخصًا في هجوم إرهابي على مسرح في موسكو، قام أحد أتباع المجموعة ببث أخبار كاذبة حول الحدث ونشره بعد أربعة أيام من الهجوم.

واعتقل ضباط من وزارة الداخلية الإسبانية تسعة شبان في جميع أنحاء البلاد كانوا يشاركون دعاية تحتفل بتنظيم داعش، بما في ذلك رجل وصف بأنه يركز على محتوى الوسائط المتعددة المتطرف، باستخدام تطبيقات تحرير متخصصة مدعومة بالذكاء الاصطناعي.

قال مصطفى عياد، المدير التنفيذي لأفريقيا والشرق الأوسط وآسيا بمعهد الحوار الاستراتيجي ومقره لندن والذي يبحث في التطرف بجميع أنواعه لـ DW إن ما نعرفه عن استخدام الذكاء الاصطناعي اليوم هو أنه يعمل كمكمل للدعاية الرسمية التي يقوم بها كل من تنظيم القاعدة وتنظيم “الدولة الإسلامية”. إنه يسمح للمؤيدين ومجموعات الدعم غير الرسمية بإنشاء محتوى عاطفي يستخدم خصيصًا لتحفيز قاعدة المؤيدين حول المفهوم الأساسي.

وأضاف أن الطريقة التي تبدو بها تعني أنه قد لا يتم رصدها من قبل مشرفي المحتوى على منصات التواصل الاجتماعي الشهيرة أيضًا إنه حتى محتوى داعش الأكثر سخافة وغير واقعية، غالبًا ما يكون جديدًا بما يكفي ليشاركه المتابعين فيما بينهم.

 

بداية توظيف “داعش” للتكنولوجيا

عندما ظهرت الجماعة المتطرفة لأول مرة في عام 2014 تقريبًا كانت تنتج بالفعل مقاطع فيديو دعائية ذات قيم إنتاجية عالية إلى حد ما لتخويف الأعداء وتجنيد الأتباع فلذك لا شيء من هذا يثير الدهشة بالنسبة لمراقبي تنظيم “داعش” منذ فترة طويلة..

وأشار عياد إلى أن “كل هذا يشير إلى شيء لاحظه معهد ISD باستمرار أن الجماعات الإرهابية ومؤيدوها كانوا من أوائل المتبنين للتكنولوجيا لخدمة مصالحهم”. لكن ما مدى خطورة هذا النوع من المحتوى؟ في نهاية المطاف، ظهرت الأخبار الزائفة التي تم بثها حول هجوم موسكو كاذبة، وأغنية بيتر غريفين لا تؤذي أحدا.

ورصدت مجموعات مراقبة أنشطة الجماعات الإرهابية مجموعة متنوعة من الطرق التي يمكن للجماعات المتطرفة من خلالها استخدام الذكاء الاصطناعي. إلى جانب الدعاية، يمكنهم أيضًا استخدام روبوتات الدردشة مثل ChatGPT، للتحدث مع المجندين الجدد المحتملين. الخبراء أكدوا أنه بمجرد أن يثير برنامج الدردشة الآلي الاهتمام، قد يتولى مسؤول التوظيف البشري استكمال المهمة.

رغم أن نماذج الذكاء الاصطناعي، مثل ChatGPT، لديها أيضًا قواعد معينة مكتوبة في أنظمتها تمنعها من مساعدة المستخدمين في أشياء مثل الإفلات من جريمة القتل، ومع ذلك، فقد ثبت عدم موثوقية هذه القواعد في الماضي، وقد يتمكن الإرهابيون المحتملون من تجاوزها للحصول على معلومات خطيرة. وهناك أيضًا مخاوف من أن المتطرفين قد يستخدمون أدوات الذكاء الاصطناعي للقيام بهجمات رقمية أو إلكترونية أو لمساعدتهم على التخطيط لهجمات إرهابية في الحياة الواقعية.

 

“التزييف العميق” مقابل القنابل الحقيقية

ويقول الخبراء إنه على الرغم من أن الذكاء الاصطناعي ينطوي على إمكانات مثيرة للقلق في أيدي المتطرفين، إلا أنهم في الحياة الحقيقية أكثر خطورة.

وفي دراسة نشرت عام 2019 في مجلة “وجهات نظر حول الإرهاب”، فحص الباحثون العلاقة بين مقدار الدعاية التي ينشرها تنظيم “داعش” وهجماتهم الفعلية. وخلصوا إلى أنه “لا توجد علاقة قوية”.

تقول ليلي بيننبرج مولر، الباحثة المشاركة والخبيرة في الأمن السيبراني في قسم دراسات الحرب في كلية كينجز كوليدج في لندن ل DW “إن الأمر يشبه المناقشة التي كنا نجريها حول الأسلحة السيبرانية والقنابل السيبرانية منذ حوالي 10 سنوات.

وأضافت أنه بغض النظر عن الذكاء الاصطناعي، فحتى الشائعات ومقاطع الفيديو القديمة اليوم يمكن أن يكون لها تأثير مزعزع للاستقرار وتؤدي إلى موجة من المعلومات المضللة على وسائل التواصل الاجتماعي، وأضافت “الدول لديها قنابل تقليدية يمكن إسقاطها إذا كانت هذه هي نيتها”.

يقول عياد من معهد ISD: “لا أعرف، في هذه المرحلة، ما إذا كان استخدام الذكاء الاصطناعي من قبل المنظمات الإرهابية الأجنبية ومؤيديها أكثر خطورة من دعايتهم الحقيقية والمصورة التي تنطوي على القتل الوحشي للمدنيين والهجمات على قوات الأمن. في الوقت الحالي يتمثل التهديد الأكبر في قيام هذه الجماعات بشن هجمات، أو إلهام فاعلين منفردين أو تجنيد أعضاء جدد بنجاح بسبب استجاباتهم للمشهد الجيوسياسي كحرب غزة مثلا.

التعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *