الذكاء الاصطناعي والأمن السيبراني: الوجه المظلم والتهديدات المتصاعدة
مقدمة
شهد العالم في الأعوام الأخيرة صعودًا هائلًا لتقنيات الذكاء الاصطناعي (AI) ودورها المتزايد في شتى المجالات. أصبحت أنظمة الذكاء الاصطناعي جزءًا أساسيًا من حياتنا اليومية وأعمالنا وخدماتنا، وساعدت في تحسين الكفاءة واتخاذ القرارات في مجالات عديدة. ولكن كما هو الحال مع كل تقنية جديدة قوية، فإن للذكاء الاصطناعي وجهًا آخر مظلمًا يمثل سلاحًا ذو حدين. فبقدر ما يُسهم في تعزيز الدفاعات السيبرانية، فإنه أيضًا أداة بيد المهاجمين والقراصنة لشن هجمات إلكترونية أكثر تطورًا وفعالية (ما هي التهديدات السيبرانية المدعومة بالذكاء الاصطناعي؟ وكيف نتغلب عليها؟ | إم آي تي تكنولوجي ريفيو). لقد مكّن الذكاء الاصطناعي جهات التهديد من تنفيذ عمليات اختراق معقدة بأساليب جديدة، مما يفرض تحديات غير مسبوقة على أمن المعلومات وعلى العالم الرقمي ككل. سنستعرض في هذا المقال أبرز الجوانب السلبية والخطيرة جدًا للذكاء الاصطناعي على الأمن السيبراني، ونحذر من تداعياتها المتفاقمة، مدعّمين ذلك بأمثلة واقعية وتحليل مهني رصين.
استغلال الذكاء الاصطناعي في الهجمات الإلكترونية الخبيثة
لم يعد الذكاء الاصطناعي حكرًا على خبراء التقنية والشركات الكبرى؛ فقد أصبح في متناول القراصنة ومجرمي الإنترنت الذين يسخّرونه لأغراض شريرة. فيما يلي بعض الأساليب الخطيرة التي يستخدم بها المهاجمون الذكاء الاصطناعي لتنفيذ هجمات سيبرانية متقدمة:
- التصيّد الاحتيالي العميق وتحسين خداع الضحايا: يعتبر التصيّد الاحتيالي (Phishing) من أكثر مجالات الجرائم الإلكترونية استفادةً من التقنيات التوليدية للذكاء الاصطناعي في الوقت الراهن (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي). فقد أدى ظهور نماذج المحادثة مثل ChatGPT إلى ارتفاع هائل في رسائل البريد التصيّدي من حيث الكمّ والنوع (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي). يقوم المهاجمون بدمج خدمات إرسال البريد العشوائي مع نماذج الذكاء الاصطناعي لتوليد رسائل احتيالية شديدة الإقناع وخالية تقريبًا من الأخطاء اللغوية، وبمختلف اللغات (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي). هذا التطور مكّن عصابات إلكترونية دولية من توسيع نطاق حملات التصيّد لتطال ضحايا في بلدان متعددة دون عائق اللغة (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي). كما أصبحت رسائل التصيّد أكثر تخصيصًا ومصداقية، يصعب على المستخدم العادي تمييزها، خاصة مع قدرة النماذج على توليد نصوص تتظاهر بأنها صادرة عن جهات موثوقة أو أفراد معروفين.
- التزييف العميق وانتحال الهوية: أسهم الذكاء الاصطناعي التوليدي أيضًا في تطور تقنيات التزييف العميق (Deepfake) للصور والصوت والفيديو، مما أتاح للمجرمين ارتكاب عمليات احتيال نوعية عبر انتحال هوية شخصيات حقيقية. على سبيل المثال، في واقعة صادمة هذا العام في هونغ كونغ، استغل قراصنة تقنية التزييف الصوتي العميق لانتحال صوت المدير المالي لشركة ما، وخدعوا موظفًا لتحويل ما يقارب 25 مليون دولار إلى حساباتهم (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي). وفي الولايات المتحدة، ظهرت حوادث تلقّى فيها أشخاص اتصالات هاتفية من أبناء أو أقارب يزعمون أنهم مختطفون ويطلبون فدية، ليتبين لاحقًا أنها خدعة تعتمد على تسجيلات صوتية مزيّفة بالذكاء الاصطناعي (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي). الأخطر من ذلك، أن أدوات التزييف العميق أصبحت ميسورة التكلفة وسهلة المنال؛ حيث يُعرض على منصات مظلمة مثل Telegram خدمات تزوير بصور وفيديوهات مقابل مبالغ زهيدة (نحو 10 دولارات للصورة و500 دولار لدقيقة الفيديو) (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي). هذه التطورات تعني أن أي شخص قد يكون عرضة لانتحال هويته رقميًا للإيقاع بالضحايا أو تجاوز إجراءات الأمان.
- توليد برمجيات خبيثة متطورة: لم تسلم البرمجيات الخبيثة (Malware) من تأثير الذكاء الاصطناعي، بل بات المهاجمون يوظفون التقنيات الذكية لصياغة برمجيات وفيروسات أكثر ذكاءً وقدرةً على التخفي. تقوم نماذج الذكاء الاصطناعي بتحليل الشفرات الخبيثة القائمة وإعادة كتابتها بطرق مبتكرة لتجنب اكتشافها من قبل برامج مكافحة الفيروسات التقليدية (Digital Rights | Yemen (@SamDigitalRight) / X) (البرمجيات الخبيثة المدعومة بالذكاء الاصطناعي تهدد بإرباك أنظمة الكشف من خلال إنشاء 10 آلاف متغير). وقد كشف باحثون أن مجرمي الإنترنت بدأوا باستخدام نماذج لغة ضخمة مخصصة، مثل نماذج WormGPT و FraudGPT، لتوليد تعليمات برمجية ضارة أو تحسين برمجيات الفدية وهجمات الاختراق المختلفة (تقرير حديث يكشف عن استخدام الذكاء الاصطناعي لإخفاء البرمجيات …). هذه النماذج الإجرامية، المشابهة لـChatGPT ولكن بدون أي قيود أخلاقية، تستطيع إنتاج آلاف المتغيرات من البرمجيات الخبيثة بلمح البصر، مما يربك أنظمة الكشف الأمني التقليدية. ووفقًا لتقرير أمني حديث، استطاع أحد نماذج الذكاء الاصطناعي توليد 10 آلاف نوع مختلف من البرامج الضارة مع التهرب من رصدها في 88% من الحالات (البرمجيات الخبيثة المدعومة بالذكاء الاصطناعي تهدد بإرباك أنظمة الكشف من خلال إنشاء 10 آلاف متغير). هذا التطور جرس إنذار حقيقي يدل على أننا أمام برمجيات هجومية تتطور ذاتيًا وتتكاثر بوتيرة هائلة يصعب مجاراتها.
- التهرب من أنظمة الكشف والتعلم المستمر: تمتاز الهجمات المدعومة بالذكاء الاصطناعي بقدرتها على التعلم والتكيف أثناء تنفيذها. فبخلاف الهجمات التقليدية الجامدة، يمكن لتلك الهجمات الذكية تعديل أساليبها آنيًا لتفادي أنظمة المراقبة وكشف التسلل. على سبيل المثال، قد تولّد شفرة ضارة نمط هجوم جديد كليًا غير مألوف لأدوات الحماية، أو تقوم بتغيير خصائصها باستمرار بحيث تفشل خوارزميات الكشف القائمة على التوقيع (signature-based detection) في التعرف عليها (ما هي التهديدات السيبرانية المدعومة بالذكاء الاصطناعي؟ وكيف نتغلب عليها؟ | إم آي تي تكنولوجي ريفيو). أضف إلى ذلك قدرة تقنيات مثل التعلم العميق ومعالجة اللغة الطبيعية على تحليل إجراءات أنظمة الحماية والتسلل عبر ثغراتها بشكل تلقائي (ما هي التهديدات السيبرانية المدعومة بالذكاء الاصطناعي؟ وكيف نتغلب عليها؟ | إم آي تي تكنولوجي ريفيو). باختصار، نحن أمام جيل من الهجمات المراوغة التي تستطيع تجاوز برامج مكافحة الفيروسات وجدران الحماية وكلمات المرور بسهولة (ما هي التهديدات السيبرانية المدعومة بالذكاء الاصطناعي؟ وكيف نتغلب عليها؟ | إم آي تي تكنولوجي ريفيو)، بل وقد تبدو كأنها نشاط شرعي ضمن النظام الضحيّة، مما يصعّب رصدها وإيقافها في الوقت المناسب.
تهديدات للبنية التحتية والخصوصية والشركات
إن تبني المهاجمين للذكاء الاصطناعي في أنشطتهم التخريبية يجعل رقعة التهديدات أوسع بكثير من ذي قبل، لتطال مجالات حيوية تمتد من البنية التحتية للدول وصولًا إلى خصوصية الأفراد وقطاع الأعمال. فيما يلي أبرز الميادين المهددة وتصاعد المخاطر فيها:
- البنية التحتية الوطنية الحيوية: يؤدي تطور الهجمات السيبرانية المدعومة بالذكاء الاصطناعي إلى تصاعد المخاوف بشأن استهداف شبكات ومرافق البنية التحتية للدول (كشبكات الطاقة والمياه والمواصلات وغيرها) بهجمات مدمِّرة. وتشير تقارير استخباراتية حديثة إلى أن بعض الدول المعادية كثّفت أنشطة القرصنة ضد مرافق حيوية باستخدام أدوات اختراق متقدمة. فقد حذّر مكتب التحقيقات الفيدرالي (FBI) الكونغرس الأمريكي مؤخرًا من أن قراصنة مدعومين من الصين توغّلوا عميقًا في شبكات البنية التحتية الأمريكية بهدف التحضير لهجمات تعطل عمليات محطات المياه والكهرباء والنقل (خبراء: الهجمات السيبرانية المدعومة بالذكاء الاصطناعي قادرة على تدمير البنى التحتية – جريدة المال). ومع انتشار تقنيات الذكاء الاصطناعي، يُخشَى أن نشهد عصر “الهجوم السيبراني التدميري” الذي تتسبب فيه هجمات رقمية بأضرار مادية مباشرة وكبيرة (خبراء: الهجمات السيبرانية المدعومة بالذكاء الاصطناعي قادرة على تدمير البنى التحتية – جريدة المال) (خبراء: الهجمات السيبرانية المدعومة بالذكاء الاصطناعي قادرة على تدمير البنى التحتية – جريدة المال). على سبيل المثال، أظهر خبراء في معهد MIT عبر محاكاة مخبرية كيف يمكن لهجوم سيبراني على أنظمة التحكم الصناعية أن يسبب انفجارات فعلية بحرق المضخات وإتلاف المعدات (خبراء: الهجمات السيبرانية المدعومة بالذكاء الاصطناعي قادرة على تدمير البنى التحتية – جريدة المال). ومع أن مثل هذه الهجمات الخطيرة لم تصبح واقعًا شائعًا بعد، فإن توافر أدوات الذكاء الاصطناعي قد يمنح المهاجمين القدرة والخبرة اللازمة لتنفيذها. فقد أصبح من الممكن الآن حتى للمخترق غير المتمرّس الاعتماد على نماذج توليدية لكتابة تعليمات برمجية تستهدف وحدات التحكم المنطقية القابلة للبرمجة (PLCs) التي تدير المصانع ومحطات الطاقة، مما يسهّل عليه التسبب بأضرار صناعية جسيمة (خبراء: الهجمات السيبرانية المدعومة بالذكاء الاصطناعي قادرة على تدمير البنى التحتية – جريدة المال). إن نجاح أي هجوم من هذا النوع لن يعني مجرد توقف نظام لبضع ساعات، بل ربما خروج منشأة حيوية كاملة عن الخدمة لأسابيع أو أشهر وما يرافق ذلك من فوضى وخسائر (خبراء: الهجمات السيبرانية المدعومة بالذكاء الاصطناعي قادرة على تدمير البنى التحتية – جريدة المال). من الواضح إذن أن حماية البنية التحتية أصبحت أولوية قصوى مع تنامي قدرات القراصنة المدعومة بالذكاء الاصطناعي.
- انتهاك الخصوصية وسرقة الهوية: يشكل الذكاء الاصطناعي سلاحًا خطيرًا لاستهداف خصوصية الأفراد وبياناتهم الشخصية بطرق غير معهودة. فمن خلال خوارزميات التعلم الآلي ومعالجة اللغة، صار بإمكان المهاجمين جمع المعلومات الحساسة عن الأفراد بسهولة وحتى استنتاج تفاصيل شخصية غير معلنة من بيانات متاحة للجميع. على سبيل المثال، يمكن لأحد نماذج المحادثة التوليدية تحليل منشورات شخص ما على وسائل التواصل الاجتماعي واستنباط معلومات عنه كعمره التقريبي (من خلال سنة تخرجه أو الأحداث التي يذكرها) أو المدينة التي يسكنها (استنادًا إلى معالم يصفها في حديثه) (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي). وقد بينت دراسة حديثة في أواخر عام 2024 أن نماذج لغوية ضخمة مثل GPT-4 وClaude قادرة على استنتاج عِرق الأشخاص وموقعهم ووظيفتهم بمجرد دردشة نصية عادية معهم (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي). هذه القدرة تعني أن مجرمي الإنترنت يمكنهم بناء ملفات شخصية تفصيلية لضحايا محتملين انطلاقًا من فتات المعلومات المنشورة عنهم، ومن ثم استغلالها في التخطيط لهجمات هندسة اجتماعية أكثر دقة ونجاحًا. علاوة على ذلك، برز أسلوب جديد خطير لسرقة الهوية يتمثل في اختراق أنظمة التحقق البيومتري باستخدام التزييف العميق (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي). فالعديد من المؤسسات المالية ومنصات تداول العملات الرقمية تطلب من المستخدمين الجدد تصوير أنفسهم يحملون هوية رسمية للتحقق. غير أن مجرمين باتوا يبيعون برمجيات تتيح تزوير مقاطع فيديو آنية تظهر شخصًا يحمل هوية مسروقة بوجه مطابق لصور صاحبها الشرعي، مما يخدع أنظمة التحقق الآلي (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي). بهذه الوسائل، يصبح بإمكان المحتالين تجاوز إجراءات الأمان وافتتاح حسابات مصرفية أو محافظ عملات رقمية باسم ضحاياهم دون علمهم. إن انتهاك الخصوصية على هذا النحو لا يؤدي إلى خسائر مالية فحسب، بل يهدد سمعة الأفراد وحياتهم الرقمية ومستقبلهم المهني، حيث قد يجد المرء نفسه متورطًا في معاملات أو جرائم لم يقترفها.
- استهداف الشركات وابتزازها: تواجه الشركات والمؤسسات بمختلف أحجامها مخاطر سيبرانية متزايدة مع توظيف الذكاء الاصطناعي في الهجمات الإلكترونية. فالقراصنة باتوا قادرين على إجراء هندسة اجتماعية متقدمة ضد موظفي الشركات ومسؤوليها التنفيذيين عبر مزيج من التصيّد والاحتيال الصوتي. شهدنا بالفعل عمليات اختراق واحتيال ضخمة طالت شركات كبرى باستخدام رسائل بريد إلكتروني شديدة الإتقان أو اتصالات هاتفية مزيفة لخداع الموظفين. إحدى الحالات الشهيرة كانت استهداف مدير تنفيذي لإحدى شركات الطاقة عبر مكالمة هاتفية من صوت يطابق تمامًا صوت المدير العام للشركة الأم، حيث طلب الصوت المزيف تحويل مبلغ كبير على وجه السرعة، وكاد المخطط ينجح لولا اكتشاف الخدعة في اللحظات الأخيرة. مثل هذه الهجمات المدعومة بالذكاء الاصطناعي يصعب للغاية تمييزها عن الاتصالات الحقيقية، مما جعل أساليب الاحتيال التجاري (Business Email Compromise) أكثر نجاحًا وضررًا. إلى جانب ذلك، تُستخدم النماذج الذكية لمسح أنظمة الشركات بحثًا عن ثغرات أمنية غير معروفة بسرعة تفوق قدرة خبراء الأمن، ومن ثم استغلالها لاختراق الشبكات الداخلية وسرقة كميات هائلة من البيانات أو ابتزاز الشركات عبر برمجيات الفدية. الجدير بالذكر أن تقريرًا صدر عن المركز الوطني للأمن السيبراني في بريطانيا مطلع عام 2024 حذّر بشكل صريح من أن الذكاء الاصطناعي سيؤدي إلى زيادة حجم الهجمات الإلكترونية وتأثيرها خلال العامين المقبلين بشكل شبه مؤكد (ما هي التهديدات السيبرانية المدعومة بالذكاء الاصطناعي؟ وكيف نتغلب عليها؟ | إم آي تي تكنولوجي ريفيو). أي أن المؤسسات قد تواجه سيلًا أكبر من محاولات الاختراق المدعومة بالذكاء الاصطناعي، مما يعني ارتفاعًا في وتيرة حوادث خرق البيانات وعمليات الابتزاز الإلكتروني إن لم تُعزّز دفاعاتها بما يلزم.
تحديات الكشف ومنع الهجمات المدعومة بالذكاء الاصطناعي
أمام هذا المشهد القاتم للتهديدات السيبرانية المعززة بالذكاء الاصطناعي، يجد خبراء الأمن السيبراني أنفسهم أمام تحديات معقدة في الكشف المبكر عن تلك الهجمات ومنعها قبل وقوع الضرر. تكمن المشكلة في طبيعة هذه الهجمات الذكية التي تجعل وسائل الحماية التقليدية عاجزة إلى حد كبير عن مواجهتها:
- صعوبة الاكتشاف والتعقب: تمتاز الهجمات السيبرانية القائمة على الذكاء الاصطناعي بكونها سريعة جدًا ومعقدة، مما يصعّب على فرق الأمن ملاحظة الاختراقات في وقت مناسب (خبراء: الهجمات السيبرانية المدعومة بالذكاء الاصطناعي قادرة على تدمير البنى التحتية – جريدة المال). فكما أسلفنا، يمكن للهجمة الذكية أن تغيّر تكتيكاتها باستمرار لتبقى متقدمة بخطوة على أنظمة الكشف. وحتى عند رصد سلوك مشبوه، قد يصعب نسب الهجوم إلى جهة معينة لأن الذكاء الاصطناعي قد يخفي بصمات المهاجمين. لقد أصبحت تحذيرات الخبراء واضحة في هذا الصدد؛ إذ يؤكدون أن هذه الهجمات يصعب اكتشافها وتخفيف أثرها مقارنة بالهجمات التقليدية (خبراء: الهجمات السيبرانية المدعومة بالذكاء الاصطناعي قادرة على تدمير البنى التحتية – جريدة المال). ونتيجة لذلك، قد يبقى الخصم متخفيًا داخل الشبكة المستهدفة لفترة طويلة يسرق خلالها البيانات أو يعطّل الأنظمة دون أن يُكشف أمره.
- التكيف مع إجراءات الحماية: حتى بعد اكتشاف الأسلوب الهجومي وإصدار توقيع أو تحديث أمني لإيقافه، قد يكون الذكاء الاصطناعي المهاجم قد طوّر تكتيكًا جديدًا بالفعل. وهكذا تبدأ حلقة مفرغة من التكيف المتبادل أشبه بسباق تسلّح رقمي بين المهاجم والمدافع (أمن سيبراني ـ كيف يُستخدم الذكاء الاصطناعي لشن هجمات إلكترونية أكثر تطورا؟ – المركز الأوروبي لدراسات مكافحة الإرهاب والاستخبارات) (أمن سيبراني ـ كيف يُستخدم الذكاء الاصطناعي لشن هجمات إلكترونية أكثر تطورا؟ – المركز الأوروبي لدراسات مكافحة الإرهاب والاستخبارات). ومع تسارع تبنّي الجهات الخبيثة للتقنيات الجديدة، يتطور مشهد التهديد بوتيرة سريعة تجعل من الصعب إبقاء أنظمة الدفاع على نفس السوية (أمن سيبراني ـ كيف يُستخدم الذكاء الاصطناعي لشن هجمات إلكترونية أكثر تطورا؟ – المركز الأوروبي لدراسات مكافحة الإرهاب والاستخبارات). هذا يعني أن حلول الحماية التقليدية التي تعتمد كثيرًا على قواعد معرّفة مسبقًا (كقواعد جدران الحماية أو أنظمة منع التسلل المعتمدة على أنماط محددة) تتراجع فعاليتها أمام هجمات تتعلم وتتكيّف من التجربة الحيّة. النتيجة هي فجوة زمنية خطيرة بين ظهور هجوم جديد واستحداث وسيلة مضادة له، وفي تلك الفجوة يستطيع المهاجم إلحاق ضرر جسيم قبل أن يتم صده.
- حجم الهجمات الآلي: مشكلة أخرى هي حجم وسرعة الهجمات الممكن تنفيذها آليًا. فبوجود نماذج توليدية قادرة على إنتاج عشرات الآلاف من رسائل التصيّد أو عينات البرمجيات الخبيثة في زمن قياسي، يصبح من شبه المستحيل على المحللين البشر أو حتى الأنظمة الدفاعية الراهنة مجاراة سيل التهديدات. تخيّل مثلًا هجوم تصيّد يستهدف موظفي شركة عبر آلاف الرسائل المخصّصة لكل منهم شخصيًا وبأسلوب إقناع يتوافق تمامًا مع خلفيته ووظيفته. ستكون نسبة من سيقعون ضحية مرتفعة حتمًا، وحتى لو تم اكتشاف بعض الرسائل الخبيثة، سيبقى العديد منها قادرًا على تجاوز المرشحات والوصول إلى صناديق البريد. وبالمثل، انتشار برمجيات خبيثة متحوّلة تولّد نفسها بأشكال متنوعة يعني أن حتى التحليلات الجنائية لما بعد الهجوم قد لا تسفر عن صورة كاملة، لأن كل ضحية قد تواجه نسخة فريدة من البرنامج الخبيث. هذا التنوع والتشتت في العيّنات يربك أنظمة التحذير المبكر ويزيد صعوبة احتواء التفشي. باختصار، الأتمتة الهجومية التي يتيحها الذكاء الاصطناعي تمنح المهاجم قدرة إطلاق ضربة شاملة متعددة الجبهات، بينما تربك المدافع بتشتيت انتباهه على مئات النقاط الفرعية.
أمثلة واقعية لهجمات سيبرانية مدعومة بالذكاء الاصطناعي
إن الأخطار أعلاه لم تعد مجرد فرضيات أو مشاهد من أفلام الخيال العلمي، بل تجسدت بالفعل في حوادث واقعية خلال السنوات الأخيرة تؤكد خطورة الموقف. فيما يلي بعض الأمثلة البارزة التي توضح كيف استغل مجرمو الإنترنت الذكاء الاصطناعي لتنفيذ هجمات سيبرانية مؤثرة:
- عملية احتيال صوتي كلفت شركة 25 مليون دولار (2023): تعرضت شركة في هونغ كونغ لخسارة فادحة بعدما تمكن محتالون من إقناع أحد موظفيها بتحويل مبلغ 25 مليون دولار عبر مكالمة هاتفية. المثير للصدمة أن صوت المتصل كان مطابقًا لصوت المدير المالي للشركة بفضل تقنية تزييف صوتي عميق مدعومة بالذكاء الاصطناعي (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي). اعتقد الموظف أن الأوامر حقيقية قادمة من مسؤول رفيع، فأجرى التحويل المالي الضخم قبل اكتشاف الخدعة. تُظهر هذه الحادثة مدى واقعية التزييف الصوتي الحديث، وكيف يمكن أن يؤدي لاختراق الضوابط الداخلية للشركات والتسبب بخسائر مالية كارثية.
- مكالمات “الابن المُختَطَف” باستخدام صوت مزيف (2023): شهدت الولايات المتحدة سلسلة حوادث احتيال مرعبة تلقى فيها أهل الضحية اتصالًا هاتفيًا يُسمعهم صوت ابنهم أو ابنتهم المرتعب مدعيًا أنه مختطف ويطلب فدية مالية عاجلة. وفي خضم الذعر، يقوم الأهل بتحويل الأموال ظنًا منهم أنهم ينقذون أبناءهم، ليتبين لاحقًا أن المكالمة مفبركة والصوت ليس سوى تزييف عميق بالذكاء الاصطناعي لخداعهم (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي). مثل هذه الخدعة الإجرامية لم تكن ممكنة بهذا الانتشار سابقًا، لكنها الآن قابلة للتنفيذ بأدوات متاحة نسبيًا على الإنترنت، مستغلة أسوأ مخاوف الضحايا لتحقيق مكاسب سريعة للمحتالين.
- اندفاعة التصيّد العالمي بعد إطلاق ChatGPT (2023): تزامن انتشار أنظمة المحادثة الذكية مع طفرة في هجمات التصيّد عبر البريد الإلكتروني على نطاق عالمي. حيث رصد الباحثون الأمنيون ارتفاعًا كبيرًا في أعداد رسائل التصيّد المكتوبة بلغة سليمة وأسلوب مقنع فور توفر واجهات برمجية تربط خدمات البريد المزعج بنماذج ذكاء اصطناعي توليدي (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي). على سبيل المثال، اكتُشف أن بعض عصابات الاحتيال الإلكتروني دمجت خدمة إرسال رسائل جماعية تدعى GoMail Pro مع واجهة ChatGPT لإرسال رسائل تصيّد مترجمة تلقائيًا إلى لغات الضحايا المستهدفين وصياغتها بشكل يحاكي أسلوب الجهات الموثوقة (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي). وكانت النتيجة حملات تصيّد ذات طابع احترافي تستهدف مؤسسات وأفرادًا حول العالم، مما صعّب مهمة تتبع مصدر الرسائل أو تمييزها من النظرة الأولى. هذا المثال يبرز كيف يمكن لأدوات الذكاء الاصطناعي توسيع النطاق الجغرافي للهجوم بسرعة وجعله عابرًا للغات والحدود.
- إحباط نظام تحقق الهوية بالوجه عبر التزييف (2024): مع تشديد المواقع المالية لإجراءات اعرف عميلك (KYC)، ظهر رد فعل إجرامي ذكي. فقد ضبطت شركات الأمن حالات قام فيها محتالون باستخدام تطبيقات ذكاء اصطناعي لتوليد مقاطع فيديو مزيفة في الوقت الحقيقي أثناء إجراءات التحقق بالهوية لدى فتح حسابات جديدة (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي). يقوم المحتال بحمل هوية شخص مسروق بياناته، ويشغّل تطبيقًا يركّب صورة ذلك الشخص على وجهه هو أثناء التصوير، فيبدو لموظفي النظام وكأن الشخص الصحيح هو من يظهر في الكاميرا. بهذه الخدعة تمكن البعض من تجاوز عمليات التحقق وفتح حسابات مصرفية وبورصات عملات رقمية بأسماء الضحايا الحقيقيين دون حضورهم. هذه الحيلة الواقعية دليل على أن أدوات الذكاء الاصطناعي قادرة حتى على تضليل أنظمة الذكاء الاصطناعي الأخرى المستخدمة في الحماية، في سباق محيّر بين الطرفين.
- نماذج ذكاء اصطناعي خارجة عن السيطرة (2023): مع ازدياد القيود الأخلاقية التي تضعها الشركات المطورة على نماذج الذكاء الاصطناعي لمنع إساءة استخدامها، لجأ مجرمو الإنترنت إلى نسخ مظلمة من تلك النماذج تم تدريبها دون حواجز أخلاقية. أحد الأمثلة البارزة نموذج يدعى WormGPT ظهر في منتديات الشبكة المظلمة، وهو نظام محادثة ذكاء اصطناعي صُمم خصيصًا لمساعدة القراصنة في كتابة برمجيات خبيثة ورسائل تصيّد دون أي رقابة (Digital Rights | Yemen (@SamDigitalRight) / X). وقد استُخدم WormGPT فعلًا في تنفيذ هجمات احتيال عبر البريد الإلكتروني التجاري (BEC) متقدمة، حيث مكّن مهاجمين قليلي الخبرة من صياغة رسائل انتحال هوية المديرين التنفيذيين في الشركات بواقعية عالية وإرسالها لموظفي الحسابات لتحويل أموال إلى حسابات خارجية. إن ظهور مثل هذه الأدوات الإجرامية يشير إلى أن الذكاء الاصطناعي ذاته يمكن أن يُقرصَن ويُستخدم كسلاح ضد المجتمع، مما يستدعي استجابة عاجلة من الجهات المدافعة.
هذه الأمثلة مجرد غيض من فيض. فهيئات حكومية وشركات أمنية حول العالم توثق ازديادًا مطّردًا في الحوادث السيبرانية المدعومة بالذكاء الاصطناعي. وفي تقرير لشركة جوجل صدر في يناير 2025، تم الكشف عن أن مجموعات قرصنة مرتبطة بدول مثل الصين وإيران وكوريا الشمالية بدأت فعليًا تستعمل نماذج محادثة ذكاء اصطناعي متاحة للجمهور (مثل نموذج Gemini الجديد) لتحسين كفاءة عملياتها الهجومية (أمن سيبراني ـ كيف يُستخدم الذكاء الاصطناعي لشن هجمات إلكترونية أكثر تطورا؟ – المركز الأوروبي لدراسات مكافحة الإرهاب والاستخبارات). صحيح أن جوجل أشارت إلى أن هذا الاستخدام لم يغيّر جذريًا نوع الهجمات المعتادة حتى الآن (أمن سيبراني ـ كيف يُستخدم الذكاء الاصطناعي لشن هجمات إلكترونية أكثر تطورا؟ – المركز الأوروبي لدراسات مكافحة الإرهاب والاستخبارات)، لكنه بالتأكيد جعل تنفيذ الهجمات أسرع وأكثر فعالية. كما اعترفت شركة OpenAI المطورة لـChatGPT أن نماذجها التوليدية تم استخدامها بالفعل لإنتاج محتوى حملات تصيّد إلكتروني خبيثة (ما هي التهديدات السيبرانية المدعومة بالذكاء الاصطناعي؟ وكيف نتغلب عليها؟ | إم آي تي تكنولوجي ريفيو). كل ذلك يؤكد أننا دخلنا مرحلة صار فيها الذكاء الاصطناعي عنصرًا أساسيًا في ترسانة المهاجمين رقميًا، مما ينذر بخطر متصاعد إن لم نتعامل معه بجدية وحزم.
خاتمة: مواجهة التهديد يتطلب ذكاءً اصطناعيًا مضادًا
في ضوء ما سبق عرضه من تهديدات شديدة الخطورة، يصبح جليًا أن التأثير السلبي للذكاء الاصطناعي على الأمن السيبراني هو واقع حالي وليس مجرد مخاوف نظرية. نحن أمام سباق حقيقي بين طرف يمتلك أدوات هجومية متطورة وطرف يحاول الدفاع عن نفسه وموارده الرقمية. وكما وفّر الذكاء الاصطناعي قدرات غير مسبوقة للمهاجمين، فإنه بالمقابل يقدّم فرصًا مهمة للمدافعين إذا ما أحسنوا استغلالها. من هنا، تبرز أهمية تطوير حلول أمنية قائمة على الذكاء الاصطناعي لمواجهة هذه التهديدات المتصاعدة بالمثل.
إن الجيل الجديد من الدفاعات السيبرانية يجب أن يتضمن أنظمة ذكاء اصطناعي مضادة قادرة على التعلم ذاتيًا ورصد الأنماط الشاذة في سلوك الشبكات فور ظهورها. على سبيل المثال، تستطيع خوارزميات التعلم الآلي تحليل تدفق البيانات في الشبكة بشكل مستمر والتعرف على الأنشطة المريبة بسرعة فائقة تفوق قدرة البشر، مثل رصد محاولة اختراق أو استغلال لثغرة فور وقوعها (الذكاء الاصطناعي في مواجهة القراصنة.. هل يمكن للتكنولوجيا أن تنتصر؟). كما يمكن لأدوات الذكاء الاصطناعي التدقيق في رسائل البريد الإلكتروني الواردة وتمييز الرسائل التصيّدية المحتملة عبر تحليل دقيق للغة والأسلوب وعوامل السياق، حتى لو كانت تلك الرسائل منمقة ومنتحلة لجهات موثوقة. وبالمثل، يجري العمل على تطوير تقنيات لكشف التزييف العميق تعتمد على الذكاء الاصطناعي ذاته، من خلال تحليل سمات الصوت والصورة واكتشاف أي تشوهات أو دلائل رقمية على التلاعب. ولا ننسى دور التعلم المشترك؛ فبإمكان أنظمة الدفاع الذكية لدى مختلف المؤسسات أن تتشارك المعرفة آنيًا حول الهجمات الجديدة (مثلاً: عند تعرض مؤسسة لهجوم غير مألوف تستطيع أنظمتها المدعومة بالذكاء الاصطناعي توصيفه وإبلاغ بقية الأنظمة المماثلة في المؤسسات الأخرى لاتخاذ الحيطة).
على صعيد آخر، ينبغي لشركات تطوير نماذج الذكاء الاصطناعي تعزيز إجراءات الأمان المدمجة في أنظمتها لمنع استغلالها من الجهات الخبيثة. لقد بدأت هذه الشركات بالفعل سد الثغرات التي تسمح بعمليات “كسر الحماية” (Jailbreaking) التي يستخدمها البعض لجعل النموذج يخرق سياساته (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي). كما أن التعاون بين الشركات التقنية وأجهزة إنفاذ القانون بات ضروريًا لتتبع النسخ المخصصة للإجرام من النماذج (كـWormGPT وأشباهه) وإغلاق منصاتها أينما وُجدت. ولا بد أيضًا من توعية المستخدمين وتمكينهم من أدوات تحقق ثنائية (2FA) وفحص متعدد للمصداقية، لكي لا يكون الإنسان هو الحلقة الأضعف التي تُخترق بسهولة مهما تطورت وسائل الهجوم.
في النهاية، ورغم الصورة القاتمة التي رسمناها لهذه المخاطر، لا يزال بالإمكان قلب المعادلة إذا تم الاستثمار الجاد في ابتكار وسائل دفاعية بذات مستوى تعقيد الهجمات المرتكزة على الذكاء الاصطناعي. إنها معركة عقول وخوارزميات تدور في الخفاء، وستحدد نتيجتها مدى أمان عالمنا الرقمي مستقبلاً. من واجبنا كمتخصصين وصناع قرار إدراك خطورة الوضع الراهن والعمل يدًا بيد لتطوير حلول إبداعية تحمي بياناتنا وبنيتنا التحتية وخصوصيتنا من هذا الوجه المظلم للذكاء الاصطناعي. فتمامًا كما نستفيد من الذكاء الاصطناعي في تحسين حياتنا، علينا أن نضمن ألا يُبسَط له البساط الأحمر لتهديد أمننا. الحذر واليقظة والتعاون الدولي عوامل أساسية لإبقاء عجلة التطور التقني في المسار الإيجابي الآمن، وتجنب سيناريوهات الفوضى الرقمية التي قد تنجم إن أغمضنا أعيننا عن هذا الخطر المحدق.
بقلم: د.م. حمادة بساط (خبراء: الهجمات السيبرانية المدعومة بالذكاء الاصطناعي قادرة على تدمير البنى التحتية – جريدة المال) (منصة البساط)
المراجع والمصادر: تم الاستشهاد ضمن النص بعدد من التقارير والدراسات الحديثة الموثوقة، وفيما يلي قائمة بأبرزها مرتبة حسب ورودها أعلاه:
- تقرير إم آي تي تكنولوجي ريفيو (الإصدار العربي) حول التهديدات السيبرانية المدعومة بالذكاء الاصطناعي (ما هي التهديدات السيبرانية المدعومة بالذكاء الاصطناعي؟ وكيف نتغلب عليها؟ | إم آي تي تكنولوجي ريفيو) (ما هي التهديدات السيبرانية المدعومة بالذكاء الاصطناعي؟ وكيف نتغلب عليها؟ | إم آي تي تكنولوجي ريفيو) (ما هي التهديدات السيبرانية المدعومة بالذكاء الاصطناعي؟ وكيف نتغلب عليها؟ | إم آي تي تكنولوجي ريفيو) (ما هي التهديدات السيبرانية المدعومة بالذكاء الاصطناعي؟ وكيف نتغلب عليها؟ | إم آي تي تكنولوجي ريفيو).
- مقال صحيفة الشرق الأوسط حول طرق استخدام المجرمين للذكاء الاصطناعي التوليدي في الجرائم الإلكترونية (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي) (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي) (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي) (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي) (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي) (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي) (5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي).
- تقرير المركز الأوروبي لدراسات مكافحة الإرهاب والاستخبارات عن توظيف الذكاء الاصطناعي في الهجمات السيبرانية (أمن سيبراني ـ كيف يُستخدم الذكاء الاصطناعي لشن هجمات إلكترونية أكثر تطورا؟ – المركز الأوروبي لدراسات مكافحة الإرهاب والاستخبارات) (أمن سيبراني ـ كيف يُستخدم الذكاء الاصطناعي لشن هجمات إلكترونية أكثر تطورا؟ – المركز الأوروبي لدراسات مكافحة الإرهاب والاستخبارات).
- تقرير جريدة المال عن مخاطر الهجمات السيبرانية المدعومة بالذكاء الاصطناعي على البنى التحتية (خبراء: الهجمات السيبرانية المدعومة بالذكاء الاصطناعي قادرة على تدمير البنى التحتية – جريدة المال) (خبراء: الهجمات السيبرانية المدعومة بالذكاء الاصطناعي قادرة على تدمير البنى التحتية – جريدة المال) (خبراء: الهجمات السيبرانية المدعومة بالذكاء الاصطناعي قادرة على تدمير البنى التحتية – جريدة المال) (خبراء: الهجمات السيبرانية المدعومة بالذكاء الاصطناعي قادرة على تدمير البنى التحتية – جريدة المال).
- تحذيرات شركات الأمن السيبراني (أفاست، كاسبرسكي وغيرها) بشأن البرمجيات الخبيثة المُنشأة بالذكاء الاصطناعي وقدرتها على توليد آلاف المتغيرات (البرمجيات الخبيثة المدعومة بالذكاء الاصطناعي تهدد بإرباك أنظمة الكشف من خلال إنشاء 10 آلاف متغير).
- إفادات وتحذيرات رسمية من جهات مثل مكتب التحقيقات الفيدرالي الأمريكي ومديريه حول التهديدات السيبرانية الحديثة (مثال: تصريحات كريستوفر راي) (خبراء: الهجمات السيبرانية المدعومة بالذكاء الاصطناعي قادرة على تدمير البنى التحتية – جريدة المال).
وغيرها من المصادر المذكورة في مواضعها في ثنايا المقال أعلاه. جميع هذه المراجع تؤكد حقيقة واحدة واضحة: علينا التحرك بسرعة وبحكمة لتحصين أمننا السيبراني في عصر الذكاء الاصطناعي، قبل فوات الأوان. (خبراء: الهجمات السيبرانية المدعومة بالذكاء الاصطناعي قادرة على تدمير البنى التحتية – جريدة المال)
تحياتي
د.م:حمادة بساط
استشاري التحول الرقمي وتطوير الاعمال
المراجع العلمية للمقال:
-
MIT Technology Review (2023) – تقارير متخصصة عن الذكاء الاصطناعي والأمن السيبراني.
-
National Cyber Security Centre – UK (2024) – تحذيرات رسمية من تصاعد الهجمات المدعومة بالذكاء الاصطناعي.
-
FBI Testimony to US Congress (2024) – شهادات رسمية حول تهديدات للبنية التحتية الوطنية.
-
Google Threat Intelligence Report (2025) – رصد لاستخدام نماذج الذكاء الاصطناعي في هجمات سيبرانية.
-
OpenAI Security Disclosures (2024) – بيانات عن إساءة استخدام ChatGPT في توليد محتوى تصيّدي.
-
Kaspersky & Avast Reports (2023–2024) – دراسات عن البرمجيات الخبيثة المدعومة بالذكاء الاصطناعي.
-
Deepfake Crime Case Studies – The Verge, Forbes (2023) – أمثلة واقعية لعمليات احتيال باستخدام التزييف العميق.