الشاشات الزرقاء وتحديات الذكاء الصناعي
د. جهاد مهيدات
23-07-2024 10:44 AM
تابعنا قبل أيام الانهيار العالمي الكبير لتكنولوجيا المعلومات الذي تسبب فيه تحديث معطوب من شركة (CrowdStrike) كتذكير صارخ بالسلاح ذي الحدين المتمثل في الذكاء الاصطناعي (AI) في مجال الأمن السيبراني الذي أحدث ثورة في اكتشاف التهديدات والاستجابة لها لكن هذه الحادثة تسلط الضوء على الحاجة الملحة للإشراف البشري والتعاون في تأمين عالمنا الرقمي.
دعونا نستعرض الوضع. قامت CrowdStrike، وهي شركة رائدة في مجال الأمن السيبراني، بنشر تحديث مدعوم بالذكاء الاصطناعي لمستشعر Falcon، المصمم لتحديد والتصدي للتهديدات الإلكترونية، ولسوء الحظ أدى خطأ في التحديث إلى سلسلة من أحداث جعلت العديد من أجهزة الكمبيوتر التي تعمل بنظام التشغيل Windows تتوشح بالشاشات الزرقاء وتتعطل عن العمل.
هذه الحادثة، وعلى الرغم من أنها لحسن الحظ ليست هجومًا إلكترونيًا، إلا أنها تسلط الضوء على التحديات المتأصلة في الاعتماد الكلي على الذكاء الاصطناعي.
يتفوق الذكاء الاصطناعي في التعرف على الأنماط والتحليل السريع لكميات هائلة من البيانات. ففي الأمن السيبراني يمكن للأنظمة التي تعمل بالذكاء الاصطناعي اكتشاف الأنشطة الضارة، والتنبؤ بالتهديدات، وأتمتة الاستجابات الأمنية بشكل أسرع بكثير من البشروهي ميزة كبيرة في مشهد التهديدات المتطور باستمرار.
ومع ذلك، فإن الذكاء الاصطناعي ليس حلاً سحريًا. فقد كشفت هذه الحادثة عن قيد أساسي مفادة أن أنظمة الذكاء الاصطناعي لا تكون جيدة إلا بقدر البيانات التي يتم تدريبها عليها والخوارزميات التي تستخدمها. لقد تجاوز خطأ منطقي بسيط في تحديث البرنامج، وهو شيء كان من الممكن اكتشافه بواسطة مراجعة بشرية، فحوصات الذكاء الاصطناعي وتسبب في اضطرابات واسعة النطاق.
بالطبع هذا لا ينفي قيمة الذكاء الاصطناعي في الأمن السيبراني لكنه يؤكد ببساطة على أهمية نهج أمني متعدد الطبقات، وهنا يأتي دور الخبرة البشرية، إذ يجلب البشر التفكير النقدي ومهارات حل المشكلات والقدرة على فهم الفروق الدقيقة للتهديدات الإلكترونية. يمكنهم تحليل المواقف، وتحديد الشذوذ، واتخاذ قرارات حاسمة لا يستطيع الذكاء الاصطناعي، في حالته الحالية، القيام بها.
تلك الحادثة تثير أيضًا تساؤلات حول الحاجة إلى إجراءات اختبار قوية لحلول الأمان التي تعمل بالذكاء الاصطناعي. تمامًا كما لا ننشر جنديًا غير مدرب إلى الخطوط الأمامية، فإن علينا ألا نعتمد على الذكاء الاصطناعي غير المختبر لحماية البنية التحتية الرقمية لدينا. يمكن للاختبار الصارم والمراجعة البشرية المساعدة في تحديد نقاط الضعف المحتملة والقضاء عليها قبل أن تتسبب في مشاكل في العالم الواقعي.
في عالمنا الرقمي المتزايد، أصبح الذكاء الاصطناعي حجر الزاوية في مجال الأمن السيبراني. تقوم الشركات بنشر أنظمة الذكاء الاصطناعي المتقدمة لحماية شبكاتها من الهجمات الخبيثة، واثقة من قدرات هذه الأدوات المتطورة. ومع ذلك، يعد الانقطاع الأخير بين CrowdStrike وMicrosoft تذكيرًا قويًا بأن حتى الحلول الأكثر تقدمًا في الذكاء الاصطناعي ليست معصومة من الخطأ. يسلط هذا الحادث الضوء على قيود الذكاء الاصطناعي ويؤكد على ضرورة الرقابة البشرية والتعاون لضمان أمن سيبراني قوي.
إذن، هل يمكننا الاعتماد على الذكاء الاصطناعي لأمن تام؟ الجواب لا مدوية. ومع ذلك، من خلال تبني نهج تعاوني بين الإنسان والذكاء الاصطناعي، يمكننا الاستفادة من نقاط قوة كليهما. يمكن للذكاء الاصطناعي أن يكون القوة العاملة التي لا تكل، حيث تفحص البيانات وتحليلها بلا كلل، بينما يوفر البشر الرؤية الاستراتيجية والتفكير النقدي لضمان عمل النظام بشكل فعال.
في المستقبل، بينما نستمر في دمج الذكاء الاصطناعي في الأمن السيبراني، من الضروري التعرف على حدوده والدور الذي لا غنى عنه للرقابة البشرية. يعد حادث CrowdStrike تذكيرًا قيمًا بأهمية بناء أنظمة قوية تجمع بين نقاط القوة لكل من الذكاء الاصطناعي والذكاء البشري. من خلال القيام بذلك، يمكننا إنشاء مشهد رقمي أكثر أمانًا مجهزًا بشكل أفضل للتعامل مع تعقيدات التهديدات السيبرانية الحديثة.