تظهر الدراسة الحديثة بعنوان الأمن السيبراني في العمل: معارف الموظفين وسلوكياتهم أن النتائج شملت مصر وأن 87% من الموظفين المشاركين يستخدمون أدوات الذكاء الاصطناعي في مهام العمل، حيث تتنوع تطبيقاتها بين كتابة النصوص وتحريرها بنسبة 71%، وكتابة رسائل البريد الإلكتروني المرتبطة بالعمل بنسبة 53%، وإنشاء صور وفيديوهات باستخدام الذكاء الاصطناعي بنسبة 54%، وتحليل البيانات أيضاً بنسبة 54%.
ومع ذلك لا يحصل 46% من هؤلاء الموظفين على تدريب في جوانب الأمن السيبراني المرتبطة باستخدام الذكاء الاصطناعي، وهو ما يترك فجوة كبيرة في جاهزيتهم لمواجهة أخطار مثل تسريب البيانات وحقن الأوامر الخبيثة.
وتشير النتائج إلى أن 90% من المشاركين أدركوا معنى الذكاء الاصطناعي التوليدي، وتجاوزت معرفتهم الجوانب النظرية فت become أدوات الذكاء الاصطناعي جزءاً أساسياً من حياتهم اليومية.
ويستخدم 87% من المشاركين أدوات الذكاء الاصطناعي في أعمالهم، حيث 71% يكتبون النصوص ويحررونها، و53% يكتبون رسائل البريد الإلكتروني المرتبطة بالعمل، و54% ينشؤون صوراً وفيديوهات باستخدام الذكاء الاصطناعي، و54% يساهمون في تحليل البيانات.
وأظهر الاستطلاع وجود فجوة في التدريب أيضاً، فـ17% لم يتلقوا أي تدريب مرتبط بالذكاء الاصطناعي، في حين قال 62% من الحاصلين على دورات بأن تلك الدورات ركزت على كيفية استخدام أدوات الذكاء الاصطناعي بفعالية وإنشاء الأوامر، بينما بلغت نسبة الذين تدربوا على جوانب الأمن السيبراني المرتبطة باستخدام الذكاء الاصطناعي 46% فقط.
وتظهر الدراسة أن أدوات الذكاء الاصطناعي، رغم انتشارها في المؤسسات، تشكل جزءاً من “تكنولوجيا معلومات الظل” إذا استخدمها الموظفون دون إرشاد من الشركة.
كما أرجع 77% من المشاركين السماح باستخدام أدوات الذكاء الاصطناعي التوليدي في عملهم، في حين أقر 20% بعدم السماح بها، وعبّر 2% عن حيرة بشأن القرار المتبع في شركتهم.
إذا أرادت الشركات أن يكون استخدام موظفيها للذكاء الاصطناعي أكثر أماناً وشفافية، فعليها تطبيق سياسة شاملة على مستوى الشركة تمنع استخدام الذكاء الاصطناعي في وظائف محددة ولأنواع محددة من البيانات، وتوفر تنظيماً للأدوات المتاحة للموظفين وتسمح حصراً باستخدام الأدوات المدرجة في القائمة المعتمدة من الشركة.
ويجب توثيق هذه السياسة رسمياً وتوفير التدريب المناسب للموظفين، وبعد وضع إجراءات السلامة والضوابط، ينبغي للشركات مراقبة استخدام الذكاء الاصطناعي وتحديد الخدمات الشائعة واستخدام هذه المعلومات في التخطيط المستقبلي وتحسين التدابير الأمنية.
التدابير الموصى بها لضمان الاستخدام الآمن والموثوق للذكاء الاصطناعي
وضع تدريب للموظفين على الاستخدام المسؤول للذكاء الاصطناعي وتزويد متخصصي تكنولوجيا المعلومات بالمعارف اللازمة لمواجهة استغلال الثغرات وتطبيق استراتيجيات دفاع عملية.
توفير حل أمني للأجهزة الشخصية والمهنية التي يستخدمها الموظفون للوصول إلى بيانات الأعمال وتثبيت حلول الأمن السيبراني على هذه الأجهزة.
إجراء استطلاعات منتظمة لمراقبة وتيرة استخدام الذكاء الاصطناعي والمهام المرتبطة به، واستخدام النتائج لتقييم الفوائد والمخاطر وتحديث سياسات الشركة وفقاً لها.
اعتماد وكيل ذكاء اصطناعي متخصص يقوم بتصفية استفسارات الموظفين فوراً لإزالة البيانات الحساسة مثل الأسماء أو معرفات العملاء، وتطبيق نظام تحكم قائم على الدور الوظيفي لمنع الوصول غير المصرح به.
أخيرا، إنشاء سياسة شاملة تتناول مجموعة الأخطار المرتبطة بالذكاء الاصطناعي وتحديثها بشكل دوري.



