تشير تقارير الهيئات التنظيمية العالمية إلى سعيها لمراقبة أوثق للمخاطر المرتبطة بالذكاء الاصطناعي مع تزايد اعتماد البنوك وأجزاء أخرى من القطاع المالي على هذه التكنولوجيا.
ذكر مجلس الاستقرار المالي FSB في تقريره أن استخدام عدد كبير من المؤسسات للنماذج نفسها من الذكاء الاصطناعي والأجهزة المتخصصة قد يؤدي إلى سلوك جماعي يشبه “سلوك القطيع”، وهو ما قد يترك ثغرات إذا لم تتوفر بدائل كافية.
وفي دراسة منفصلة للبنك المركزي الدولي BIS، وُجِد وجود “حاجة ملحة” لتعزيز قدرات البنوك المركزية والهيئات التنظيمية والرقابية في مجال الذكاء الاصطناعي، كي تكون قادرة على متابعة التطور التكنولوجي واستخدام هذه التكنولوجيا بفعالية.
التوصيات والدور التنظيمي
وتتجه المنافسة بين الولايات المتحدة والصين وعدة دول أخرى إلى قيادة تطوير تقنيات التعلم الآلي الثورية، بما يحفز التنظيمات على بناء قدرات لمراقبة التأثيرات والتعامل مع التحديات.
وأشير إلى أن الذكاء الاصطائي قد يزيد من بعض الضغوط في الأسواق، غير أن الدليل التجريبي حتى الآن لا يظهر أن الارتباطات الناتجة عن هذه التقنية تؤثر بشكل حاسم في نتائج الأسواق.
كما يشير التقرير إلى أن المؤسسات المالية تبقى معرضة لهجمات إلكترونية مرتبطة بالذكاء الاصطناعي وللاحتيال المدعوم بالذكاء الاصطناعي، وهو ما يستدعي تعزيز إجراءات الأمن والرقابة.
وقامت بعض المناطق بالفعل بخطوات تنظيمية، حيث دخل الاتحاد الأوروبي قانون المرونة التشغيلية الرقمية DORA حيز التنفيذ في يناير الماضي.
