قرار هيئة السلوك المالي بإطلاق اختبار الذكاء الاصطناعي المباشر مع ثماني مؤسسات مالية كبرى يمثل تحولاً حاسماً من النظريات التنظيمية إلى الإشراف الخوارزمي العملي. يكتسب هذا التحول أهمية بالغة لأنه يشير إلى أن فترة صبر بريطانيا التنظيمية—الوقف غير الرسمي للإشراف الثقيل على الذكاء الاصطناعي الذي حدد الثلاث سنوات الماضية—قد انتهت رسمياً. وما سيأتي بعد ذلك سيعيد تشكيل آلية عمل التكنولوجيا والامتثال عبر قطاع الخدمات المصرفية البريطاني بأكمله.

يكشف قرار FCA بالشراكة مع شركات مثل Barclays و UBS، إلى جانب ست مؤسسات أخرى ذات أهمية منتظمة، عن اختيار متعمد للبدء من القمة. هذا ليس تمريناً رملياً لشركات ناشئة طموحة تختبر نموذج تعلم الآلة الأول لها. هذا هو إدراج المنظم نفسه في العمليات المباشرة لشركات تعالج تريليونات الجنيهات الإسترلينية في المعاملات سنوياً. الرسالة الضمنية واضحة وجلية: لا يمكن الآن التعامل مع الأنظمة الخوارزمية في العمل المصرفي باعتبارها صناديق سوداء للشركات. وهي الآن تحتل مستوى البنية التحتية المالية، وسيتم الإشراف عليها وفقاً لذلك.

تكشف الأهداف المعلنة لهذه المبادرة عن القلق الحقيقي الكامن تحت الحذر التنظيمي. تعتزم FCA قياس العدالة الخوارزمية في تقييم الجدارة الائتمانية والأنظمة التجارية الآلية، واختبار مرونة النموذج في ظل الصدمات السوقية، والتحقق من أن الشركات يمكنها شرح قرارات الذكاء الاصطناعي الخاصة بها للمنظمين والعملاء على حد سواء. كل واحد من هذه الاهتمامات يعكس فشلاً تنظيمياً حقيقياً في انتظار الحدوث. خوارزمية تقييم الجدارة الائتمانية التي تحرم منهجياً المتقدمين من الحصول على رهون عقارية من عرقية معينة قد تثير انتهاكات حماية المستهلك وانتهاكات قانون المنافسة والكارثة السمعية. نظام التداول الآلي الذي يضخم التقلبات خلال اختلال السوق قد يهدد الاستقرار المالي. وLLM نموذج لغة كبير "صندوق أسود" يتخذ قرارات بشأن خدمة العملاء أو الكشف عن الاحتيال دون شفافية يخلق مسؤولية قانونية لا يمكن التأمين عليها. FCA ليست حذرة؛ بل هي واقعية بشأن حيث ينقطع الذكاء الاصطناعي الافتراضات التي شكلت الحكم المالي ما قبل الخوارزمي.

ما يجعل هذه اللحظة مهمة هو انحرافها عن الفلسفة التنظيمية السابقة للمملكة المتحدة. أيدت ورقة الحكومة البيضاء حول الذكاء الاصطناعي لعام 2023 بصراحة "نهجاً موالياً للابتكار وبقيادة القطاع" بدلاً من التشريعات الموصوفة. أشارت هذه اللغة إلى أن الشركات يمكنها التنظيم الذاتي بمسؤولية، مع الإشراف الخفيف. برنامج الاختبار المباشر يرفض ضمنياً هذه الفرضية. عندما ينتقل المنظم من نشر أوراق النقاش إلى إدراج نفسه في مراقبة الأداء المباشرة للنموذج، فإنه يعترف بأن للتنظيم الذاتي حدوداً. من الواضح أن المشاركة الطوعية في الصناديق الرملية لم تولد انضباطاً داخلياً كافياً. الإشراف الإلزامي—حتى لو كان لا يزال معروضاً بتعاون—هو الرد الحتمي.

تشير آليات ما تفعله FCA الآن إلى مستقبل تنظيمي أكثر تطفلاً. تمثل تغذيات البيانات في الوقت الفعلي أو قريبة من الوقت الفعلي من الأنظمة الخوارزمية إلى المنظمين تغييراً أساسياً في العلاقة بين المؤسسة المشرفة والمشرف. تاريخياً، أبلغت البنوك عن مقاييس تنظيمية كل ثلاثة أشهر أو سنوياً. قام المنظم بمراجعة هذه المعلومات وتكوين أحكام أشهراً أو سنوات بعد الحقيقة. المراقبة المستمرة لأداء النموذج والانجراف في البيانات والتحيز الخوارزمي تعكس هذه العلاقة الزمنية. ينتقل المنظم من دور المدقق إلى دور المراقب، حاضراً أثناء اتخاذ القرار كما يحدث. يتطلب هذا بنية تحتية جديدة ومهارات تقنية جديدة وعلاقات تعاقدية جديدة بين البنوك والمنظمين. كما أنه يخلق سطوح هجوم جديدة وتحديات حكم البيانات. يجب على المؤسسة المالية الآن أن تضمن ليس فقط أن أنظمة الذكاء الاصطناعي الخاصة بها آمنة بل أن بإمكانها إثبات سلامتها في الوقت الفعلي لهيئة حكومية.

إن توحيد أطر أخلاقيات الذكاء الاصطناعي وبروتوكولات الكشف التي ستنشأ من هذا الاختبار الأولي سيصبح حتماً متطلبات خط أساس على مستوى الصناعة. يوضح التاريخ هذا النمط بوضوح. بدا Regulatory Sandbox الذي أطلقته FCA عام 2014 طوعياً ومتساهلاً. في غضون عقد، أصبحت العديد من ممارساته مدمجة في التوجيه التنظيمي الرسمي. تطورت لوائح Open Banking في المملكة المتحدة بالمثل—من المشاركة الاختيارية إلى المشاركة الإلزامية في غضون خمس سنوات. الشركات التي تفترض أن برنامج الاختبار المباشر هذا سيبقى مقصوراً على ثماني مؤسسات متطوعة تسيء قراءة مسار التاريخ التنظيمي. الاختبار ليس استثناءً. إنه نموذج أولي للممارسة العالمية.

بالنسبة للمؤسسات المالية التي لا تزال بناء البنية التحتية لحوكمة الذكاء الاصطناعي الخاصة بها، يجب أن تكون الرسالة حادة. تكامل DevSecOps لأنظمة خوارزمية، والتوثيق الدقيق لنسب بيانات التدريب، واللجان الأخلاقية الرسمية لم تعد مجرد رغبات. إنها متطلبات تنافسية. يجب على فرق الامتثال أن تتوقع أن تصبح نتائج FCA من هذا الاختبار الأولي أساس التوقعات التنظيمية المستقبلية. يجب على فرق التكنولوجيا أن تبدأ في اختبار إجهاد النماذج الخاصة بها للتحيز الخوارزمي والهجمات العدائية بنفس الاستعجالية التي تختبر بها الأداء أو أخطاء الأمان. يجب على مجالس الإدارة أن تعترف بأن حوكمة الذكاء الاصطناعي هي الآن فئة مخاطر مادية، تستحق انتباهاً يعادل المخاطر التشغيلية أو مخاطر الإنترنت.

يشير تحرك FCA أيضاً إلى أن توافق التنظيم عبر الحدود يتسارع. ستجد الشركات المالية الأمريكية العاملة في لندن نفسها خاضعة لمعايير الإشراف الخوارزمي بالمملكة المتحدة. يفرض قانون الذكاء الاصطناعي بالاتحاد الأوروبي، مع إطاره القائم على المخاطر، متطلبات مماثلة بالفعل. ستواجه البنوك العالمية في النهاية إشرافاً متداخلاً على الذكاء الاصطناعي، إن لم يكن متناسقاً، عبر عدة ولايات قضائية. يعد كون الأول في دمج حوكمة خوارزمية قوية ليس فقط استراتيجية امتثال تنظيمي؛ بل هو ميزة تنافسية في منظر تنظيمي عالمي متزايد التفتت.

انتهت فترة "الانتظار والمراقبة" للذكاء الاصطناعي في المصرفة. ما يظهر من برنامج اختبار FCA سيشكل البيئة التنظيمية للعقد القادم. ستجد المؤسسات التي تعتبر هذا برنامج طيار محيطياً نفسها غير مستعدة عندما تصبح نتائجه ولاية تنظيمية. أولئك الذين يستخدمونها كفرصة لبناء شفافية خوارزمية وحوكمة حقيقية سيكونون قد بنوا البنية التحتية لنظام مالي الغد. السؤال لم يعد ما إذا كان الإشراف الخوارزمي قادماً. بل ما إذا كانت المؤسسات الفردية ستشكل هذا الإشراف من الداخل أم سيتم فرضه من الخارج.

كتبت بواسطة فريق التحرير — صحافة مستقلة يدعمها Codego Press.