samedi, avril 11, 2026
Royaume-UniSynthèse des tables rondes sur l'IA - Février 2026

Synthèse des tables rondes sur l’IA – Février 2026

L’intelligence artificielle dans la finance britannique : entre opportunités et défis opérationnels

Alors que l’intelligence artificielle (IA) redéfinit les services financiers, la Banque d’Angleterre et la Prudential Regulation Authority (PRA) mènent une réflexion proactive pour comprendre les freins à son adoption responsable. Fin 2025, trois tables rondes réunissant des acteurs clés du secteur – banques challenger, banques internationales systémiques et assureurs – ont permis de dresser un état des lieux nuancé. Les échanges, tenus sous la règle de Chatham House, révèlent un consensus sur la solidité du cadre réglementaire britannique, mais aussi des défis pratiques majeurs qui ralentissent le déploiement à grande échelle.

Un cadre réglementaire perçu comme équilibré

Les participants ont largement salué l’approche fondée sur les principes et les résultats de la PRA, notamment sa Déclaration de surveillance 1/23 sur la gestion des risques liés aux modèles. Ce document, perçu comme pragmatique, offrirait un espace suffisant pour l’innovation tout en maintenant des garde-fous clairs. La majorité des entreprises ne réclame pas encore de règles détaillées spécifiques à l’IA, et l’idée d’un bac à sable réglementaire dédié à l’IA par la Banque ou la PRA n’a pas recueilli de soutien majoritaire. Les dispositifs existants, comme les initiatives Supercharged Sandbox et AI Live Testing de la Financial Conduct Authority (FCA), sont jugés suffisants pour les phases de test.

La prudence des fonctions risque : un goulot d’étranglement ?

Un point de friction majeur émerge : les fonctions de gestion des risques de deuxième ligne (contrôle interne) abordent l’IA avec une prudence qui peut retarder les projets. Cette attitude est-elle excessive ou inhérente à la complexité de la technologie ? Les avis divergent. Deux facteurs sont régulièrement cités :

  • Un déficit de compétences et d’expertise spécialisée en IA au sein des équipes de contrôle, face à l’évolution rapide et à la complexité des modèles, notamment génératifs.
  • La volonté de démontrer pleinement la conformité aux attentes des régulateurs, dans un contexte où les méthodes traditionnelles de validation des modèles (axées sur l’explicabilité interne) se révèlent inadaptées aux systèmes d’IA complexes et aux agents autonomes.

Le concept de « human in the loop » (humain dans la boucle) est ainsi remis en question par l’essor de l’IA agentique. Les participants appellent à une évolution des pratiques de gestion des risques, en mettant davantage l’accent sur les tests robustes, la surveillance en continu et la mise en place de garde-fous opérationnels autour des résultats des systèmes, plutôt que sur la seule compréhension des mécanismes internes du modèle. Une demande récurrente est de voir les autorités partager davantage leurs observations sur les bonnes et mauvaises pratiques, voire de faciliter la définition de standards sectoriels.

La fragmentation réglementaire internationale : un frein à l’innovation

Les entreprises opérant à l’international doivent composer avec des approches réglementaires divergentes. Les participants ont particulièrement souligné les différences entre :

  • L’approche britannique, principielle et proportionnée.
  • L’approche américaine, illustrée par lalettre de surveillance SR 11-7 de la Fed, très focalisée sur la validation des modèles.
  • Le règlement européen sur l’IA (AI Act), qui introduit une réglementation horizontale et contraignante basée sur les risques.

Cette fragmentation alourdit les coûts de conformité, ralentit le déploiement transnational des cas d’usage et empêche la mise à l’échelle. En conséquence, plusieurs participants ont encouragé la Banque d’Angleterre à utiliser son influence dans des forums comme le Comité de Bâle ou le Financial Stability Board pour promouvoir une plus grande coordination et convergence internationale.

Les défis pratiques : fournisseurs, données et contrats

Les relations avec les fournisseurs tiers d’IA sont entravées par une méconnaissance mutuelle des exigences réglementaires. Les entreprises peinent à communiquer clairement leurs besoins en matière de gouvernance, d’auditabilité et de résilience aux fournisseurs technologiques. Si certains estiment que le marché finira par établir des standards, le coût d’opportunité actuel est élevé. Une suggestion a été faite : que la Banque réunisse financiers et fournisseurs pour co-construire un référentiel de bonnes pratiques minimales pour le secteur financier régulé. Cette question devient cruciale à mesure que les modèles d’IA sont intégrés dans des systèmes agentiques cœur de métier, rendant les changements de fournisseur plus complexes.

Le cadre légal sur la protection des données (comme le RGPD au Royaume-Uni) et l’émergence de régimes de souveraineté des données dans d’autres juridictions posent problème. L’obligation de réaliser des Évaluations d’Impact Relatives à la Protection des Données (EIPD) allonge les délais de déploiement. Les exigences de localisation des données dans certaines régions menacent directement la capacité à déployer et à faire évoluer des solutions d’IA de manière globale.

Enfin, la qualité et la disponibilité des données restent un obstacle fondamental, en particulier dans certains segments de l’assurance. Contrairement aux banques qui disposent d’un flux transactionnel continu, les assureurs ont des interactions épisodiques avec leurs clients (renouvellement annuel, sinistres). Ce manque de données granulaires et longitudinales limite, à court terme, le potentiel de l’IA pour des produits d’assurance hyper-personnalisés et une tarification ultra-précise.

Perspectives : vers une évolution des pratiques et une coordination internationale

Les tables rondes de la Banque d’Angleterre peignent le portrait d’un secteur à la croisée des chemins. Si le cadre réglementaire brit

Découvrez nos autres contenus

Articles connexes