Au cours d’une table ronde récente à laquelle j’ai été convié, organisée par la Banque de France en Centre-Val de Loire, en collaboration avec le Laboratoire d’Économie d’Orléans (LEO) et la Faculté Droit-Économie-Gestion, plusieurs experts, dont des data scientists et un professeur d’économie à l’Université d’Orléans, ont présenté l’impact et les enjeux de l’IA au sein de l’institution et sur les questions de régulation financière.
Le thème de la conférence était : « Comment maintenir la confiance dans l’intelligence artificielle à l’ère de ChatGPT »
La table ronde a permis d’en apprendre plus sur les usages faits par la BdF de cette technologie pour maintenir la confiance dans la monnaie et assurer une régulation financière responsable.
Intervenants :
- Guillaume Belly, Data Scientist à la Banque de France
- Christophe Hurlin, Professeur d’Économie à l’Université d’Orléans
- Charlène Defrasne, Data Scientist à la Banque de France
Disclaimer : les informations présentées ici résultent de ma propre compréhension des propos des intervenants. En cas d’erreur ou de malentendu, la responsabilité ne doit pas être attribuée à la Banque de France ou aux intervenants, mais à moi seul.
Le rôle et les usages de l’IA à la Banque de France
La BdF collecte des données auprès de plusieurs sources :
- Établissements financiers
- Entreprises
- Particuliers pour certains services
L’institution gère un volume impressionnant de 10 Po de données en interne. L’objectif est double : assurer la confiance dans ces données et garantir leur confidentialité.
L’IA est utilisée pour exploiter ces données massives dans différents domaines :
- Supervision bancaire
- Analyses financières
- Contrôle des risques pour la stabilité financière
Les modèles développés permettent plusieurs applications concrètes :
- Mise en place d’algorithmes de lutte contre le blanchiment d’argent
- Évaluation du risque de défaillance des entreprises
- Indicateurs de perception de l’inflation par le grand public
- Analyse et synthèse de documents textuels volumineux provenant des banques
En plus de son propre usage de l’IA, la BdF surveille également les modalités de son utilisation par les acteurs financiers.
Utilisation de ChatGPT au sein de la BdF
ChatGPT a également trouvé sa place dans l’organisation pour plusieurs usages :
- Éducation financière : création de fiches à différents niveaux de langage
- Surveillance de la politique financière : détection de signaux forts et secondaires lors de discours de responsables économiques et financiers
- Résumés et traductions rapides
- Assistance à la création de routines Python pour la DGSI de la BdF
Et comme toute technologie, ChatGPT a ses limites que la BdF prend très au sérieux :
- Questions de confidentialité des données
- Nécessité de se former au prompt engineering pour obtenir un réel gain de productivité
- Vigilance requise en ce qui concerne la fiabilité des données initiales
Les risques associés à l’IA et leur prévention
La BdF est consciente des risques inhérents à l’IA :
- Biais et discriminations : l’institution vise à créer une IA inclusive
- Explicabilité globale et locale des algorithmes : la BdF souhaite que les banques puissent montrer la logique derrière les décisions prises par les algorithmes.
Un biais notable pourrait conduire à discriminer une population de façon systématique en fonctions d’attributs spécifiques : ethnie, genre, handicap etc… ce qui est intolérable bien entendu.
Le biais peut être introduit soit par les données, soit par l’algorithme lui-même. Par exemple, même si le genre n’est pas explicitement utilisé dans un modèle, il peut surgir de manière indésirable en triangulant des attributs protégés. (Par exemple simpliste pour faire comprendre le concept : une personne de grande taille, avec une grande pointure sera plus probablement un homme qu’une femme).
Pour parler d’un cas très concret sensible dans le contexte de l’IA, l’octroi de crédit est un sujet hautement sensible.
Pour détecter et corriger les biais, plusieurs étapes sont nécessaires. Il faut d’abord réfléchir aux marges de manœuvre acceptables qui ne caractérisent pas une discrimination. Ensuite, il est crucial d’identifier les variables spécifiques qui pourraient être à l’origine de ces biais discriminatoires.
Un problème complexe réside dans la divergence entre la nécessité d’identifier les biais et l’interdiction légale et légitime de collecter certains types de données personnelles qui permettraient d’identifier factuellement si discrimination il y a.
L’Union Européenne a d’ailleurs établi 7 exigences pour une IA de confiance, dont 4 qui touchent de près la BdF :
- Biais, équité, non-discrimination
- Explicabilité locale et transparence
- Respect de la vie privée
- Sécurité, robustesse et fiabilité
La BdF a pris des mesures pour concevoir une IA inclusive et est signataire de la charte internationale pour une IA inclusive.
➤ Pour en savoir plus sur les enjeux liées à l’IA, la confiance et l’usage combiné des algorithmes et de l’expérience humain
0 commentaires