Vous n'avez pas envie de lire ? Écoutez la version audio en anglais.
Depuis plusieurs années, l’IA attire l’attention de nombreux secteurs, notamment la finance et la banque, où elle aide les institutions à automatiser de nombreux services et solutions importants. Dans l'intervalle, l'Union européenne a fait un pas important en avant avec l'introduction de la loi européenne sur l'IA.
Qu'est-ce que la loi européenne sur l'IA et pourquoi est-elle importante ? Dans cet article, nous présentons les bases pour vous fournir une compréhension complète avant d'explorer ses implications plus en détail et vérifier l'état de préparation du secteur bancaire en matière d'IA.
56% des utilisateurs apprécieraient l'aide de l'IA dans leurs services de recommandation financière, tandis que 48% y voient un outil d'évaluation des demandes de crédit ou de prêt.
Enquête Arizent
La loi européenne sur l'IA est une initiative législative majeure visant à réglementer les systèmes d'IA au sein de l'Union européenne. Introduite par la Commission européenne, elle représente une approche proactive visant à garantir que les technologies d'IA sont développées et utilisées d'une manière conforme aux valeurs et aux normes réglementaires de l'UE. Elle devrait entrer en vigueur en mai 2024 avec une période de transition d'au moins deux ans avant une mise en œuvre complète.
En plus de réglementer les systèmes d’IA pour les adapter aux normes de sécurité, la loi sur l’AI vise à protéger les utilisateurs contre les « mauvaises données ». Une préoccupation majeure concerne le potentiel de désinformation perpétué par les algorithmes d'IA. Surtout avec l'émergence de contenus générés par l'IA et d'outils les traitant, cela introduit la notion « d'hallucinations » – des données ou informations perçues et utilisées à tort par les systèmes d'IA. La loi sur l'IA devrait protéger ce risque potentiel avec des exigences de transparence et de responsabilité.
La façon dont chaque plateforme ou système d’IA est traité est basée sur une « approche horizontale », qui suit une règle très simple : plus le risque au sein d’un certain système d’IA est élevé, plus une réglementation stricte s’applique à lui. Suivant cette règle, la loi sur l'IA est divisée en trois niveaux de risque principaux :
Inacceptable : Le niveau de risque le plus élevé, qui sera immédiatement interdit, comprend les systèmes d'IA qui ont été ou seront créés et maintenus dans un but de manipulation, d'exploitation ou de notation sociale. La plupart des systèmes d'identification biométrique à distance entrent également dans cette catégorie.
Risque élevé : Les systèmes d'IA de cette catégorie comprennent généralement des modèles de notation de crédit pour les banques, la gestion et l'exploitation des infrastructures essentielles, l'éducation, les services privés essentiels, l'application de la loi ou l'interprétation et l'application juridiques de la loi. Ces systèmes doivent être évalués avant leur entrée sur le marché et également surveillés tout au long de leur cycle de vie.
Risque limité : Le groupe le plus en vue dans le secteur bancaire numérique, y compris les systèmes qui détectent la fraude ou améliorent l'expérience client avec des outils comme les chatbots de service client, l'analyse des dépenses ou la gestion des finances personnelles. L'IA générative, telle que ChatGPT, est également considérée comme à faible risque et sera conforme aux exigences de transparence et à la législation européenne sur le droit d'auteur.
Le non-respect de pratiques inacceptables en matière d’IA ou d’exigences gouvernementales entraînera des amendes pouvant atteindre 30 millions d’euros ou 6 % du chiffre d’affaires annuel global, jusqu’à 20 millions d’euros ou 4 % du chiffre d’affaires pour les systèmes à haut risque et jusqu’à 10 millions d’euros ou 2 % du chiffre d’affaires pour les systèmes à risque limité.
La loi vise à établir des règles claires pour garantir la sécurité et la fiabilité des systèmes d'IA des fournisseurs de l'UE et des pays tiers. Cela inclut des mesures visant à atténuer les risques associés à l'IA, tels que les atteintes à la confidentialité des données, la discrimination et le manque de transparence.
Conseil : GIGO expliqué : Découvrez comment les chatbots IA dépendent de données de haute qualité
Chatbots et assistants IA : Automatisation du support client et utilisation de l’IA comme conseiller financier personnel
Services personnalisés : Création de conseils financiers sur mesure et d’expériences personnalisées personnalisables dans l’environnement bancaire
Détection des fraudes : Analyse des tendances des transactions et identification des anomalies pouvant indiquer des activités frauduleuses
Evaluation des risques-clients : Utilisation des algorithmes d'IA pour évaluer avec précision le comportement et la solvabilité des clients
Automatisation : Utilisation de l'automatisation des processus pour améliorer la productivité du back-office et minimiser la charge de travail
Évaluation du système : La loi souligne à quel point il est important d'atténuer les risques lorsque les décisions en matière d'IA ont une incidence sur l'accès des particuliers aux produits financiers. Les banques et les entreprises financières doivent examiner leurs logiciels et identifier les systèmes d'IA utilisés dans leurs processus bancaires ou d'automatisation numériques. Ceux-ci peuvent être soumis à la loi sur l'IA et doivent être examinés et classés dans l'une des catégories de risque.
Exigences de conformité : Les institutions financières doivent s'assurer que leurs systèmes d'IA sont conformes aux exigences de transparence et de responsabilisation de la loi. Cela est particulièrement important pour les systèmes à haut risque exigeant le plus haut niveau de conformité et de surveillance. Les systèmes d'IA doivent fournir aux utilisateurs des informations claires sur leurs capacités, leurs limites et leur impact potentiel.
Gouvernance des données : Les banques doivent établir un bon cadre interne pour les systèmes d'IA utilisés au sein de l'entreprise. Une gouvernance efficace des données est ici cruciale avec une gestion stricte de la qualité, de la confidentialité et de la sécurité des données pour protéger les informations sensibles des clients et se conformer aux normes réglementaires telles que le RGPD.
Surveillance et adaptation : Les outils spécialisés doivent être éduqués et informés de toutes les exigences de la loi sur l'IA. Dans certains cas, la loi exige une surveillance humaine des systèmes d’IA pour s’assurer que les décisions sont justes, impartiales et conformes aux normes juridiques et éthiques. Avec des mises à jour réglementaires constantes, il est essentiel de suivre l'état actuel de la loi sur l’IA et de s'adapter en conséquence.
La loi européenne sur l'IA représente une étape importante dans la réglementation de l'intelligence artificielle au sein de l'Union européenne. En établissant des règles et des normes claires, elle vise à promouvoir le développement et le déploiement responsables des technologies de l'IA tout en préservant les droits et valeurs fondamentaux.
Dans notre webinaire à venir, nous explorerons plus en détail la loi européenne sur l’IA. Vous apprendrez pourquoi la loi sur l’IA est importante pour les banques, comment elle définit les systèmes d’IA à haut risque ou comment la conformité à la loi sur l’IA s’intègre dans la stratégie de gestion des risques de votre banque.
Michal Maliarov
Senior insider