[Tribune] L'IA Act : catalyseur ou frein pour les fintechs ?
Publié par Martin van Oyen, Head of Legal de FINOM Payments le | Mis à jour le
Comment l'IA Act adopté le 21 mai 2024 va-t-il bouleverser les services financiers et notamment le paysage des fintechs? Si cette obligation de conformité peut sembler contraignante, elle peut aussi être perçue comme une occasion de renforcer la confiance des consommateurs et de se différencier sur un marché de plus en plus concurrentiel.
L'intelligence artificielle générative est en passe de bouleverser nos habitudes. Les géants technologiques américains et chinois, conscients de son potentiel, investissent massivement dans ce secteur, rachetant des start-ups prometteuses et renforçant ainsi leur emprise sur le marché. Face à cette concurrence agressive, l'Europe adopte une approche plus prudente, privilégiant la régulation à l'innovation. L'adoption de l'IA Act le 21 mai 2024, marque une étape décisive dans le développement de cette stratégie. Cette loi, qui vise à encadrer l'utilisation de l'intelligence artificielle, soulève une question clé : l'Europe risque-t-elle de freiner son développement technologique et de se laisser distancer par ses principaux concurrents ?
L'IA, une révolution réglementée pour les services financiers
Pour le secteur financier, l'IA Act représente à la fois un défi et une opportunité. Les institutions financières, notamment les fintechs, devront s'adapter rapidement à ces nouvelles règles pour garantir la conformité de leurs systèmes. Si cette obligation de conformité peut sembler contraignante, elle peut aussi être perçue comme une occasion de renforcer la confiance des consommateurs et de se différencier sur un marché de plus en plus concurrentiel.
Les fintechs, en particulier, sont appelées à jouer un rôle pionnier dans l'application de l'IA Act. En adoptant une approche proactive et en mettant en avant les bénéfices de l'intelligence artificielle, elles peuvent contribuer à façonner un cadre réglementaire favorable à l'innovation. Elles peuvent également tirer parti de cette nouvelle réglementation pour développer de nouveaux produits et services, tout en garantissant la sécurité et la protection des données de leurs clients.
En somme, l'IA Act est un tournant majeur pour l'Europe. S'il peut contribuer à garantir un développement éthique et responsable de l'intelligence artificielle, il pourrait également freiner l'innovation et handicaper l'Europe dans la course à l'IA. Il est donc essentiel que les acteurs européens, qu'il s'agisse des pouvoirs publics ou des entreprises, travaillent ensemble pour trouver un équilibre entre régulation et innovation, et ainsi permettre à l'Europe de conserver sa place dans l'écosystème technologique mondial.
Les fintechs à l'ère de l'IA Act
L'IA Act impose des exigences de conformité particulièrement rigoureuses aux systèmes d'intelligence artificielle à haut risque, tels que ceux utilisés dans l'évaluation de la solvabilité, la détection des fraudes ou le trading algorithmique. Les fintechs doivent classer leurs applications d'IA selon un barème de risque, et s'assurer que celles considérées comme "à haut risque" répondent à des critères stricts de transparence, de compréhensibilité et d'impartialité.
Concrètement, qu'implique cette réglementation pour les fintechs ? Prenons l'exemple de l'onboarding client, un processus où l'intelligence artificielle est largement déployée. Pour garantir la conformité avec l'IA Act, les fintechs doivent s'assurer que leurs procédures KYC (Know Your Customer) basées sur l'IA sont non seulement efficaces, mais aussi exemptes de tout biais. Par exemple, les systèmes de reconnaissance faciale doivent être conçus pour éviter toute discrimination liée à l'origine ethnique ou à la couleur de peau.
L'IA Act a mis l'accent sur la protection des données et l'utilisation éthique de l'IA, d'autant plus que cette technologie fait de plus en plus partie de notre vie quotidienne. La collecte et le traitement des données à caractère personnel par l'IA constituent un problème majeur, car ils peuvent entraîner des vols d'identité, des accès non autorisés et des violations de la vie privée. Les systèmes améliorés par l'IA amplifient ces types de risque, d'autant plus qu'ils sont plus vulnérables à la manipulation et à l'intervention de tiers. Les systèmes AML (Anti-Money-Laundering) automatisés en sont un bon exemple. Pour garantir qu'ils soient aussi précis que possible et qu'ils n'émettent pas de "faux positifs", les fintechs doivent renforcer le contrôle de ces processus par des responsables dédiés.
Les systèmes de détection des fraudes, classés à haut risque, requièrent des tests approfondis et un suivi rigoureux. Les fintechs doivent non seulement garantir l'efficacité de leurs modèles, mais aussi être en mesure de les expliquer aux autorités de surveillance. De même, les algorithmes de trading doivent faire l'objet d'une gestion des risques solide et d'une transparence accrue.
Le principal défi pour les fintechs réside dans la maîtrise de leurs systèmes d'IA tout en assurant leur conformité réglementaire. Il est essentiel de garantir la qualité des données utilisées pour entraîner les modèles et de définir précisément les domaines d'application de l'IA. En adoptant une approche responsable de l'IA, les fintechs peuvent non seulement réduire leurs coûts mais aussi renforcer la confiance des consommateurs et des régulateurs. Et ainsi acquérir un avantage concurrentiel significatif sur les acteurs traditionnels du marché financier.
Vers une accélération de croissance
Pour s'adapter à ce nouveau paysage, les fintechs doivent anticiper les évolutions réglementaires et collaborer étroitement avec les autorités de surveillance. En participant activement aux discussions et aux consultations, les fintechs peuvent contribuer à façonner un cadre réglementaire adapté à leurs besoins spécifiques tout en garantissant la protection des consommateurs. Cette approche proactive a déjà fait ses preuves dans le secteur financier, comme en témoigne l'évolution des réglementations DSP.
L'IA Act met également l'accent sur l'éthique de l'IA, en soulignant les risques liés aux biais algorithmiques et à la discrimination. Les fintechs doivent évaluer leurs modèles d'IA sous cet angle et mettre en place des mécanismes pour détecter et corriger les biais potentiels, contribuant à des décisions plus justes et objectives. En exploitant le potentiel de l'IA de manière responsable, les fintechs peuvent non seulement se conformer aux réglementations, mais également développer des produits et services innovants qui répondent aux besoins de leurs clients. L'IA Act va propulser l'expérience client des néo-banques et fintechs. Onboarding accéléré, suivi personnalisé des transactions et service client optimisé : les avantages sont multiples et protègent les clients des risques et en réduisant les pertes financières.
L'auteur : Martin van Oyen, Head of Legal de FINOM Payments, solution de banque en ligne pour les entreprises.