Recherche

Intelligence artificielle : des opportunités... et des risques

L'utilisation de l'intelligence artificielle (IA) dans les directions financières et les entreprises, notamment les PME et ETI, présente à la fois des opportunités et des défis. Son encadrement, qui passe par une évaluation rigoureuse des risques, une gouvernance solide, de la formation et de la transparence, est par ailleurs indispensable pour assurer une utilisation responsable de cette technologie.

Publié par le - mis à jour à
Lecture
9 min
  • Imprimer
Intelligence artificielle : des opportunités... et des risques

La sécurité des données est un impératif majeur pour les directeurs financiers qui doivent aborder les risques liés aux divulgations d'information et évaluer la sécurité des outils d'IA avant d'envisager de les déployer. Selon une étude publiée en octobre 2023 par Kaspersky Research, seuls 22 % des cadres dirigeants ont discuté de la mise en place de règles pour réglementer l'utilisation de la genAI dans leur organisation. « Le risque majeur soulevé par l'IA est l'absence de confidentialité des données partagées. Il convient de garder à l'esprit que les données transmises à l'outil peuvent être réutilisées et ne sont pas couvertes par le secret. L'usage de l'IA peut donc entraîner une divulgation de données stratégiques et sensibles de l'entreprise », détaille Arnaud Touati, avocat associé et cofondateur du cabinet Hashtag Avocats, spécialisé en IA, blockchain et RGPD.

Par ailleurs, pour fonctionner correctement et avec précision, les systèmes d'IA doivent s'appuyer sur une grande quantité de données, y compris personnelles. Cette nécessité fonctionnelle soulève des interrogations quant à sa bonne articulation avec les principes fondamentaux du RGPD (règlement général sur la protection des données), notamment par exemple vis-à-vis du principe de finalité des données. « Comment garantir le respect du principe de minimisation des données alors même que l'IA nécessite de traiter un large volume de données personnelles dans le but d'entraîner les systèmes d'IA ? Comment garantir le respect du principe de finalité alors que la collecte des données aura été réalisée pour des fins autres que celle de l'entraînement des modèles ? », s'interroge Arnaud Touati.

Un risque d'inexactitude des données

Pour pouvoir fonctionner efficacement et améliorer significativement le processus de prise de décisions, les données doivent être préparées et classées, l'architecture de l'information étant à la base de l'IA. L'analyse a besoin d'une architecture d'informations pertinentes pour pouvoir extraire des enseignements des données analysées. « Il n'y a pas d'intelligence artificielle sans structuration de la donnée. Si nous n'avons pas travaillé sur la stratégie de la donnée, il ne sera pas possible d'adopter ces outils, ce qui pourrait engendrer un retard compétitif pour les entreprises qui n'auraient pas anticipé ce point essentiel. Plus on a des informations qualifiées, plus l'IA sera capable de faire du prédictif. Moins il y a d'historique, moins l'IA sera pertinente », insiste Xavier Gardies, associé, BDO Advisory, en charge des sujets liés à la transformation de la finance et de la technologie.

Les Daf se retrouvent également face à des challenges techniques inhérents à l'exploitation de l'IA, qui peuvent impacter la fiabilité des données. Un de ces défis est le phénomène d'« hallucination » identifié qui décrit des situations où les programmes d'IA génèrent des réponses inattendues et incorrectes. Si les données utilisées pour entraîner les algorithmes d'IA sont biaisées ou inexactes, les décisions prises par l'IA le seront également. « Certains Daf préfèrent que leurs équipes complètent des fichiers Excel, analysent et fassent des revues de performance plutôt que de construire des chiffres sans être capables de les expliquer. Un directeur financier a besoin de retrouver sa donnée initiale, de comprendre les chiffres. Si on perd la trace des informations, ça va être un frein à l'adoption. »

Que ce soit dû à une erreur humaine, une défaillance ou à une discrimination intégrée dans l'outil, il reste essentiel que l'humain garde la main. Le RGPD aborde dans son article 22 le droit des individus de ne pas être soumis à une décision fondée uniquement sur un traitement automatisé, y compris le profilage, qui produit des effets juridiques les concernant. En d'autres termes, toute personne a ainsi le droit de s'opposer à certains traitements automatisés lorsque ceux-ci n'intègrent pas une intervention humaine dans le processus de décision. Cela implique une obligation pour les entreprises, responsables du traitement ou sous-traitantes, d'assurer un traitement équitable et transparent, compte tenu des circonstances particulières et du contexte dans lesquels les données à caractère personnel sont traitées. « Une vigilance particulière s'impose sur le risque de discrimination à l'embauche lorsque les procédures de recrutement sont confiées aux IA, indique Arnaud Touati. Un exemple notable est celui de l'algorithme de recrutement d'Amazon, qui a montré un biais contre les femmes. L'algorithme évaluait les CV des candidats et avait appris, à partir de données historiques, à pénaliser les CV contenant des mots liés à des femmes. Amazon a depuis abandonné cet outil. »

Un risque de perte de compétences et d'intelligence

Ce risque de biais et d'inexactitude souligne l'importance de bien sensibiliser les utilisateurs. L'IA doit ainsi être utilisée comme un assistant plutôt que comme un outil qui ne fait que copier et recracher des informations. « À trop s'appuyer sur l'intelligence artificielle, le risque de perte de contrôle sur les métiers, les données et de prendre les mauvaises décisions s'accroît », estime Xavier Gardies. L'utilisation de l'IA n'étant pas acquise, il revient aux managers d'actionner les leviers qui déclenchent son utilisation. « Les managers ont un rôle clé à jouer dans la conduite du changement et la formation des salariés », considère François Candelon, directeur associé senior, et co-auteur de l'étude du BCG (atteindre la valeur individuelle et organisationnelle avec l'IA, novembre 2022). Les managers doivent travailler à l'amélioration de la compréhension et de la connaissance de leurs collaborateurs, notamment via des formations professionnelles qui explicitent le fonctionnement et les bénéfices potentiels. Instaurer de la confiance en l'IA est également un puissant levier. Cela permet de s'assurer de la capacité des salariés à pouvoir interpréter ses recommandations et de s'assurer également qu'ils ont conscience d'utiliser ces technologies. 55 % des salariés qui ont utilisé l'IA au travail l'ont fait en cachette de leur hiérarchie, selon une étude menée par l'IFOP à la demande du site Learnthings.fr et de l'agence spécialisée en data Flashs et publiée en janvier 2024. « Le fait que les salariés utilisent l'IA pour avancer en cachette peut engendrer une perte de la donnée si on la divulgue. 20 % des salariés utiliseraient déjà l'IA pour des tâches d'automatisation, de productivité, pour traduire un plan de compte, faire l'analyse d'un reporting sur la base de données, ou encore des missions d'enrichissement de données en grand volume. Parmi eux, 70 % connaissent les risques liés à la sécurité des données », détaille Xavier Gardies.

Un retour sur investissement incertain

D'autres contraintes, plutôt économiques, apparaissent, à commencer par la dépendance technologique. « L'adoption de l'IA peut entraîner une dépendance à l'égard de fournisseurs technologiques spécifiques. De plus, les coûts initiaux pour l'implémentation de l'IA peuvent être élevés, notamment en termes d'infrastructure et de compétences spécialisées », note Arnaud Touati. Les conséquences économiques de l'intelligence artificielle sont encore difficiles à évaluer, notamment en matière de productivité. « Nous ne savons pas mesurer l'évolution du coût de ces nouveaux outils et des gains qu'ils sont censés apporter. Certaines directions juridiques estiment qu'un collaborateur qui doit rédiger des contrats peut gagner une heure par jour s'il utilise l'intelligence artificielle », rapporte Julien Maldonato, associé Digital Trust Leader, expert des sujets d'innovation et de transformation digitale au sein de Deloitte. Les systèmes d'IA nécessitent par ailleurs une maintenance et une mise à jour constantes pour rester précis et efficaces. Les entreprises doivent s'assurer qu'elles disposent des ressources nécessaires pour maintenir ces systèmes.

L'importance de bien encadrer l'IA

L'encadrement de l'intelligence artificielle dans les directions financières et les entreprises est non seulement nécessaire, mais aussi un impératif pour garantir une utilisation éthique, sécurisée et conforme aux réglementations en vigueur. « Dans les directions financières, où les données sont particulièrement critiques, il est essentiel d'encadrer l'IA, en se conformant au RGPD et à l'AI Act. Ces réglementations imposent des normes strictes en matière de sécurité des données et de transparence dans l'utilisation de l'IA », soulève Arnaud Touati.

Pour encadrer efficacement l'IA, les entreprises doivent d'abord évaluer les risques associés à leurs systèmes d'IA. Cela implique de classer les applications d'IA selon leur niveau de risque, de minimal à inacceptable, et d'appliquer des mesures de gestion des risques proportionnées.

Par ailleurs, il est essentiel de garantir la non-discrimination et l'équité dans les décisions automatisées. Les systèmes d'IA doivent être conçus et surveillés pour éviter tout biais discriminatoire, conformément aux principes du droit à la non-discrimination énoncés dans l'AI Act. Dernier prérequis : le besoin de transparence. Les entreprises doivent informer clairement les parties prenantes sur l'utilisation des systèmes d'IA et leur fonctionnement. Cela inclut la divulgation des informations relatives aux algorithmes utilisés et aux décisions prises par ces systèmes.

Que faut-il attendre de l'AI Act ?

L'AI Act, ou le règlement sur l'intelligence artificielle de l'Union européenne, représente une étape cruciale dans la régulation de l'utilisation de l'IA. Ce cadre juridique, le premier en son genre dont l'entrée en vigueur est prévue début 2026, vise à équilibrer l'innovation technologique avec la protection des droits fondamentaux et la sécurité des utilisateurs.

Le règlement européen prône une régulation par le risque et classe les menaces de l'IA de manière pyramidale : inacceptable, élevée, modérée et nulle. Selon le niveau de risque, des obligations proportionnées sont imposées aux entreprises. L'aspect fondamental de l'AI Act ? La protection des droits individuels. « Il met l'accent sur la transparence, la non-discrimination, la sécurité, la santé, et la protection des données personnelles. Les entreprises utilisant des systèmes d'IA sont tenues de fournir des informations claires sur leur fonctionnement et de garantir que ces systèmes ne conduisent pas à des discriminations ou à des préjudices », détaille Arnaud Touati.

L'AI Act prévoit également un système de supervision et de contrôle, avec des autorités nationales de surveillance du marché responsables de la certification et du contrôle des systèmes d'IA. Ce règlement impose par ailleurs des sanctions graduées en cas de non-conformité. Le montant de ces sanctions variera entre un minimum de 7,5 millions d'euros ou 1,5 % du chiffre d'affaires et un maximum de 35 millions d'euros ou 7 % du chiffre d'affaires, selon la nature de l'infraction. « Des plafonds ajustés sont envisagés pour les petites et moyennes entreprises ainsi que pour les entreprises naissantes, afin de garantir une proportionnalité des sanctions », ajoute Arnaud Touati. Avant de faire de l'Europe le meilleur endroit pour faire de l'intelligence artificielle, selon Thierry Breton, commissaire pour le marché intérieur de l'UE, l'AI Act doit être encore négocié et ratifié par l'ensemble des pays européens.

Sur le même thème

Voir tous les articles BI
S'abonner
au magazine
Retour haut de page