AI Act : entre régulation et levier d'innovation
Dans cette tribune exclusive, Anne-Marie Pecoraro, avocate associée, UGGC AVOCATS, spécialisée en droit de la propriété intellectuelle, droit du numérique et de la communication, revient sur l'importance de la régulation européenne prévue par la directive de l'AI Act, à envisager comme une véritable opportunité stratégique pour les entreprises.

Investir dans l'IA : c'est l'objectif commun qui devra unir les européens. En plein Sommet mondial sur l'Intelligence Artificielle à Paris, Emmanuel Macron a annoncé un plan d'investissement de 109 milliards d'euros à l'horizon 2031. « Ce sont des data centers, ce sont des partenariats avec des grandes entreprises françaises, c'est énormément de capacités de calcul, qui vont être créées sur le territoire », se réjouit-il faisant part de sa « fierté ». Cette initiative vise à renforcer la position de la France et de l'Europe face aux géants américains et chinois.
Le Sommet sur l'IA a mis en lumière les défis qui persistent autour de l'encadrement et du développement de cette technologie. Il a réuni des acteurs aux visions parfois opposées : une partie des leaders et groupes d'influence invoquent des intérêts économiques pour prôner une IA sans contraintes, tandis que l'Union européenne, rappelant les droits et libertés, affirme son rôle de régulatrice européenne. Ces débats reflètent la nécessité de concilier innovation, humanisme et encadrement, sans compromettre la compétitivité des entreprises européennes.
La régulation européenne : opportunité stratégique pour les entreprises
Les entreprises européennes devront pouvoir transformer la régulation (inévitable) en levier de différenciation. Se conformer à l'AI Act conduirait, d'une part, à éviter des conséquences négatives telles que des sanctions ou une atteinte à la réputation, et d'autre part, à renforcer la fiabilité des systèmes, rassurer les clients et les investisseurs, et ainsi, positionner les entreprises en leaders d'une IA éthique et responsable.
En pratique : marche à suivre pour la mise en conformité
L'approche de la règlementation est fondée sur une évaluation du niveau de risque présenté par les différents systèmes et modèles d'IA. En premier lieu, il faut cartographier les différents systèmes et modèles d'IA afin et documenter de manière continue le risque qu'ils présentent. L'objectif est de déterminer si les systèmes relèvent d'un risque inacceptable (ex : notation sociale), d'un risque élevé (ex : logiciels médicaux), d'un risque spécifique nécessitant des obligations de transparence (ex : chatbots) ou d'un risque minime (ex : filtres anti-spam). Concernant les modèles, le Règlement établit une distinction entre ceux présentant un risque systémique et les autres. L'évaluation du niveau de risque permet de définir les obligations associées à chaque système ou modèle, garantissant ainsi un encadrement adapté à leur impact potentiel.
Depuis le 2 février 2025, les systèmes à "risque inacceptable" sont interdits. Les entreprises doivent donc vérifier immédiatement si leurs projets ou bien leurs systèmes ou modèles en place entrent dans cette catégorie et adapter leurs pratiques en conséquence.
Mesures d'accompagnement à la mise en conformité
La Commission européenne et le Bureau de l'IA qui y est rattaché promulguent des codes de bonnes pratiques. Un premier code de bonnes pratiques sur les modèles d'IA à usage général a été rédigé.
L'outil « AI Act compliant checker » disponible sur le site web dédié à l'AI Act permet aux opérateurs d'auto-évaluer la conformité de leur IA via un questionnaire.
Simple et confidentiel, il aide l'opérateur à catégoriser son IA. Sur la base des réponses, il fournit alors des recommandations et des informations sur les obligations applicables.
Certaines obligations consistent en la rédaction d'une documentation spécifique (charte IA, déclaration des systèmes etc.), d'autres consistent en la formation des employés, en la gouvernance des usages, des données et des risques d'IA. A ce titre, se faire accompagner par des conseils spécialisés permet de sécuriser ces démarches et optimiser leur mise en oeuvre.
Les sanctions en cas de non-conformité peuvent atteindre 7% du chiffre d'affaires de l'entreprise. Se mettre en conformité est donc primordial.
AI Act et innovation : la mise en place de "bacs à sable"
D'ici le 2 août 2026, chaque État membre devra mettre en place des bacs à sable réglementaires. Ces derniers permettront aux entreprises de tester leurs systèmes d'IA dans un environnement contrôlé, sans risque immédiat de sanction pour non-conformité. Ces espaces offrent un accompagnement et une expertise technique et juridique de la part des autorités désignées par les Etats membre, qui suivent les avancées et les rapportent au Bureau de l'IA.
L'accès à ces dispositifs se fait sur candidature, avec des critères définis par la Commission. En France, la CNIL propose déjà des bacs à sable dans des secteurs comme la santé et les services publics. Pour encourager l'innovation, les PME et jeunes pousses bénéficient d'un accès prioritaire et gratuit, ainsi que d'un accompagnement spécifique.
Elles sont en outre présentes dans les instances consultatives et participent à l'élaboration des normes. Ces outils sont essentiels pour sécuriser l'innovation tout en garantissant une conformité progressive.
Vers un modèle européen de l'IA, entre encadrement et compétitivité
Tandis que certains, comme Thierry Breton, plaident pour un cadre ferme garantissant sécurité et souveraineté, d'autres, à l'image de Sam Altman, défendent une approche plus flexible, axée sur l'expérimentation. En ce sens, lors du sommet sur l'IA, les États-Unis et le Royaume-Uni ont décidé de ne pas s'associer aux 60 pays signataires d'un engagement en faveur d'une IA "ouverte", "inclusive" et "éthique". Mais faut-il choisir entre humanisme, encadrement et innovation ? L'AI Act entend établir un équilibre, offrant un cadre de confiance propice à une croissance responsable.
Toutefois, des tensions demeurent, notamment sur des sujets clés comme la transparence des données d'entraînement et les droits de propriété intellectuelle. En effet, les ayants droits portent une attention particulière aux modalités d'accès aux données d'entrainements des systèmes et modèles d'IA prévues par l'AI Act, sous forme de résumés suffisamment détaillés. L'intelligence artificielle, en se déployant massivement, soulèvera inévitablement des défis sociétaux et éthiques majeurs, qu'il s'agisse de son empreinte environnementale, du respect des libertés fondamentales ou de la protection des droits humains. Ces enjeux restent incontournables, d'autant plus que les acteurs impliqués peuvent avoir des visions divergentes sur la manière de préserver ces intérêts éthiques.
Pour illustration, lors du sommet de l'IA, Meredith Whittaker (Signal) et Marie-Laure Denis (CNIL) ont plaidé pour une IA plus respectueuse de la vie privée. De son côté, Mark Surman (Mozilla) a affirmé à l'AFP que l'open source devait être la « clé » de l'IA, alliant sécurité et croissance économique.
L'Europe doit donc adopter une approche pragmatique : plutôt que d'entraver le développement de l'IA, il s'agit de structurer un marché compétitif et attractif. Cela passe par des financements ambitieux, un soutien aux initiatives européennes et un cadre réglementaire qui accompagne l'innovation sans l'étouffer. La régulation n'est pas une fin en soi, mais un outil pour garantir un développement maîtrisé et durable. Il ne s'agit donc pas d'opposer innovation, humanisme et encadrement, mais de négocier un cadre qui protège les intérêts stratégiques européens tout en préservant un terrain propice à l'excellence technologique.
Les initiatives européennes en matière d'IA méritent d'être saluées. En se positionnant comme un régulateur pionnier, l'Union européenne affirme son ambition en annonçant, dans le cadre du Sommet de l'IA, un plan d'investissement de 200 milliards d'euros pour soutenir l'innovation et renforcer sa compétitivité.
Sur le même thème
Voir tous les articles Normes