Le blog d'Adimeo : Veille, Actus, Nouveautés, regards d'experts autour du digital

AI Act : le règlement de l’UE sur l’intelligence artificielle

Rédigé par Guénaëlle Retourné | 7 avril 2025

L’intelligence artificielle (IA) transforme notre quotidien et nous impose de repenser la manière dont elle est développée et utilisée. C’est donc dans ce contexte que l’AI Act, une nouvelle réglementation européenne, apparaît comme une réponse aux défis posés par l’essor de l’IA.

L’AI Act se positionne en effet comme un instrument législatif doté de normes strictes sur la transparence, la sécurité et la responsabilité des acteurs de l’intelligence artificielle. Cette régulation entend limiter les dérives potentielles tout en favorisant l’innovation responsable.

Nous avons déjà brièvement abordé l’AI Act dans un article précédent sur la position de l’Europe quant à l’intelligence artificielle. L’idée ici est donc d’explorer plus en détail les enjeux et mesures de l’AI Act.

Qu’est-ce que l’AI Act ?

Le développement actuel de l’IA apporte son lot d’opportunités : automatisation des tâches, analyse de grandes quantités de données, génération de contenu (texte, image, vidéo,), amélioration de l’expérience utilisateur, etc. Cependant, ces progrès s’accompagnent de risques, en particulier sur les droits fondamentaux (biais cognitifs, discrimination, protection des données, etc.).

C’est pour cette raison que la Commission européenne a travaillé sur l’AI Act, la première réglementation dédiée à l’IA dans le monde, dont l’ambition est double : promouvoir l’IA tout en encadrant son utilisation.

Pour y parvenir, l’AI Act se compose d’un ensemble de règles juridiques basées sur une approche fondée sur la gestion des risques. En effet, les technologies IA sont classées selon leur niveau de risque et vont de l’utilisation minimale aux applications à risque élevé. On parle de catégorisation des systèmes.

Ainsi, les différents acteurs de l’IA doivent respecter des exigences strictes, qui dépendent du niveau de risque en matière de transparence, sécurité et responsabilité de leurs systèmes d’IA.

Des procédures de vérification et des sanctions sont évidemment prévues pour garantir le respect de la réglementation. À cette fin, un régulateur européen a d’ailleurs été désigné le 24 janvier et les États membres ont pour obligation de désigner une autorité nationale dans leur pays respectif.

Bon à savoir : Des sanctions financières en cas de non-conformité pourront être appliquées. Celles-ci sont plafonnées à 30 millions d’euros ou 7 % du chiffre d’affaires annuel consolidé.

Les objectifs de la régulation de l’AI Act sont multiples. Hormis la sécurité et la protection des droits fondamentaux, ainsi que la transparence sur le fonctionnement des systèmes et la responsabilité en cas de dysfonctionnement ou d’abus, le règlement entend harmoniser le marché. La création d’un cadre commun doit ainsi faciliter l’innovation et le déploiement de solutions IA dans l’ensemble de l’Union européenne, et ce, pour renforcer la compétitivité de l’Europe.

Quelles sont les mesures clés de l’AI Act ?

Comme vu précédemment, la loi sur l’intelligence artificielle repose sur une approche de gestion des risques. Ce dispositif se décline donc en plusieurs axes.

La classification des risques des systèmes IA

L’AI Act distingue les systèmes IA selon le niveau de risque qu’ils présentent, à savoir :

  • Le risque inacceptable, c’est-à-dire les systèmes IA interdits pour les dangers qu’ils représentent en matière de droits fondamentaux (technique subliminale, manipulatrice ou trompeuse, notation sociale, systèmes de catégorisation biométrique, etc.) ;
  • Le risque élevé, pour les systèmes utilisés dans des domaines sensibles (santé, justice, éducation, formation professionnelle, etc.) ;
  • Le risque limité, pour les systèmes IA d’usage général (GPAI) dont le risque est moindre.

Les obligations des acteurs selon le niveau de risque

Les développeurs, fournisseurs et déployeurs d’IA doivent satisfaire à un ensemble de critères afin de sécuriser l’usage des technologies. Ces obligations varient aussi en fonction du niveau de risque desdits systèmes.

Les obligations des fournisseurs d’IA à risque élevé consistent à :

  • Mettre en place un système de gestion des risques tout au long du cycle de vie du système IA ;
  • Assurer la gouvernance des données (pertinence des données de formation, de validation et de test) ;
  • Établir une documentation technique de conformité et fournir les informations nécessaires aux autorités chargées de l’évaluation de cette conformité ;
  • Fournir des instructions d’utilisation aux déployeurs en aval, ces derniers ayant l’obligation de se conformer à la réglementation ;
  • Concevoir leur système IA à haut risque de sorte à pouvoir mettre en place une surveillance humaine ;
  • Mettre en place un système de gestion de la qualité pour garantir la conformité.

Les obligations des fournisseurs d’IA à risque limité se résument à :

  • Établir une documentation technique qui inclue le processus de formation et d’essai, ainsi que les résultats de l’évaluation ;
  • Élaborer la documentation à fournir aux fournisseurs en aval, en intégrant le système IA dans leur propre système ;
  • Établir une politique de respect de la directive sur le droit d’auteur ;
  • Garantir la transparence pour que les utilisateurs soient informés qu’ils interagissent avec une IA ;
  • Mettre à disposition des informations claires sur le fonctionnement et les limites des systèmes IA.

Bien entendu, les systèmes IA, qu’importe leur niveau de risque, doivent être en conformité avec les normes de sécurité. Cela suppose l’intégration de mécanismes qui garantissent la robustesse et la fiabilité des applications, surtout pour les systèmes à risque élevé.

Enfin, les fournisseurs doivent également mettre en place des procédures de gestion des biais pour identifier et corriger les biais algorithmiques, et éviter toute discrimination.

Les impacts de l’AI Act pour les entreprises

La mise en place de l’AI Act a des conséquences pour l’ensemble des acteurs du secteur de l’intelligence artificielle, y compris pour les entreprises. En effet, l’IA générative (ChatGPT, Gemini, Dall-E, etc.), les assistants vocaux et les chatbots s’intègrent de plus en plus dans leur quotidien et processus décisionnels. Ces dernières sont donc directement concernées par la mise en œuvre de l’AI Act et doivent par conséquent réviser leurs pratiques et infrastructures pour intégrer des processus de conformité, de transparence, de sécurité et de gestion des risques.

Elles ont aussi tout intérêt à revoir leurs pratiques de collecte et de traitement des données, sans oublier d’investir dans des audits internes et externes pour certifier la conformité de leurs solutions IA.

À noter tout de même que ce n’est pas sans conséquences financières, car la mise en conformité, la formation des équipes et l’adaptation des outils entraînent des coûts. Mais plus qu’une contrainte, les entreprises doivent y voir une opportunité de renforcer leur compétitivité et leur crédibilité via un usage de l’IA qui associe sécurité et éthique.

C’est d’autant plus important qu’en qualité d’utilisatrices de l’IA, les entreprises auront ainsi une meilleure compréhension des systèmes IA qu’elles utilisent et de leur fonctionnement. Elles bénéficieront en plus d’une meilleure protection contre les abus potentiels liés à l’IA, ce qui est loin d'être négligeable.


En bref, le règlement européen sur l’IA, entré en vigueur le 1er août 2024, va bousculer le paysage de l'intelligence artificielle en Europe, même s'il ne sera applicable que d’ici un an et demi, le 2 août 2026, sauf rares exceptions (les obligations relatives aux modèles IA à usage général seront applicables dès le 2 août 2025, et les systèmes IA à haut risque intégrés dans des produits réglementés profiteront d’une période de transition prolongée jusqu’au 2 août 2027). Si certains acteurs de l’intelligence artificielle considèrent que la classification des risques et les obligations de transparence constituent un progrès majeur pour une IA de confiance, d’autres estiment que les exigences strictes pourraient freiner l’innovation, notamment pour les PME et start-up dont les ressources sont plus restreintes. Seul l'avenir nous dira si l'Europe a pris la bonne décision.

Crédit photo : Arseniy45