L’intelligence artificielle (IA) transforme notre quotidien et nous impose de repenser la manière dont elle est développée et utilisée. C’est donc dans ce contexte que l’AI Act, une nouvelle réglementation européenne, apparaît comme une réponse aux défis posés par l’essor de l’IA.
L’AI Act se positionne en effet comme un instrument législatif doté de normes strictes sur la transparence, la sécurité et la responsabilité des acteurs de l’intelligence artificielle. Cette régulation entend limiter les dérives potentielles tout en favorisant l’innovation responsable.
Nous avons déjà brièvement abordé l’AI Act dans un article précédent sur la position de l’Europe quant à l’intelligence artificielle. L’idée ici est donc d’explorer plus en détail les enjeux et mesures de l’AI Act.
Le développement actuel de l’IA apporte son lot d’opportunités : automatisation des tâches, analyse de grandes quantités de données, génération de contenu (texte, image, vidéo,), amélioration de l’expérience utilisateur, etc. Cependant, ces progrès s’accompagnent de risques, en particulier sur les droits fondamentaux (biais cognitifs, discrimination, protection des données, etc.).
C’est pour cette raison que la Commission européenne a travaillé sur l’AI Act, la première réglementation dédiée à l’IA dans le monde, dont l’ambition est double : promouvoir l’IA tout en encadrant son utilisation.
Pour y parvenir, l’AI Act se compose d’un ensemble de règles juridiques basées sur une approche fondée sur la gestion des risques. En effet, les technologies IA sont classées selon leur niveau de risque et vont de l’utilisation minimale aux applications à risque élevé. On parle de catégorisation des systèmes.
Ainsi, les différents acteurs de l’IA doivent respecter des exigences strictes, qui dépendent du niveau de risque en matière de transparence, sécurité et responsabilité de leurs systèmes d’IA.
Des procédures de vérification et des sanctions sont évidemment prévues pour garantir le respect de la réglementation. À cette fin, un régulateur européen a d’ailleurs été désigné le 24 janvier et les États membres ont pour obligation de désigner une autorité nationale dans leur pays respectif.
Bon à savoir : Des sanctions financières en cas de non-conformité pourront être appliquées. Celles-ci sont plafonnées à 30 millions d’euros ou 7 % du chiffre d’affaires annuel consolidé.
Les objectifs de la régulation de l’AI Act sont multiples. Hormis la sécurité et la protection des droits fondamentaux, ainsi que la transparence sur le fonctionnement des systèmes et la responsabilité en cas de dysfonctionnement ou d’abus, le règlement entend harmoniser le marché. La création d’un cadre commun doit ainsi faciliter l’innovation et le déploiement de solutions IA dans l’ensemble de l’Union européenne, et ce, pour renforcer la compétitivité de l’Europe.
Comme vu précédemment, la loi sur l’intelligence artificielle repose sur une approche de gestion des risques. Ce dispositif se décline donc en plusieurs axes.
L’AI Act distingue les systèmes IA selon le niveau de risque qu’ils présentent, à savoir :
Les développeurs, fournisseurs et déployeurs d’IA doivent satisfaire à un ensemble de critères afin de sécuriser l’usage des technologies. Ces obligations varient aussi en fonction du niveau de risque desdits systèmes.
Les obligations des fournisseurs d’IA à risque élevé consistent à :
Les obligations des fournisseurs d’IA à risque limité se résument à :
Bien entendu, les systèmes IA, qu’importe leur niveau de risque, doivent être en conformité avec les normes de sécurité. Cela suppose l’intégration de mécanismes qui garantissent la robustesse et la fiabilité des applications, surtout pour les systèmes à risque élevé.
Enfin, les fournisseurs doivent également mettre en place des procédures de gestion des biais pour identifier et corriger les biais algorithmiques, et éviter toute discrimination.
La mise en place de l’AI Act a des conséquences pour l’ensemble des acteurs du secteur de l’intelligence artificielle, y compris pour les entreprises. En effet, l’IA générative (ChatGPT, Gemini, Dall-E, etc.), les assistants vocaux et les chatbots s’intègrent de plus en plus dans leur quotidien et processus décisionnels. Ces dernières sont donc directement concernées par la mise en œuvre de l’AI Act et doivent par conséquent réviser leurs pratiques et infrastructures pour intégrer des processus de conformité, de transparence, de sécurité et de gestion des risques.
Elles ont aussi tout intérêt à revoir leurs pratiques de collecte et de traitement des données, sans oublier d’investir dans des audits internes et externes pour certifier la conformité de leurs solutions IA.
À noter tout de même que ce n’est pas sans conséquences financières, car la mise en conformité, la formation des équipes et l’adaptation des outils entraînent des coûts. Mais plus qu’une contrainte, les entreprises doivent y voir une opportunité de renforcer leur compétitivité et leur crédibilité via un usage de l’IA qui associe sécurité et éthique.
C’est d’autant plus important qu’en qualité d’utilisatrices de l’IA, les entreprises auront ainsi une meilleure compréhension des systèmes IA qu’elles utilisent et de leur fonctionnement. Elles bénéficieront en plus d’une meilleure protection contre les abus potentiels liés à l’IA, ce qui est loin d'être négligeable.
En bref, le règlement européen sur l’IA, entré en vigueur le 1er août 2024, va bousculer le paysage de l'intelligence artificielle en Europe, même s'il ne sera applicable que d’ici un an et demi, le 2 août 2026, sauf rares exceptions (les obligations relatives aux modèles IA à usage général seront applicables dès le 2 août 2025, et les systèmes IA à haut risque intégrés dans des produits réglementés profiteront d’une période de transition prolongée jusqu’au 2 août 2027). Si certains acteurs de l’intelligence artificielle considèrent que la classification des risques et les obligations de transparence constituent un progrès majeur pour une IA de confiance, d’autres estiment que les exigences strictes pourraient freiner l’innovation, notamment pour les PME et start-up dont les ressources sont plus restreintes. Seul l'avenir nous dira si l'Europe a pris la bonne décision.
Crédit photo : Arseniy45