Ces dernières années, l’intelligence artificielle (IA) a connu une croissance exponentielle. Désormais, elle s’intègre parfaitement dans plusieurs aspects de notre quotidien. D’ailleurs, des modèles avancés tels que ChatGPT et DeepSeek illustrent cette évolution rapide, en offrant des capacités conversationnelles et analytiques sans précédent.
Aujourd’hui, l’Europe se trouve donc à un carrefour décisif. Et l’enjeu est double, puisqu’il faut équilibrer l’innovation technologique, tout en garantissant la protection des droits fondamentaux, à commencer par le respect de la vie privée des Européens.
Par conséquent, un cadre juridique adapté pour encadrer ces technologies n’est plus une option, mais bien une nécessité. On fait le point sur la position actuelle de l’Europe en ce qui concerne l’IA.
L’explosion de l’intelligence artificielle, et notamment des modèles génératifs comme ChatGPT (OpenAI) et DeepSeek (DeepSeek), a redéfini les contours de l’économie mondiale et des interactions sociales. Ces modèles génératifs (semblables à des chatbots autonomes) sont en effet un bon exemple de cette avancée grâce à leur capacité à produire des textes aussi cohérents que pertinents. Mais surtout, c’est leur capacité d’innovation rapide qui surprend. Sauf que cela n’est pas sans conséquence sur de nombreux secteurs, qu’il s’agisse de l’éducation, de la communication, ou de la recherche scientifique et médicale.
En effet, l’intelligence artificielle ne se limite pas aux supports de type chatbot ou agent conversationnel. Par exemple, DeepMind est une filiale de Google spécialisée dans le développement de l’intelligence artificielle avancée. Ses algorithmes sont capables de simuler et de résoudre des problèmes complexes de manière autonome, en s’inspirant du fonctionnement du cerveau humain. L’entreprise a d'ailleurs été particulièrement remarquée pour ses avancées dans la reconnaissance vocale, les jeux stratégiques et la santé. Ses applications s'étendent de la recherche fondamentale à des applications pratiques dans divers secteurs technologiques et scientifiques.
Dans ce contexte, l’Europe est confrontée à deux défis majeurs :
C'est pour ces différentes raisons que l’Union européenne s’efforce de créer un cadre réglementaire équilibré. L'objectif est clair : veillez à la sécurité de ses citoyens tout en favorisant l’innovation. Mais la législation européenne autour de l'IA soulève d'ores et déjà de nombreuses critiques.
Effectivement, son approche est perçue comme beaucoup trop axée sur la régulation, au détriment du développement technologique. D’ailleurs, en septembre 2024, Meta et Apple ont suspendu le lancement de leur assistant IA dans l’Union européenne, au motif précis que l’Europe « rejette l’innovation ».
Pour définir son cadre réglementaire, la Commission européenne a choisi une définition assez large de l’intelligence artificielle, à savoir « un système basé sur une machine qui est conçu pour fonctionner avec différents niveaux d’autonomie, qui peut faire preuve d’adaptabilité après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des données qu’il reçoit, comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer des environnements physiques ou virtuels ».
À l'heure actuelle, deux règlements ont pour but d’encadrer l’intelligence artificielle en Europe : le règlement général sur la protection des données (RGPD) et le règlement européen sur l’intelligence artificielle (AI Act).
Souvenez-vous, le règlement général sur la protection des données est entré en vigueur en mai 2018. Il constitue le cadre juridique principal pour le traitement des données personnelles au sein de l’Union européenne. Toutefois, son application à l’intelligence artificielle soulève des questions et souligne ses limites.
En effet, les systèmes d’IA qui reposent sur l’apprentissage automatique nécessitent l’utilisation de vastes ensembles de données, qui sont la plupart du temps des données personnelles. Dans ce contexte, le RGPD impose donc quelques obligations aux responsables de traitement des données.
À ce sujet, en avril 2024, la CNIL a publié ses premières recommandations sur l’application du RGPD dans le développement des systèmes d’intelligence artificielle. Pour les résumer, celle-ci indique que :
Malgré son rôle central en matière de traitement des données personnelles, le RGPD présente certaines limites face à l’évolution rapide des technologies de l’IA.
En d'autres termes, bien que le RGPD établisse un cadre juridique solide pour la protection et la sécurité des données personnelles, son application à l’intelligence artificielle exige une interprétation adaptée et, potentiellement, des compléments réglementaires pour répondre aux défis spécifiques de ces technologies en constante évolution.
Entré en vigueur le 1er août 2024, le règlement européen sur l’intelligence artificielle (ou AI Act) promeut un développement et une utilisation responsables de l’IA au sein de l’Union européenne. Pour cela, les systèmes d’intelligence artificielle sont classés selon quatre niveaux de risque :
Vous vous en doutez, les fournisseurs d’IA doivent se conformer aux exigences spécifiques de leur catégorie de risque sous peine de sanctions.
Mais ce n'est pas tout, puisque les entreprises qui développent des modèles d’IA générative (ChatGPT, DeepSeek, Gemini, Perplexity, etc.) doivent aussi s’assurer de la gestion des contenus et du respect des droits d’auteur. Pour y parvenir, elles sont tenues de mettre en place des filtres qui empêchent la diffusion de contenus illégaux. De plus, elles doivent se contenter de publier des résumés des données protégées par le droit d’auteur lorsque ces dernières sont utilisées pour l’apprentissage de leurs modèles.
Pour faire simple, cette réglementation est sensée établir des mesures plutôt strictes pour garantir une utilisation éthique et sécurisée de l’intelligence artificielle, tout en préservant l’innovation.
À noter tout de même qu'il existe une complémentarité des textes européens. Si le RGPD s’applique dès lors qu’il y a un traitement de données personnelles, l’AI Act s’applique aux systèmes d’IA qui peuvent utiliser de telles données.
Dans ce dernier cas de figure, un système d’IA concerné doit :
Attention, un système d’IA qui n’utilise pas de données personnelles n’est évidemment pas soumis à la réglementation du RGPD. Il doit uniquement se conformer à l’AI Act qui vise précisément ce genre de technologie.
Il est aujourd’hui essentiel que l’Europe travaille à sa souveraineté technologique.
L’Europe accuse un retard technologique que ce soit en termes d’investissement et de puissance de calcul ou en matière de dépendance aux technologies étrangères. Elle est principalement dépendante des géants américains et chinois qui dominent le marché de l’intelligence artificielle.
Cette dépendance soulève des questions de sécurité, d’autonomie et de contrôle des données, car elle expose l’Europe à un risque de perte de souveraineté sur ses infrastructures numériques. De plus, elle limite la capacité de l’UE à réguler et à protéger ses données sensibles. Elle constitue également un frein face aux défis éthiques à relever, comme :
La création d’un espace européen numérique de confiance avec ses propres acteurs et son propre cadre juridique est un premier pas vers l’indépendance.
Pour développer sa souveraineté technologique, l’Europe doit maîtriser les infrastructures clés (cloud, puces, data centers, etc.) et investir massivement dans ces dernières. Certaines initiatives, comme Gaia-X, visent à proposer des alternatives européennes, mais elles peinent à s’imposer face aux acteurs dominants, comme Amazon Web Services (AWS) ou Microsoft Azure.
Comme évoqué précédemment, l’Europe entend garantir le respect des droits fondamentaux, notamment en matière de protection et de sécurité des données personnelles. Mais elle se positionne également en faveur de l’innovation technologique ! C'est pourquoi elle est cœur de plusieurs initiatives.
Horizon Europe est le principal programme de financement de l’Union européenne pour la recherche et l’innovation. Avec un budget de 95,5 milliards d’euros pour la période 2021-2027, il vise à lutter contre le changement climatique, aider à atteindre les objectifs de développement durable, et renforcer la compétitivité de l’Union européenne.
Dans le cadre de ce programme, une attention particulière est donc accordée au financement de projets autour de l'intelligence artificielle, à condition qu'ils respectent des règles éthiques strictes et durables pour une IA de confiance.
En parallèle, l’Union européenne a mis en place plusieurs initiatives pour soutenir les startups IA présentes en Europe et leur rôle fondamental dans l’innovation technologique. Par exemple, l’Initiative Digital Europe et le Fonds européen d’investissement apportent un financement et un soutien opérationnel aux startups les plus prometteuses.
La compétitivité globale de l’Europe dans le domaine de l’IA est au cœur même de ces initiatives, puisqu'il s'agit de construire des solutions IA locales pour limiter la dépendance du vieux continent aux technologies étrangères (américaines et chinoises, principalement). À cette fin, le programme Horizon Europe et le programme pour une Europe numérique (Digital Europe) veulent investir 1 milliard d’euros par an dans l’IA, avec pour objectif de mobiliser des investissements supplémentaires et d’atteindre un volume annuel de 20 milliards d’euros.
Dans la mesure où l’IA ne se cantonne pas à l’Europe, l’Union européenne reconnaît la nécessité de créer des partenariats au niveau international pour une régulation mondiale de l’IA.
Cette approche coordonnée est capitale pour garantir un développement et une utilisation responsables de l’intelligence artificielle sur toute la planète. C'est ainsi que le 5 septembre 2024, la Commission européenne a signé, aux côtés des États-Unis, du Royaume-Uni et d’Israël, le premier traité international juridiquement contraignant sur l’utilisation de l’IA, intitulé « Convention-cadre du Conseil de l'Europe sur l'intelligence artificielle ».
Élaboré sous l’égide du Conseil de l’Europe, ce document met l’accent sur le respect des droits de l’Homme et des valeurs démocratiques. Il établit aussi des mécanismes de responsabilité pour les systèmes d’IA à l'origine de préjudices.
L’Europe travaille également en coopération avec les États-Unis (initiative Trade and Technology Council). Depuis 2021, le Conseil du commerce et de la technologie (TTC) a pour rôle de coordonner les approches en matière de commerce, d’économie et de technologie, et de renforcer les échanges et investissements bilatéraux tout en promouvant des normes communes pour les technologies émergentes, à commencer par l’IA.
Ces initiatives illustrent l’engagement de l’Europe dans le développement de l’intelligence artificielle, et démontrent la position de cette dernière en matière d’IA. Elle promeut néanmoins des règles éthiques et sécurisées, et s’appuie sur une coopération internationale pour une régulation cohérente et efficace qui évite toute forme d'abus.
Si l’Europe est favorable au développement de l’IA, sa position est néanmoins jugée trop stricte et fait l’objet de critiques. En effet, l’Union européenne a adopté une approche proactive en matière de régulation de l’intelligence artificielle. Les États-Unis, eux, ont adopté une approche plutôt décentralisée et orientée sur l’autorégulation. Leur priorité reste à l’innovation et à la compétitivité économique. Quant à l’autre grand acteur du paysage de l’IA, à savoir la Chine, celle-ci assure un contrôle étatique fort (du moins sur son territoire) avec des régulations spécifiques au fur et à mesure de l’émergence des technologies. Il est donc légitime de se demander si l’Europe sera capable de rester compétitive face à ces différents positionnements, sans parler des disparités d’application des législations nationales au sein des États membres.
Crédit photo : Tanaonte