L'Union européenne révolutionne l'encadrement de l'intelligence artificielle : quel impact sur l'innovation et les risques ?
2 minutesAdoption d’une législation pionnière par l’Union européenne
Les vingt-sept pays membres de l’Union européenne (UE) ont récemment approuvé une législation révolutionnaire visant à encadrer les systèmes d’intelligence artificielle (IA) sur le territoire européen. Cette décision historique vient après de longues négociations et un accord trouvé au début du mois de décembre.
Un encadrement pour favoriser l’innovation tout en limitant les risques
L’objectif de cette législation est de favoriser l’innovation dans le domaine de l’intelligence artificielle tout en limitant les risques liés à son développement. Cette approche “fondée sur le risque” imposera des contraintes aux différents systèmes d’IA en fonction des dangers potentiels qu’ils représentent pour la société. La mise en œuvre de ces mesures devrait principalement se faire à partir de l’année 2026.
Obligations de transparence différenciées selon le niveau de risque
Selon les nouvelles règles de l’Union européenne, les systèmes d’IA seront soumis à des obligations de transparence variables en fonction de leur niveau de risque. Les systèmes présentant un risque limité se verront imposer des obligations légères, tandis que ceux à haut risque, utilisés dans des domaines sensibles tels que les infrastructures critiques, l’éducation, les ressources humaines ou le maintien de l’ordre, devront respecter des exigences renforcées avant de pouvoir être utilisés dans l’UE.
Exigences renforcées et contrôles spécifiques pour certains types de systèmes d’IA
Ces exigences renforcées comprendront, par exemple, un contrôle humain sur les décisions prises par la machine, la rédaction d’une documentation technique détaillée, ainsi que la mise en place d’un système de gestion des risques. Les interdictions resteront rares, mais seront appliquées aux applications contraires aux valeurs européennes, telles que les systèmes de notation citoyenne ou de surveillance de masse utilisés ailleurs dans le monde.
Des règles spécifiques seront également mises en place pour encadrer les systèmes d’IA génératives, comme ChatGPT d’Open AI. L’objectif sera de garantir la qualité des données utilisées dans le développement des algorithmes, tout en veillant au respect des droits d’auteur. Par ailleurs, les contenus générés artificiellement, tels que les sons, images ou textes, devront être clairement identifiés comme tels pour éviter toute manipulation de l’opinion publique.