Ces dernières années, l’intelligence artificielle a pris une place de plus en plus importante au sein de la société et devient même incontournable pour de nombreuses entreprises, mais aussi pour les particuliers. Elle est présente aujourd’hui dans les processus de recrutement, dans l’analyse approfondie de données parfois confidentielles, à des fins prédictives, pour des usages conversationnels, l’Union européenne a donc jugé urgent d’anticiper les risques liés à certains usages de l’IA par un nouveau règlement en la matière. Parallèlement, le Conseil de l’Europe et plusieurs autres États, également préoccupés par ces risques, ont également adopté après quelques années de travaux une convention-cadre en la matière, reprenant par ailleurs plusieurs points mentionnés dans la nouvelle législation de l’UE sur l’IA. Un nouveau cadre juridique global qui devrait mieux protéger les utilisateurs !
L’UE harmonise sa réglementation sur l’intelligence artificielle
Plus de trois ans après sa proposition par la Commission européenne, le règlement sur l’intelligence artificielle (AI Act) visant à harmoniser les règles sur l’IA entre les États membres est entré en vigueur le 1er août 2024. Ce texte, de près de 150 pages, vise à imposer des obligations et des exigences vis-à-vis des développeurs de l’IA pour contrer certains risques concernant la santé, la sécurité et les droits fondamentaux.
Le texte pointe notamment quatre niveaux de risque différents
- Risque inacceptable. Le texte interdit aux IA certaines pratiques qui seraient contraires aux valeurs de l’Union européenne, comme la notation sociale, la reconnaissance des émotions sur un lieu de travail ou d’enseignement, ou encore la police prédictive, précise la CNIL.
- Risque élevé. Les risques considérés comme élevés sont ceux pouvant porter atteinte à la sécurité des personnes et aux droits fondamentaux. Cela couvre notamment l’enseignement, les procédures de recrutement, la police, la justice, le contrôle de l’immigration ou encore la démocratie. Les systèmes de l’intelligence artificielle dont le risque est élevé sont soumis à une surveillance accrue et à des contrôles réguliers pour diminuer les risques existants. Les résultats fournis par l’IA seront notamment sauvegardés et stockés afin d’assurer leur traçabilité.
- Risque limité. Il s’agit ici des risques liés au manque de transparence de certains systèmes d’IA. Par exemple, un utilisateur qui écrirait à un chatbot doit en être informé. De plus, certains textes d’intérêt public ayant un but d’information doivent faire l’objet d’une indication comme étant générés par l’intelligence artificielle. La nouvelle législation européenne impose ainsi aux systèmes d’IA une certaine transparence et une obligation d’information à l’égard des utilisateurs dans certains cas.
- Risque minimal. Sont catégorisés dans les risques minimaux les systèmes d’IA utilisés dans les jeux vidéo et les filtres antispam. Ces systèmes d’IA, qui sont ceux majoritairement utilisés dans l’Union européenne, bénéficient de la libre utilisation de l’IA sous réserve de respecter la législation européenne et nationale de chaque État membre en vigueur.
Tout système d’IA mis sur le marché doit faire l’objet d’une surveillance et d’un suivi humain par les fournisseurs et les déployeurs du système. En cas d’incident grave, ces derniers doivent impérativement les notifier aux autorités nationales compétentes, rappelle la Commission européenne.
La présente législation sur l’intelligence artificielle entrera progressivement en vigueur afin d’être entièrement appliquée d’ici deux ans. Le temps nécessaire pour permettre aux entreprises et aux pouvoirs publics de s’adapter.
Une convention-cadre du Conseil de l’Europe sur l’IA
Après cinq ans de travail et de négociations, les signataires, que sont les 46 États membres du Conseil de l’Europe mais aussi notamment les États-Unis, le Canada, le Royaume-Uni, l’Australie, le Pérou, l’Argentine, le Japon ou encore le Mexique, ont approuvé la convention-cadre sur l’intelligence artificielle.
Cette convention-cadre est pleinement compatible avec la législation européenne sur l’IA et pourrait même être vue comme une continuité et un complément du règlement déjà adopté par l’UE. Elle vise de la même manière à protéger les droits de l’homme, la démocratie et l’État de droit. Les États signataires ainsi que les entreprises exerçant dans ces mêmes États devront bien évidemment appliquer la présente convention-cadre.
Le texte prévoit, d’une manière similaire à la législation de l’UE sur l’IA, que les entreprises concernées soient transparentes vis-à-vis de leurs systèmes d’intelligence artificielle et garantissent un contrôle afin de diminuer les risques. En cas de non-respect des mesures énoncées, notamment en ce qui concerne les atteintes aux droits de l’homme, à la dignité, à la démocratie et à l’État de droit, les fournisseurs et les déployeurs de systèmes d’IA devront assurer leur part de responsabilité devant la justice de l’État où l’infraction a été commise.
De la même manière, les discriminations doivent être proscrites des systèmes d’IA. Concernant les données personnelles et la vie privée des utilisateurs, elles doivent être protégées.
En ce qui concerne les résultats fournis par l’intelligence artificielle, les fournisseurs et les déployeurs doivent s’assurer qu’ils soient fiables et corrects.
Chaque État signataire de la présente convention-cadre est désormais missionné de légiférer en matière d’intelligence artificielle pour la faire appliquer et respecter. Garantissant ainsi la protection des utilisateurs.