IA

L’Europe veut évaluer l’impact des IA sur les droits de l’homme

Le Conseil de l’Europe a adopté Huderia, une méthode conçue pour identifier, évaluer, prévenir et atténuer les risques des systèmes d’IA sur les droits humains, la démocratie et l’État de droit.

Les les grands acteurs de l’intelligence artificielle sont engagés dans une course technologique effrénée, souvent au détriment des préoccupations sociétales. Dans ce contexte, l’Union européenne cherche à apporter une contribution mesurée avec sa méthodologie Huderia,qui vise à évaluer les risques et impacts des systèmes d’IA sur les droits humains, la démocratie et l’État de droit, sur tout leur cycle de vie.

Adoptée lors de la 12ᵉ réunion plénière du Conseil de l’Europe, qui s’est déroulée du 26 au 28 novembre, cette méthode, destinée aux acteurs publics comme privés, prend en compte les contextes juridique, social, politique, économique, culturel et technologique dans lesquels les systèmes d’IA opèrent. Elle vise à produire un programme d’atténuation pour minimiser ou éliminer tous les risques identifiés.

Réévaluer régulièrement ses systèmes d’IA

« Si un système d'IA utilisé, par exemple, pour le recrutement se révèle partial à l'égard de certains groupes démographiques, le programme d'atténuation peut prévoir l'ajustement de l'algorithme ou la mise en place de contrôles humains », décrit le Conseil de l’Europe dans son communiqué.

La méthodologie repose sur quatre grands éléments:

  • L’analyse des risques fondée sur le contexte, qui doit fournir une approche structurée de la collecte et de la cartographie des informations nécessaires à l’identification des risques qu’un système d’IA pourrait poser.
  • Le processus d’engagement des parties prenantes, qui consiste à proposer une approche permettant d’obtenir des informations sur les personnes potentiellement affectées, de corroborer les préjudices potentiels et de définir les mesures d’atténuation.
  • L’évaluation des risques et des impacts, qui se déroule en plusieurs étapes pour analyser les menaces et leurs conséquences.
  • La proposition d’un plan d’atténuation et de réparation, destiné à corriger ou à prévenir les risques identifiés.

Des réévaluations seront ensuite nécessaires pour garantir la conformité des systèmes d’IA. Un modèle Huderia est prévu pour 2025, afin de fournir des documents, des ressources et des recommandations évolutives nécessaires à la mise en œuvre de cette méthodologie.