Accueil IA-Intelligence Artificiellle Le Conseil de l’Europe adopte HUDERIA, une méthode pour évaluer les systèmes...

Le Conseil de l’Europe adopte HUDERIA, une méthode pour évaluer les systèmes d’IA

Conseil de l Europe - source COE photo DR
Conseil de l Europe - source COE photo DR

La méthodologie HUDERIA a été adoptée par le Comité sur l’intelligence artificielle (CAI) du Conseil de l’Europe lors de sa 12e réunion plénière, qui s’est tenue à Strasbourg du 26 au 28 novembre 2024se satisfait l’Institution.

Cette méthodologie est proposée dans le cadre de l’IA Act. Elle permet une évaluation des risques et de créer un plan pour minimiser ou éliminer les risques identifiés et ainsi protéger les personnes d’un éventuel préjudice.

La méthodologie HUDERIA comprend quatre éléments

1-L’analyse des risques basée sur le contexte baptisé COBRA. COBRA permet d’analyser 3 facteurs de risques. Les risques liés au contexte d’application du système d’IA, les risques liés au contexte de conception et de développement du système d’IA et les risques liés au contexte de déploiement du système d’IA.

Elle fournit une approche structurée pour collecter et cartographier les informations nécessaires pour identifier et comprendre les risques que le système d’IA pourrait présenter pour les droits de l’homme, la démocratie et l’état de droit au vu de son contexte sociotechnique. Elle permet également de déterminer initialement si le système d’IA est une solution appropriée au problème considéré.

2. Le processus d’engagement des parties prenantes est une approche pour engager les parties prenantes concernées afin d’obtenir des informations sur les personnes potentiellement affectées et de contextualiser et évaluer les préjudices potentiels et les mesures d’atténuation.

3. L’évaluation des risques et des impacts (RIA) fournit des étapes possibles concernant l’évaluation des risques et des impacts liés aux droits de l’homme, à la démocratie et à l’état de droit.

4. Le plan d’atténuation fournit des étapes possibles pour définir des mesures d’atténuation et de réparation.

Si un système d’IA utilisé pour le recrutement, par exemple, s’avère biaisé à l’encontre de certains groupes démographiques, le plan d’atténuation peut impliquer l’ajustement de l’algorithme ou la mise en œuvre d’une surveillance humaine” affirme le Conseil de l’Europe.

Cette méthode sera complétée en 2025 par le modèle HUDERIA qui “fournira des supports et des ressources, notamment des outils flexibles et des recommandations évolutives“. La méthodologie proposée sera réévaluée régulièrement.

Cette approche garantit que le public est protégé des risques émergents tout au long du cycle de vie du système d’IA“. Les acteurs privés et publics sont invités à utiliser ces outils pour s’assurer de leur conformité et de protection des droits fondamentaux.