L’étude d’impact complémentaire publiée par le service de recherche du Parlement européen propose que la directive AILD (Artificial Intelligence Liability Directive) étende son champ d’application aux logiciels et inclue les systèmes d’IA à usage général et autres « systèmes d’IA à fort impact ».
L’étude recommande de passer d’une directive axée sur l’IA à un règlement sur la responsabilité des logiciels. Les auteurs proposent d’élargir les champs d’application de la directive et, quel que soit le domaine d’application, de soumettre les acteurs, y compris des logiciels, à des obligations de transparence et de responsabilité accrues. L’ambition est de renforcer la confiance des utilisateurs finaux et des entreprises, afin d’adopter l’IA en réduisant les risques liés à son utilisation.
En effet, l’IA comprend des risques pour la protection de la vie privée et des données, l’opacité, la discrimination, l’imprévisibilité, la manipulation, les contenus préjudiciables et faux, ainsi que les coûts environnementaux et climatiques.
Responsabilité pour faute et responsabilité stricte
L’étude propose d’introduire un cadre mixte de responsabilité qui combine la responsabilité pour faute et la responsabilité stricte. Cette mesure entraînerait une vigilance accrue pour les entreprises et développeurs d’IA sur la sécurité de leurs systèmes, tout en garantissant que les victimes de dommages causés par des systèmes IA ne seront pas confrontées à des obstacles conséquents en cas de demande d’indemnisations.
Pour les entreprises, le cadre proposé permettrait d’améliorer la gestion des risques liés à l’IA en clarifiant les attentes et les responsabilités, tout en évitant de décourager l’innovation en offrant une certaine protection si les systèmes respectent les normes de sécurité.
Un règlement global pour harmoniser
Le passage d’une simple directive IA à un règlement global sur la responsabilité des logiciels vise à uniformiser le marché européen, où les règles nationales pourraient diverger d’un pays à l’autre. L’harmonisation permettrait une adoption plus rapide de l’IA dans toute l’Europe.
Cela bénéficiera particulièrement aux PME, qui risquent de souffrir davantage de l’insécurité juridique en raison de leurs ressources limitées. Les petites et moyennes entreprises (PME), qui ne peuvent pas s’appuyer sur des compétences juridiques internes ou sur des réserves en capital, pourraient être particulièrement touchées.
En éliminant la nécessité pour les victimes de prouver la faute ou le lien de causalité dans les systèmes IA (en raison de la complexité et de l’effet “boîte noire”), l’étude propose de prévoir clairement les obligations.