Accueil Connfidentialité des donnés Plus de 100 signataires du Pacte de l’IA mais Meta et Apple...

Plus de 100 signataires du Pacte de l’IA mais Meta et Apple sont absents

IA ACT ET LA CHARTE D ENGAGEMENT
IA ACT ET LA CHARTE D ENGAGEMENT

Plus de 100 entreprises de toutes tailles avaient signé au 25 septembre les engagements volontaires du Pacte européen sur l’IA, a annoncé la Commission européenne.

Parmi les signataires, on compte des multinationales et des PME européennes issues de secteurs variés tels que l’informatique, les télécommunications, les soins de santé, la banque, l’automobile et l’aéronautique. Le pacte aide ces acteurs à appliquer volontairement les principes du règlement sur l’IA avant son entrée en vigueur, renforçant ainsi le dialogue entre le bureau de l’IA de l’UE et les parties prenantes, y compris l’industrie, la société civile et le monde académique“, se réjouit la Commission.

Parmi les grands noms : Amazon, Cisco, Google, IBM, Microsoft, OpenAI, Sopra Steria, Salesforce, Samsung, Orange et OVH… Mais deux grands absents notables manquent : Apple et Meta. Les entreprises signataires s’engagent, de manière non contraignante, sur trois actions clés :

  • Adopter une stratégie de gouvernance pour favoriser l’usage responsable de l’IA et préparer leur conformité à la loi sur l’IA.
  • Identifier et cartographier les systèmes à haut risque en vertu de cette loi.
  • Sensibiliser et former leur personnel à l’éthique et à l’usage responsable de l’IA.

Les entreprises sont encouragées à s’engager plus avant, comme le prévoit le Pacte sur l’IA. Elles peuvent notamment assurer une supervision humaine, réduire les risques et signaler de façon transparente certains contenus IA, comme les deepfakes“, explique la Commission.

Une étude d’impact complémentaire sur les manques réglementaires

Par ailleurs, il est à noter que le Service de recherche du Parlement européen vient de publier une analyse complémentaire sur la responsabilité relative à l’adaptation des règles en matière de responsabilité civile extracontractuelle de l’intelligence artificielle actuellement en cours via la directive sur la responsabilité de l’intelligence artificielle. La révision de la directive vise notamment adapter la responsabilité pour faute pour traiter les actions en responsabilité dans le cas de dommages causés par des produits et services dotés d’IA.

La directive sur la responsabilité de l’IA (AILD), proposée en parallèle de la révision de la PLD (directive révisée sur la responsabilité du fait des produits), fait face à plusieurs défis dans ce nouveau cadre réglementaire. Bien que l’IA offre un potentiel sociétal considérable, des risques tels que la discrimination et les violations de droits liés à l’IA générative, comme ChatGPT ou les véhicules autonomes, ne sont pas totalement couverts par la PLD” notent les auteurs de l’étude d’impact complémentaire.

L’AILD doit ainsi clarifier certaines définitions, aligner ses concepts avec ceux de la loi sur l’IA, et intégrer des systèmes à fort impact, tout en créant des obligations supplémentaires concernant la divulgation des preuves et les présomptions sur la responsabilité. Les entreprises ont donc tout intérêt à anticiper ces textes qui vont accroitre les responsabilités et risques de sanctions.

Patrice Remeur