Accueil Etudes L’IA, un risque sévère pour les prochaines années selon le rapport du...

L’IA, un risque sévère pour les prochaines années selon le rapport du Forum Économique Mondial de Davos

Source : Mohamed Hassan de Pixabay

Alors que s’ouvre aujourd’hui le Forum Économique Mondial (WEF) de Davos sur fond de tensions géopolitiques notamment au Proche-Orient, d’autres enjeux de taille attendent les dirigeants et gouvernements du monde entier en matière technologique. Et cette année, l’IA y a une part importante. 

La prolifération incontrôlée de technologies d’IA à usage général va radicalement remodeler les économies et les sociétés dans les années à venir, pour le meilleur et pour le pire », prévient le rapport du WEF sur le paysage mondial des risques pour 2024*, alors que les conséquences néfastes des technologies d’IA font leur apparition dans le top 10 des risques.

Désinformation, perte d’emplois, utilisation criminelle et cyberattaques, biais et discrimination, utilisation dans la prise de décision critique par les organisations et les États, intégration de l’IA dans les armes et la guerre…, l’IA a de graves conséquences négatives, à côtés de gains de productivité et d’avancées dans des domaines aussi divers que la santé ou l’éducation par exemple. Ainsi les modèles d’intelligence artificielle exploitables à large échelle ne sont pas étrangers à la désinformation (on pense au clonage vocal par exemple), perçue comme “le risque mondial le plus grave des deux prochaines années », souligne le rapport.

Les acteurs étrangers et nationaux exploiteront la désinformation pour creuser davantage les divisions sociétales et politiques . Alors que près de trois milliards de personnes devraient se rendre aux urnes dans plusieurs économies – dont le Bangladesh, l’Inde, l’Indonésie, le Mexique, le Pakistan, le Royaume-Uni et les États-Unis – au cours des deux prochaines années, le recours généralisé à la désinformation, et les outils permettant de le diffuser, peuvent miner la légitimité des gouvernements nouvellement élus. Les troubles qui en résulteront pourraient aller de manifestations violentes et de crimes haineux à des affrontements civils et au terrorisme. » Autre conséquence : il existe un risque de répression et d’érosion des droits alors que les autorités cherchent à réprimer la prolifération de fausses informations.

L’IA et les guerres

Une intégration plus poussée de l’IA dans les décisions en matière de conflits – pour sélectionner de manière autonome des cibles et déterminer des objectifs – pourrait conduire à une escalade accidentelle ou intentionnelle, indique le rapport. Les risques sont particulièrement importants avec l’intégration de l’IA dans les armes nucléaires, tandis que l’accès libre à des applications d’IA peuvent donner du pouvoir aux acteurs malveillants pour conceptualiser et développer de nouveaux outils de perturbation et de conflit, des logiciels malveillants aux armes biologiques.

Pour les sondés de l’enquête, la sensibilisation du public et l’éducation font parti des mécanismes les plus efficaces pour comprendre les risques et réduire les effets néfastes des technologies d’IA. Ils mettent aussi en avant le besoin de régulations nationales et locales et celui de traités et accords plus globaux.
Il faut noter à cet égard qur plusieurs cadres de gouvernance ont déjà émergé au niveau mondial, comme
l’initiative du G7 au Japon (« processus d’Hiroshima sur l’IA») en mai 2023, ou la déclaration de Bletchley, un accord international autour d’une IA responsable. De plus, des appels ont déjà été lancés en faveur d’une « version IA » du GIEC.

 

 

*L’étude est basée sur le recueil, entre le 4 septembre et le 9 octobre 2023, de l’opinion de 1 490 experts de l’Université, des affaires, de gouvernements. Elle analyse les risques à court terme (dans les 2 ans) et à long terme (dans les 10 ans)