AVIS D’EXPERT – Par Jérôme Béranger, CEO de GOODALGO, chercheur associé (PhD) au CERPOP – INSERM Université Paul Sabatier de Toulouse, expert Ethique & IA de l’Institut EuropIA. Jérôme Béranger est auteur des livres : “Quand l’Intelligence Artificielle s’éveillera” (Le Passeur, 2020),” La responsabilité sociétale de l’Intelligence Artificielle” (ISTE Editions, 2021).
Depuis plus de 10 ans, une conviction m’anime véritablement : il faut réussir le mariage entre le numérique et l’éthique, en construisant un pont entre les deux jusqu’à ne plus les distinguer ! En effet, nous sommes au début d’une 4ème révolution industrielle centrée sur l’intelligence des données numériques, et le phénomène des Systèmes d’Intelligence Artificielle (SIA) génératives – illustrées par ChatGPT – en est la partie émergente de l’iceberg digital. A peine débarquée, cette technologie bouleverse déjà nos modes de vie, de fonctionnement, de travail et d’éducation. C’est le commencement d’une révolution silencieuse, mais bien présente qui se passe bien sous nos yeux. Une nouvelle ère de changement et de disruption où la survie professionnelle, culturelle voire humaine passe inéluctablement par de la réactivité, de l’adaptabilité, de la créativité et donc par de l’innovation.
“C’est le commencement d’une révolution silencieuse, mais bien présente qui se passe bien sous nos yeux.”
Dès lors, ChatGPT fait déjà l’objet de nombreux débats et questionnements passionnés entremêlant enthousiasmes et inquiétudes. Un tel contexte m’amène à dresser un éclairage éthique sur cette nouvelle génération de SIA génératives :
- Quel avenir pour les métiers associés aux « cols blancs » (auteurs, codeurs, rédacteurs, avocats, notaires, médecins, assureurs, …), sachant que 400 ans de travail humain est réalisé chaque jour par ChatGPT ?
- Les règlementations liées aux droits d’auteur sont remises en question.
- Comment faire évoluer notre système éducatif avant qu’il soit complètement inadapté aux réalités contemporaines ?
- Quel est le degré de partialité, d’équité, de discrimination, de biais et de représentation de ces SIA ?
- L’abus non délibéré dû à l’anthropomorphisme (cf. effet ELIZA[1],) c’est-à-dire à la projection de capacités humaines sur ces machines.
- ChatGPT peut avoir un rôle non négligeable dans les campagnes d’influence idéologique (cf. wokisme très fortement implanté dans la culture californienne) et de désinformation (cf. fake news) en manipulant les masses, par un biais de contenu de bases de données, et de filtrage et sélection humaine.
- ChatGPT peut entrainer une incapacitation humaine par une dépendance technologique à venir qui va s’amplifier.
- ChatGPT n’a pas été entraîné à assimiler les vérités du monde mais simplement à manipuler les langues humaines et les langages informatiques, entrainant des réponses inappropriées ou inexactes d’où un problème de fiabilité et d’exactitude des données de sortie.
- ChatGPT ne cite pas ses sources car le contenu qu’il délivre est le fruit de corrélations qui échappe à toutes décomposition analytique (cf. abolition de la norme du vrai).
- ChatGPT s’intéresse bien plus à la langue qu’à la connaissance, aux faits et au sens qui lui est étranger, du fait qu’il ne fait pas de lien entre les informations générées et leurs sources.
- ChatGPT n’a pas été entraîné sur des sources vérifiées, et peut parfois générer des renseignements ou instructions erronés, biaisés voire nuisibles. Il y a une véritable difficulté de trouver des données d’entraînement de bonne qualité, garanties sans IA.
- L’imagination de ChatGPT peut être employée pour contourner ses propres garde-fous, entrainant ainsi un mauvais usage.
- ChatGPT n’a aucune conscience morale. Il peut donc être détourné pour créer du contenu potentiellement choquant et problématique.
- La difficulté à accéder, à comprendre et à utiliser ChatGPT pour les individus qui n’ont pas de connaissances techniques ou les moyens économiques va amplifier les phénomènes de fracture digitale et inégalité entre les personnes.
- ChatGPT peut facilement être utilisé pour collecter des informations personnelles sur les individus, d’où un risque de vie privée, de confidentialité, et donc de sécurité.
Dans ces conditions, les SIA génératives – représentées par ChatGPT – doivent fondamentalement être éthiques dès leur conception jusqu’à leur usage et suivi dans le temps, du fait que la responsabilité appartienne à la fois aux concepteurs, aux propriétaires et aux utilisateurs. L’objectif final est d’apporter une garantie de sécurité, de transparence, du sens, et donc de confiance autour du traitement des données numériques au sein des organisations, des entreprises, des institutions, et des territoires. D’ailleurs, vu l’impact que va avoir ChatGPT sur l’avenir du monde professionnel, sur notre liberté de détermination, de jugement et de libre arbitre tant individuelle que sociétale, il devient urgent que ce dernier fasse l’objet d’un audit éthique approfondis ! La balle est désormais dans le camp des dirigeants d’Open AI…
“Les SIA génératives – représentées par ChatGPT – doivent fondamentalement être éthiques dès leur conception jusqu’à leur usage et suivi dans le temps.”
En définitive, les résultats obtenus par ce SIA génératif doivent plutôt être perçus comme un travail préparatoire et non pas comme une fin en soi. A quoi nous sert toutes ces connaissances disponibles en un clic sur Internet, si nous ne savons pas identifier leurs sources, les hiérarchiser et les vérifier les informations ? Si elles ne sont pas mises au profit de valeurs humaines qui lient les personnes entre elles ? C’est pourquoi nous devons orienter l’éducation de nos enfants vers plus d’analyse critique, de recherche méthodologique, de compréhension, de vigilance afin que l’usage qu’ils feront de ChatGPT et de ses homologues soit dans le respect des valeurs humaines et morales de notre société.
Jérôme Béranger
[1] Phénomène qui désigne la tendance à assimiler de manière inconsciente le comportement d’un ordinateur à celui d’un être humain.