AVIS D’EXPERT – L’enthousiasme suscité par l’IA est à son comble et la demande est énorme. Mais, au-delà du battage médiatique, certaines voix s’élèvent pour exprimer leur inquiétude. L’introduction, assez simple, de biais suscite l’inquiétude dans certains cercles. Lori MacVittie, ingénieure émérite chez F5 cherche à savoir comment cela se passe et pourquoi le secteur informatique devrait s’en soucier.
Pour comprendre comment les biais sont intégrés à l’IA, il est nécessaire de comprendre en gros comment les modèles d’IA sont formés. Selon la personne interrogée et le degré de pédantisme qu’elle veut afficher, les réponses sur le nombre de méthodes d’apprentissage diffèrent. Effectivement, les méthodes, les algorithmes et les modèles utilisés de nos jours sont extrêmement diversifiés, et dans de nombreux cas, échappent à la compréhension de ceux qui ne sont pas directement impliqués dans le domaine. Cependant, il est crucial de comprendre, de manière générale, le processus de formation des modèles, car c’est ainsi que les biais sont induits. Dans cette optique, il existe trois méthodes de base pour former les modèles d’IA :
- Apprentissage encadré. Des étiquettes spécifiques sont attribuées aux données pour indiquer leurs caractéristiques ou leur catégorie. Le système utilise ces données étiquetées et sa formation pour prédire les valeurs d’autres entrées. Il existe deux principaux types d’algorithmes. Le premier est la classification, où les données sont regroupées en catégories sur la base d’attributs tels que la couleur, la taille et la forme. Les exemples incluent la reconnaissance d’images, la détection de spam et le filtrage d’e-mails. Le second type d’algorithme utilise la régression mathématique pour identifier des modèles qui suivent une relation linéaire entre les données d’entrée et les données de sortie. La sortie est généralement déterminée de manière externe, comme les mesures météorologiques du monde réel. Les analyses de marché et les prévisions météorologiques utilisent souvent cette méthode.
- Apprentissage non supervisé. Dans l’apprentissage non supervisé, le système fonctionne sans aucune indication explicite sur la nature des données et se voit présenter des informations non étiquetées. Sa tâche consiste à découvrir de manière autonome des modèles et des relations au sein des données pour établir des prédictions. Les algorithmes d’apprentissage non supervisé utilisent deux techniques principales : le regroupement et l’association. Le regroupement consiste à grouper des données sur la base de similitudes, dans le but de créer des groupes distincts où les données de chaque groupe partagent des caractéristiques communes tout en étant différentes de celles des autres groupes. On peut citer comme exemple de regroupement l’analyse du comportement d’achat des clients. L’association, quant à elle, se concentre sur la recherche de relations ou de dépendances entre différents points de données. Cette technique vise à identifier des modèles de cooccurrence ou de corrélation plutôt qu’à établir des liens de causalité. L’association est fréquemment utilisée dans l’exploration de l’utilisation du web. Il est important de noter que les algorithmes d’apprentissage non supervisé révèlent des associations ou des modèles qui coïncident mais n’établissent pas de relations de cause à effet, ce qui les distingue des méthodes d’apprentissage supervisé qui peuvent prédire la cause et l’effet.
- Apprentissage par renforcement. L’apprentissage par renforcement peut être considéré comme une combinaison de formation supervisée et non supervisée, dans le but d’atténuer les inconvénients des deux approches. Dans cette méthode d’apprentissage, les systèmes reçoivent des données non étiquetées et sont encouragés à explorer et à interagir avec leur environnement. Ils reçoivent des récompenses positives ou négatives en fonction de leurs résultats, ce qui permet au système d’apprendre et d’améliorer son processus de prise de décision. L’apprentissage par renforcement ressemble beaucoup à la façon dont les humains apprennent, car nous recevons souvent un retour d’information et un renforcement par le biais de questionnaires et de tests dans le cadre du processus éducatif. Les applications courantes de l’apprentissage par renforcement comprennent les jeux vidéo, la robotique et l’exploration de textes.
Comment le biais algorithmique s’insinue dans l’IA
La réponse tient au fait que les humains sont fréquemment engagés dans le processus de formation. Une méthode simple pour introduire un biais dans l’apprentissage supervisé consiste à manipuler les étiquettes des données. En étiquetant mal les données, par exemple en catégorisant un « chien » comme un « chat », on risque de générer des classifications incorrectes à grande échelle. Cela représente un danger particulier lorsque des erreurs d’étiquetage intentionnelles se produisent, dans le but de corrompre les résultats du processus d’apprentissage. Les erreurs d’étiquetage peuvent être dues à un jugement humain subjectif, par exemple lorsqu’il s’agit de déterminer si une panthère doit être classée dans la catégorie des chats ou si une statue de chat doit être considérée comme un chat. Dans le cas de l’apprentissage par renforcement, il y a un risque : accorder des récompenses positives à des réponses ou à des mouvements incorrects dans un jeu pourrait conduire au développement d’un système qui produit intentionnellement des réponses incorrectes ou qui perd systématiquement. Et ça, ça peut être une option séduisante pour certaines personnes. Il est certain que les implications des biais s’étendent également aux modèles d’IA conversationnelle tels que ChatGPT. Selon les informations fournies par OpenAI, ChatGPT a fait l’objet d’un apprentissage supervisé et d’un apprentissage par renforcement au cours de son processus de mise au point, et des formateurs humains ont participé à l’amélioration de ses performances. Lorsque les utilisateurs utilisent les options de classement ” up ” ou ” down ” pour évaluer les réponses, ces données peuvent potentiellement être utilisées pour affiner le modèle. En réalité ChatGPT se trompe souvent dans ses réponses. Les commentaires sont nécessaires pour former davantage le système afin qu’il puisse générer plus souvent la bonne réponse. Voilà qui est intéressant (et on peut avoir plusieurs débats sur la manipulation potentielle des systèmes d’IA et leurs conséquences), mais la vraie raison pour laquelle il faut explorer ce sujet c’est que le problème des biais s’étend à la télémétrie, aux données opérationnelles nécessaires pour piloter l’automatisation des systèmes et des services qui délivrent et sécurisent les services numériques.
IA, biais algorithmique et télémétrie
Lorsqu’il s’agit d’analyser la télémétrie, l’approche dominante consiste à former des modèles à l’aide de données étiquetées. Cependant, un biais peut s’infiltrer dans le système par différents moyens : (a) mauvais étiquetage des données, (b) manque de diversité suffisante au sein de catégories de données spécifiques, ou (c) la méthode utilisée pour introduire de nouvelles données. Le mauvais étiquetage des données est problématique car il peut conduire à des erreurs d’identification importantes lorsqu’il se produit à grande échelle. Le problème de la diversité limitée des données est que toutes les données qui sortent du cadre étroit de l’ensemble de formation sont susceptibles d’être classées de manière inexacte. Pour illustrer ce problème, on peut citer le cas d’un modèle d’intelligence artificielle entraîné à distinguer les chars d’assaut des autres moyens de transport. Cependant, il s’est avéré que toutes les images de chars d’assaut avaient été prises de jour, alors que les images d’autres véhicules avaient été prises à des heures différentes. Par conséquent, le modèle d’IA a excellé à différencier les chars des autres objets, mais il a essentiellement corrélé la présence de chars avec la lumière du jour plutôt qu’avec leurs caractéristiques réelles. Le manque de diversité de l’ensemble des données d’entrée a conduit à une corrélation partiale apprise par le modèle. Même dans le cas de systèmes d’IA opérationnels qui utilisent l’apprentissage par renforcement, l’absence de données diversifiées représente un défi. Sans un large éventail de variables et d’entrées, le système peut ne pas disposer des informations nécessaires pour prendre des décisions déterminer le prochain mouvement, en quelque sorte. La raison derrière le manque de diversité des données ou les variables manquantes dans un système d’IA peut être attribuée à la distorsion des données, en particulier à la surveillance sélective. Cette pratique consiste à ingérer et à analyser que certaines données télémétriques et à en exclure d’autres. Ce biais dans la sélection des données peut avoir des implications significatives. On sait par exemple que l’impact des performances du Domain Name System (DNS) sur l’expérience de l’utilisateur est bien connu. Mais si un modèle est conçu pour analyser les performances d’une application sans télémétrie DNS, il pourra prétendre que les performances sont satisfaisantes même s’il y a un problème avec le DNS, parce qu’il ignore totalement que le DNS est lié de quelque manière que ce soit aux performances de bout en bout de l’application. La prochaine étape consistera à alerter quelqu’un de la dégradation des performances, mais le système ne fonctionnera pas à cause d’une distorsion dans la sélection des données. Par conséquent, même si les entreprises s’engageaient pleinement à exploiter l’IA pour piloter les décisions opérationnelles, elles seraient confrontées à un défi. L’absence d’un ensemble de données diversifiées pour former un tel système augmente la probabilité que des biais apparaissent dans l’équation. Une troisième façon d’introduire des parti-pris réside dans les méthodes utilisées pour introduire des données dans le modèle. L’exemple opérationnel le plus courant concerne l’utilisation des résultats des tests synthétiques pour déterminer la performance moyenne d’une application, puis l’utilisation du modèle obtenu pour analyser le trafic réel. Compte tenu de l’étendue des lieux, des appareils, de la saturation du réseau, etc. qui constituent l’ensemble de données des tests synthétiques, des performances parfaitement acceptables pour les utilisateurs réels peuvent être considérées comme un échec, ou vice versa.
Le risque de la transformation numérique
Le risque potentiel réside dans la diminution de la confiance envers la capacité de la technologie à servir de multiplicateur de force, pour permettre aux entreprises d’atteindre l’échelle et l’efficacité requises pour fonctionner comme une entreprise numérique. En effet, si l’IA continue à donner de “mauvaises” réponses ou à suggérer de “mauvaises” solutions, personne ne lui fera plus confiance. C’est pourquoi la capacité d’observation full-stack n’est pas seulement importante, mais l’une des six capacités techniques clés dont les entreprises ont besoin pour progresser vers la troisième phase de la transformation numérique : des entreprises assistées par l’IA. Les données manquantes, qu’elles soient dues à une surveillance sélective ou à une curation d’opinion des métriques, ont le potentiel de biaiser les modèles d’IA utilisés pour piloter les décisions opérationnelles. Une attention particulière aux sources et aux types de données, associée à une stratégie complète en matière de données et d’observabilité, contribuera grandement à éliminer les biais et à produire des résultats plus précis … et fiables.