Propulsée sur le devant de la scène fin 2022 avec le buzz autour de ChatGPT, l’intelligence artificielle révolutionne la manière dont les entreprises fonctionnent, car elle offre des opportunités sans précédent d’efficacité et d’innovation. De la génération de contenus à l’automatisation des interactions avec les clients, le potentiel de l’IA semble illimité. Pourtant, elle donne parfois l’impression de naviguer dans un rêve étrange et déroutant…
Ryan Welsh, Field CTO Gen AI chez Qlik, se penche sur la question des hallucinations de l’IA pour les lecteurs de Solutions numériques & cybersécurité.
Les hallucinations de l’IA, ces réponses incorrectes ou créées de toute pièce, mais exprimées de manière convaincante, sont le cauchemar des professionnels qui aspirent à une précision absolue dans les réponses fournies par leurs systèmes d’IA. Pourquoi ces modèles en viennent-ils à dérailler ainsi ? Est-ce simplement une erreur dans les données, le fameux adage « garbage in garbage out » ? Ou un manque d’intervention humaine ?
Bug ou feature ?
Pour les entreprises en phase d’adoption et de déploiement de l’IA générative, les hallucinations sont devenues un sujet de préoccupation. Alors, comment faire pour les éliminer ? En réalité, même en fournissant des données parfaitement correctes ou en mettant en place une intervention humaine pour tester le système avant son déploiement ou vérifier la réponse (le fameux « human-in-the-loop »), un LLM (Large Langage Model) continuera d’halluciner, bien que ces mesures puissent réduire leur fréquence.
Mais alors pourquoi les hallucinations persistent-elles ? Premièrement, ces modèles sont créés pour répondre à des tâches multiples, contrairement à l’apprentissage automatique traditionnel où un modèle très ciblé est conçu pour un cas d’usage spécifique. Cette polyvalence, bien que puissante, peut parfois conduire à des résultats moins fiables dans un domaine donné. Les LLM utilisent également une approche probabiliste pour déterminer le prochain mot à taper. Le modèle prend en compte un large éventail de possibilités, en attribuant des probabilités plus élevées aux mots qui s’intègrent mieux dans le contexte. Cela peut parfois conduire à des choix de mots inattendus ou incorrects, en particulier dans les cas extrêmes ou les contextes ambigus.
En outre, même avec des données d’entrée de haute qualité, les réponses sont basées sur les modèles des données d’apprentissage, qui peuvent ne pas couvrir tous les scénarios possibles et contenir des biais. Enfin, la difficulté de transposer les connaissances humaines et les nuances linguistiques dans un modèle mathématique contribue au risque de malentendus ou d’interprétations erronées.
Les progrès récents ont rendu les systèmes d’IA capables de reconnaître qu’ils ne disposent pas d’informations suffisantes pour répondre à une question ou qu’ils sont incertains. Toutefois, dans certains cas, ces systèmes peuvent encore générer des informations plausibles, mais incorrectes, surtout s’ils ne sont pas correctement configurés ou s’ils sont poussés au-delà de leurs capacités.
Pour les entreprises, les enjeux restent élevés, car lorsque les employés ou les clients reçoivent des informations fausses, les conséquences peuvent aller du simple inconvénient à des pertes financières significatives.
L’opportunité dans la difficulté
En effet, l’idée d’une IA qui hallucine peut sembler contraire à l’efficacité et à la fiabilité recherchées. Un exemple notable est celui d’Air Canada, où un chatbot a fourni des informations erronées à un client cherchant à obtenir une réduction pour cause de deuil. Le chatbot a affirmé que la réduction pouvait être obtenue après le vol, contrairement à la politique réelle de la compagnie aérienne qui exigeait que la demande soit faite avant le vol. Dans ce cas précis, bien que la compagnie aérienne ait mis en place des mesures initiales pour prévenir les hallucinations, le modèle a puisé dans les connaissances génériques plutôt que dans la documentation à laquelle il est contraint, et il a donc créé une réponse en conflit avec la politique actuelle.
Cependant, dans certains cas, les hallucinations de l’IA peuvent paradoxalement offrir des avantages insoupçonnés. Pour l’humain, la créativité ne se limite pas seulement à la récupération des informations, mais à combiner et à étendre les connaissances existantes, ce qui est similaire à l’hallucination d’une IA. Ainsi, dans des domaines où la créativité et l’innovation sont valorisées, une IA qui sort des sentiers battus pour proposer des idées inattendues peut être perçue comme un atout précieux.
Par exemple, dans la création de contenu marketing, la rédaction d’emails pour les commerciaux ou même l’élaboration de concepts artistiques, une touche d’imprévisibilité et d’inventivité peut inspirer et séduire. Alors, comment trouver l’équilibre entre précision et créativité pour les entreprises.
Un exercice d’équilibriste
Puisqu’une hallucination peut entraîner une perte financière substantielle ou ternir la réputation d’une entreprise, il est indispensable de mettre en place des mesures draconiennes pour les prévenir. Mais quand le risque est minime et que les avantages potentiels en termes de créativité sont élevés, une tolérance mesurée peut être justifiée.
Les entreprises doivent donc adopter une approche basée sur les cas d’usage et instaurer des garde-fous pour minimiser les erreurs critiques tout en préservant une certaine flexibilité créative là où elle peut être bénéfique. Pour les cas d’usage où les hallucinations sont inacceptables, les stratégies suivantes peuvent être envisagées : l’implémentation de la technique RAG (Retrieval Augmented Generation), l’utilisation d’outils de fact-checking et de validation du système, l’ajustement des paramètres du modèle d’IA selon les besoins spécifiques, le déploiement d’un système « human-in-the-loop » et, enfin, la mise à jour et l’affinement réguler des modèles d’IA.
En définitive, l’implémentation de l’IA dans les entreprises doit être guidée par une compréhension approfondie des contextes d’application et une stratégie claire pour gérer les risques. Il est essentiel de communiquer de manière transparente avec les utilisateurs finaux et les parties prenantes sur les capacités et les limites de l’IA. Pour ce faire, il faut inclure des explications sur les potentialités d’hallucination et les mesures de contrôle en place. En partant du postulat que les hallucinations peuvent être une partie intégrante et parfois bénéfique de la technologie, les entreprises peuvent exploiter l’IA de manière optimale, en oscillant entre précision et créativité selon les besoins de chaque situation. L’objectif reste de maximiser les avantages de l’IA tout en minimisant ses risques, par une approche flexible et évolutive. Ce faisant, les entreprises peuvent exploiter la puissance de l’IA pour stimuler l’innovation et l’efficacité, tout en conservant la confiance de leurs clients et parties prenantes.