Accueil 5 défis liés à la mise en œuvre de l'IA dans le...

5 défis liés à la mise en œuvre de l’IA dans le domaine de l’automatisation

Jakob Freund chez Camunda

La mise en œuvre de l’IA dans les flux de travail d’automatisation et d’orchestration des processus a un énorme potentiel de stimulation de l’efficacité, de l’efficience des processus et des résultats de l’entreprise. Toutefois, les applications de l’IA dans le monde réel impliquent certains défis, risques et avantages. Au-delà des menaces existentielles plus profondes identifiées par certains leaders de l’IA – ce qui est un thème de conversation entièrement différent – certaines considérations commerciales pratiques ne doivent pas être négligées avant d’ajouter l’IA à votre pile technologique d’hyperautomatisation.

Cependant, avec l’expertise, les partenariats et la supervision humaine appropriés, les systèmes d’IA peuvent être incroyablement efficaces dans un contexte d’automatisation. Voyons maintenant quelques-uns des principaux défis liés à la mise en œuvre de l’IA dans l’automatisation, et comment les résoudre.

  1. Disponibilité de données compatibles avec l’apprentissage automatique

Ce problème peut sembler simple, mais en réalité la préparation des données pour un modèle d’apprentissage automatique constitue un énorme défi. Les experts et les ingénieurs en science des données consacrent généralement 80 % de leurs efforts à la préparation des données. Sans données propres conçues pour l’IA, il est impossible d’entraîner un modèle d’IA et le rendre opérationnel. Malheureusement, les échecs sont trop fréquents. Gartner a constaté que 85 % des projets d’IA n’aboutissent pas, et que seulement 53 % d’entre eux passent du stade du prototype à celui de la production. De nombreuses entreprises proposent des ensembles de données compatibles avec l’apprentissage automatique à des fins d’automatisation, comme les données d’exécution des processus utilisées pour l’amélioration continue des modèles de processus. Ces données accélèrent le temps d’apprentissage et réduisent considérablement les efforts exigés la fois par les experts et les ingénieurs en science des données. Il est essentiel que des collaborateurs d’un tel niveau puissent consacrer leur temps à d’autres tâches, car ils sont souvent peu nombreux et extrêmement demandés.

  1. Problèmes de précision et biais dans les modèles

Dans l’IA, la précision et les biais sont deux problèmes critiques, mais récurrents, qui nécessitent une supervision humaine. Par exemple, les applications d’IA générative sont sujettes aux hallucinations, c’est-à-dire qu’elles inventent des faits sur la base de leur ensemble de données d’apprentissage. Dans le même ordre d’idées, des ensembles de données biaisés introduits dans un modèle d’apprentissage automatique peuvent produire des résultats biaisés. Si une entreprise de services financiers utilise un système automatisé piloté par l’IA pour accepter ou rejeter des demandes de crédit, par exemple, il est indispensable d’éviter les biais systémiques bien documentés, centrés sur les femmes ou les personnes de couleur, pouvant être présents dans l’ensemble de données d’apprentissage. À mesure que nous progressons vers la prise de décision pilotée par l’IA, les humains doivent impérativement rester dans la boucle et vérifier les résultats générés par les algorithmes d’apprentissage automatique afin d’éviter les biais et autres formes d’inexactitude. La présence continue de responsables humains dans la boucle est une exigence incontournable pour réapprendre aux algorithmes à fonctionner plus efficacement dans un environnement de production.

  1. Sécurité

De nombreux modèles de langage et autres modèles d’apprentissage automatique ont été formés à l’aide d’un corpus massif de données en ligne générées par les utilisateurs d’Internet. Par exemple, les avis d’Amazon et de Yelp accessibles au public servent à entraîner les algorithmes d’analyse des sentiments.  Dans un contexte d’entreprise, l’utilisation de modèles accessibles au public comme ChatGPT peut présenter un risque pour les données sensibles telles que les informations personnelles identifiables (PII) ou la propriété intellectuelle. Pendant toute utilisation de ces outils, les politiques de l’entreprise en matière de sécurité des données lors de l’utilisation de ces outils doivent être impérativement respectées. Pour éviter ce genre de problèmes, de nombreuses entreprises développent leurs propres modèles d’apprentissage automatique basés sur des ensembles de données internes. Elles réduisent ainsi le risque que les données de l’entreprise tombent entre de mauvaises mains.

  1. Risques juridiques

La réglementation de l’IA est une question d’actualité à l’échelle mondiale. Le domaine juridique continue d’être façonné par les technologies émergentes, y compris l’IA générative. Par exemple, nombreux sont ceux qui ont soulevé des questions de droit d’auteur concernant l’utilisation de textes et d’images générés par l’IA. Dans le monde de l’open source, les générateurs de code automatisés ont suscité des inquiétudes concernant l’octroi de licences. Certains des principaux problèmes résident dans le manque de traçabilité des systèmes d’IA générative. En d’autres termes, il est difficile de savoir d’où vient le code et comment l’attribuer à son créateur original. Si les entreprises utilisent des générateurs de code automatisés pour développer du code destiné aux modèles de processus, par exemple, il est préférable de procéder avec prudence lorsqu’il s’agit d’entrer du code propriétaire ou d’exploiter des logiciels libres.

 

  1. Maturité

Certaines technologies, comme les systèmes d’intelligence augmentée qui automatisent la prise de décision, ne sont peut-être pas encore tout à fait opérationnelles. Elles nécessitent souvent des ensembles de données mixtes provenant de sources multiples pour prendre des décisions efficaces. De nombreuses équipes n’ont pas la capacité d’utiliser ces systèmes en production, que ce soit en raison de ressources limitées ou d’un manque de données d’entraînement applicables.  Toutefois, à mesure que les entreprises gagnent en maturité et peuvent utiliser l’intelligence augmentée dans un cadre supervisé par des humains, ces systèmes deviendront plus efficaces pour automatiser certaines décisions. Ces systèmes peuvent contribuer à améliorer les flux de travail humains, permettant aux employés de répartir leur temps de manière plus efficace.

Si ces défis doivent certainement peser dans la décision de mise en œuvre de l’IA, ils ne doivent pas inhiber la volonté d’expérimentation de l’entreprise. Lorsqu’elle est associée à l’orchestration des processus, l’IA apporte un potentiel d’augmentation des niveaux d’automatisation. Par conséquent, elle peut améliorer les opérations commerciales et l’expérience client. De l’amélioration continue des processus à l’automatisation des décisions, en passant par l’augmentation ou l’accélération des flux de travail humains, les possibilités de l’IA dans ce secteur sont passionnantes et illimitées.