Voici quelques tendances, non exhaustives, qui vont marquer l’année et celles à venir selon les experts.
La compréhension du langage naturel…
La startup Ponicode relève que d’importants projets ont été lancés à travers le monde ces dernières années autour du traitement du langage naturel. « L’un des plus connus est Open AI, dont Elon Musk est membre. Les résultats les plus récents du NLP produits par Open AI permettent aujourd’hui d’imaginer des applications à forte valeur ajoutée dans tous les secteurs et dans de nombreux aspects de la vie quotidienne. »
« GPT-3 est le plus gros modèle de langage jamais entraîné et développé par la société Open AI. Dévoilé en mai 2020, il permet à l’IA de comprendre et traduire la sémantique du texte. GPT-3 peut réagir au texte, le modifier, le prévoir. »
Les applications du GPT-3 vont changer le monde, prédit la startup, qui assure qu’à l’avenir, « les réseaux de neurones seront capables de maîtriser une sémantique beaucoup plus complexe, le sens des mots, des phrases, la grammaire et même l’arithmétique. Une machine sera capable d’écrire des phrases grammaticalement correctes en contrôlant la sémantique contextuelle comme le fait un humain. »
« Le succès du machine learning et sa percée fulgurante dans notre quotidien nous donne à penser que cette technologie est le futur de l’intelligence artificielle. Dans les faits, les résultats sont plus mitigés », explique Alain Biancardi, Vice Président Sales & Marketing chez expert.ai. Les résultats sont beaucoup moins probants dès que cette technologie traite des fonctions plus complexes engageant un lien avec une compréhension du langage naturel. Le principe de fonctionnement du machine learning est avant tout statistique, rappelle-t-il. Or le langage ne se comprend pas de manière statistique. « Le sens est produit à partir de la connaissance. Pour qu’une intelligence artificielle puisse produire du sens, il est nécessaire de disposer d’ensembles de données structurées de manière adéquate et de taille conséquente. »
L’apprentissage par renforcement profond des réseaux de neurones
Ponicode est persuadé que l’apprentissage par renforcement profond des réseaux de neurones est une tendance importante. « Aujourd’hui, des réseaux de neurones sont utilisés pour l’apprentissage par renforcement profond. C’est un processus très puissant car nous ne disons pas à la machine d’estimer quelque chose, nous lui disons de maximiser une récompense. Nous commençons à voir l’apprentissage par renforcement être utilisé dans les systèmes de recommandation. Cela signifie que l’algorithme fait des suggestions à l’utilisateur en fonction de son profil et de ses interactions avec le site, puis il est soit récompensé soit pénalisé en fonction de son comportement réel, suite à ces suggestions. La machine commence donc à apprendre d’elle-même. »
Cette application de l’apprentissage par renforcement dans les systèmes de recommandation suscite de plus en plus d’intérêt que ce soit dans l’économie de l’IA ou dans le monde académique, remarque la startup.
La rentabilité des projets d’IA, condition sine qua non de leur développement
Charles Goillandeau, Partner Data & Performance de Quantmetry, explique : « Aujourd’hui, nous constatons que la recherche de résultats tangibles prime plus sur la démonstration d’innovation purement scientifique. La notion de retour sur investissement sera encore plus importante en 2021 compte tenu des enjeux financiers pour de nombreuses entreprises. Il ne suffira plus de réaliser une analyse de données et d’entraîner des modèles “in vitro”, mais bien de démontrer un gain substantiel et de le mesurer en conditions réelles d’utilisation “in vivo”. Cet enjeu de performance va impliquer des organisations data mieux structurées avec l’intervention d’équipes projets encore plus pluridisciplinaires qu’elles ne le sont aujourd’hui, en clarifiant également les rôles et responsabilités entre entités Data et IT. »