résoudre”.
Des réponses erratiques ou incompréhensibles
“Il génère des mots totalement inexistants, omet des mots et produit des séquences de petits mots-clés qui me sont inintelligibles, entre autres anomalies“, a-t-il relaté. “On pourrait penser que j’ai spécifié de telles instructions, mais ce n’est pas le cas. J’ai l’impression que mon GPT est hanté (…)“.
Un autre utilisateur, “scott.eskridge”, s’est plaint sur ce même forum que toutes ses conversations avec le modèle de langage “se transforment rapidement en grand n’importe quoi depuis trois heures”. Il a copié un extrait d’une des réponses de l’interface : “L’argent pour le bit et la liste est l’un des étrangers et l’internet où la monnaie et la personne du coût est l’un des amis et la monnaie. La prochaine fois que vous regarderez le système, l’échange et le fait, n’oubliez pas de donner.”
Un “signal d’alarme“
OpenAI a expliqué mercredi qu’une “optimisation de l’expérience utilisateur” avait “introduit un bug dans la manière dont le modèle traite le langage“. “Les modèles de langage génèrent des réponses en échantillonnant des mots de manière aléatoire, en partie sur la base de probabilités“, a souligné l’entreprise, avant de donner plus détails techniques et de conclure que l’incident a été “résolu” après “l’installation d’un correctif”.
OpenAI appelle que l’IA, même générative, n’a pas de conscience ni de compréhension de ce qu’elle “dit“. Gary Marcus, spécialiste de l’IA, espère que l’incident sera perçu comme un “signal d’alarme“. “Ces systèmes n’ont jamais été stables. Personne n’a jamais été en mesure de mettre au point des garanties de sécurité autour de ces systèmes“, a-t-il écrit dans sa newsletter mardi. “Le besoin de technologies totalement différentes, moins opaques, plus interprétables, plus faciles à entretenir et à déboguer – et donc plus faciles à mettre en œuvre – reste primordial”, a-t-il ajouté.