Accueil Intelligence artificielle Google suspend la création d’images de personnes sur son outil d’IA Gemini...

Google suspend la création d’images de personnes sur son outil d’IA Gemini après des “problèmes”

(AFP) – Google a annoncé jeudi suspendre la créationd’images de personnes sur son outil d’intelligence artificielle générative Gemini, à la suite de “problèmes récents” concernant cette fonctionnalité.
 

Le géant de l’informatique avait lancé début février aux Etats-Unis ce nouveau logiciel, qui n’est pas encore disponible en Europe. Des critiques ont depuis émergé sur les réseaux sociaux pour pointer des inexactitudes concernant certaines images créées, notamment en matière de genre et de diversité pour des sujets historiques.

En l’occurrence, plusieurs utilisateurs ont relevé sur X (ex-Twitter) que Gemini semblait sous-représenter les personnes blanches dans les images générées. Parmi celles-ci, plusieurs internautes ont publié une requête sur un soldat allemand de 1943, donnant lieu à des images de militaires asiatiques ou à la peau noire.
“Nous nous efforçons de résoudre les problèmes récents liés à la fonctionnalité génération d’images de Gemini. Dans l’intervalle, nous allons suspendre la génération d’images de personnes et nous rendrons bientôt disponible une version améliorée de cette fonctionnalité“, a expliqué Jack Krawczyk, directeur de produit chez Google en charge de Gemini, dans une déclaration transmise à l’AFP. “La génération d’images par l’IA de Gemini donne lieu à un vaste éventail de personnes. Et c’est généralement une bonne chose car les gens l’utilisent à travers le monde. Mais nous avons raté notre coup dans le cas présent“, a insisté Google sur X.

Dans une réaction publiée sur ce même réseau social, dont il est le propriétaire, Elon Musk a pour sa part publié une image où il fait une distinction entre d’une part son propre projet d’outil IA, assimilé à “la recherche maximale de la vérité“, et d’autre part Gemini et le créateur de ChatGPT, OpenAI, qu’il taxe de “racistes” et de “woke“.