Selon un avis consultatif de l’Autorité de la concurrence rendu le 28 juin dernier, les bénéfices de l’IA générative ne se matérialiseront que si l’ensemble des ménages et des entreprises ont accès à une diversité de modèles adaptés à leurs cas d’usage. Il est dès lors essentiel que le fonctionnement concurrentiel du secteur soit “favorable à l’innovation et permette la présence d’une multiplicité d’acteurs“.
L’avis identifie huit risques majeurs freinant le développement du secteur de l’IA. Le premier est lié au principal ingrédient de l’IA qu’est le composant électronique. La dépendance de l’ensemble des acteurs de l’IA est principalement liée à un fournisseur de puces informatiques : Nvidia. L’entreprise offre le “seul environnement parfaitement compatible avec les GPU devenus incontournables pour le calcul accéléré“.
“Les récentes annonces d’investissements de Nvidia dans des fournisseurs de services cloud spécialisés dans l’IA, tels que Coreweave, suscitent également des inquiétudes“, relèvent les experts.
France Digitale, une association représentant startups et investisseurs français du numérique, tire la sonnette d’alarme sur le risque de dépendance. Nvidia décide des approvisionnements, fixe unilatéralement les tarifs et conditions contractuelles, et peut à tout moment adopter un comportement discriminatoire, faisant peser un risque vital sur la filière IA.
Le deuxième risque est lié aux pratiques de verrouillage financier et technique des acteurs du cloud. Les pratiques “semblent perdurer et même s’intensifier afin d’attirer le plus grand nombre de startups actives dans le secteur de l’IA générative“. Les grands acteurs du cloud mettent les innovations à leur merci, avec des offres de crédits cloud particulièrement élevées. Bien que ces pratiques puissent être qualifiées d’abus de position dominante et soient encadrées par la loi n° 2024-449 du 21 mai 2024 et le règlement européen sur les données (Data Act), les grands opérateurs ne semblent pas appliquer les règles.
Le risque d’accès aux données
L’accès aux données qui nourrissent les IA représente également un risque élevé. “Les entreprises innovantes du secteur pourraient être confrontées à des pratiques de refus d’accès ou d’accès discriminatoire de la part d’entreprises disposant d’un accès significatif aux données, comme, par exemple, un index web“, résument les auteurs de l’avis. Sans ce carburant, les acteurs dépendants peuvent disparaître à tout moment. L’accès aux données des utilisateurs pose aussi question. Selon l’avis, “plusieurs acteurs rapportent que les grandes entreprises du secteur continuent d’utiliser diverses stratégies pour limiter l’accès des tiers aux données de leurs utilisateurs, en faisant un usage abusif de règles juridiques, comme la protection des données personnelles, ou encore de préoccupations de sécurité“.
L’utilisation non autorisée de contenus produits par les éditeurs soulève de grandes inquiétudes. Le non-respect des droits de propriété intellectuelle et d’abus d’exploitation est contraire à des pratiques loyales.
Le manque de main-d’œuvre qualifiée et à son accès est également pointé du doigt. Certaines pratiques comme l’instauration d’accords de non-débauchage, bien qu’anticoncurrentielles, sont présentes. Une autre préoccupation est liée au recrutement massif d’employés de startups ou d’employés occupant des fonctions stratégiques, ce qui peut exclure des concurrents.
Les modèles en accès libre représentent un frein également. Dans certains cas, la réutilisation des modèles, leur accès et leurs composants peuvent verrouiller les utilisateurs par leur dépendance.
Mentionnés, les risques liés à la présence d’entreprises sur plusieurs marchés distincts. “L’intégration verticale de certains acteurs du numérique et leurs écosystèmes de services sont susceptibles de donner lieu à plusieurs pratiques abusives“. Les développeurs pourraient avoir des accès limités à des puces ou des données nécessaires pour entraîner des modèles de fondation concurrents, entraînant des modèles moins performants.
“Les entreprises détenant des positions prééminentes ou dominantes sur des marchés connexes à l’IA pourraient lier la vente de ces produits ou services à celle de leurs propres solutions d’IA. L’intégration d’outils d’IA générative sur certains supports, comme les smartphones, suscite notamment des inquiétudes“, expliquent les auteurs. Les concurrents en aval pourraient être lésés par des pratiques d’autopréférence de la part d’acteurs verticalement intégrés, affectant la capacité des développeurs de modèles non intégrés verticalement à les concurrencer.
Les prises de participation minoritaires et partenariats des géants du numérique soulèvent également des risques. Les quelques grands acteurs qui disposent des capacités financières pour travailler avec des structures innovantes ou prendre des participations disposent d’un avantage certain. Certaines opérations devraient être soumises à une autorisation préalable pour assurer le droit des ententes ou éviter l’abus de position.
Enfin, les dangers de pratiques concertées d’utilisation de l’IA générative peuvent être considérés comme une entente visant un blocage du marché. L’utilisation parallèle d’algorithmes distincts ou de l’apprentissage automatique pouvant apprendre par eux-mêmes et converger vers une situation de collusion.
10 recommandations pour libérer le marché
Dès lors, comment libérer les potentialités de l’IA détenue par quelques très puissants acteurs ? L’Autorité de la concurrence propose 10 recommandations à l’échelle française ou européenne pour doper la concurrence et tenter de combler le retard du vieux continent en la matière.
L’Autorité invite la Commission européenne à porter une attention particulière au développement des services Mobility as a Service (MaaS) pour évaluer la possibilité de désigner les entreprises fournissant de tels services en tant que contrôleurs d’accès.
La deuxième préconisation concerne la mise en œuvre des dispositions de la loi SREN sur les avoirs d’informatique en nuage. La DGCCRF pourrait accorder une attention particulière à l’utilisation de ces avoirs dans le domaine de l’IA.
Il est aussi question de la création du futur Bureau de l’IA, mis en place à l’article 64 du règlement sur l’IA, et la désignation de l’autorité nationale compétente en France, en application de l’article 70 du règlement sur l’IA. Ils devront s’assurer que la mise en œuvre du règlement ne freine pas l’émergence ou l’expansion d’opérateurs de taille plus modeste et que les plus grands acteurs du secteur ne détournent pas le texte à leur avantage.
L’avis demande la vigilance des autorités chargées de la régulation concurrentielle des marchés dans le secteur de l’IA générative. Elles devront mobiliser, si nécessaire, l’ensemble des outils à leur disposition pour agir de manière rapide et efficace. Il invite aussi à poursuivre les investissements dans le développement des supercalculateurs au niveau européen, pour permettre au plus grand nombre d’acteurs d’accéder à la puissance de calcul.
La sixième proposition demande au gouvernement et/ou aux sociétés assurant la gestion des supercalculateurs d’engager une réflexion afin de proposer un cadre ouvert et non discriminatoire permettant à des acteurs privés d’utiliser les ressources des supercalculateurs publics contre rémunération, tout en conservant la priorité aux recherches académiques.
En lien avec l’AI Act, il est question par ailleurs de fixer des critères d’ouverture des modèles d’IA génératives entraînés sur des supercalculateurs publics.
La huitième proposition invite les autorités publiques, notamment dans le cadre de la mission confiée par la ministre de la Culture au Conseil supérieur de la propriété littéraire et artistique, d’inciter les ayants droit à tenir compte de la valeur économique des données selon les cas d’usage (en introduisant par exemple des prix différenciés), et à proposer des offres groupées réduisant les coûts de transaction afin de garantir les capacités d’innovation des développeurs de modèles.
La neuvième proposition vise à faciliter la mise à disposition des données de la sphère publique et privée pour l’entraînement ou le réglage fin de modèles d’IA générative, et encourager les initiatives publiques ou privées visant à diffuser les données francophones, qu’il s’agisse de textes, d’images ou de vidéos.
La dernière demande qu’à l’occasion de l’obligation d’information des concentrations prévue à l’article 14 du DMA, la Commission puisse également réclamer, dans le modèle relatif à l’article 14 du règlement sur les marchés numériques, des informations sur les participations minoritaires détenues dans le même secteur d’activité que la cible.
Patrice Remeur