Accueil Intelligence artificielle Intel: des processeurs dopés pour l’IA, et un partenariat avec le moteur...

Intel: des processeurs dopés pour l’IA, et un partenariat avec le moteur de recherche d’Alibaba

Rendre l’IA plus accessible et plus évolutive pour les développeurs

Ce 27 octobre, à l’occasion de son premier événement Intel Innovation, Intel est revenu à ses racines de développeur, en soulignant le renouvèlement d’un engagement envers la communauté et une approche privilégiant les développeurs dans les logiciels et le matériel. Les annonces portent sur de nouveaux produits, des outils de développement et des technologies.

Les importants investissements d’Intel dans l’écosystème des développeurs ouvrent la voie à la généralisation de l’IA. Intel a rendu l’IA plus accessible et plus évolutive pour les développeurs grâce à des optimisations poussées de bibliothèques et de frameworks sur les processeurs Intel Xeon Scalable. L’investissement d’Intel dans plusieurs architectures d’IA est mis en place pour pouvoir répondre aux diverses exigences des clients. En utilisant un modèle de programmation ouvert et basé sur des normes, les développeurs peuvent ainsi exécuter plus facilement de plus importantes charges de travail d’IA et cela, dans plus de cas d’application.

De nombreuses organisations de premier plan dans le monde s’appuient sur l’IA d’Intel pour résoudre des tâches complexes, comme en témoignent les annonces d’aujourd’hui.

  • Le superordinateur Aurora de l’Argonne National Laboratory dépassera les 2 exaflops de performance de pointe : Le superordinateur Aurora, conçu en collaboration, est équipé de processeurs Intel Xeon Scalable de nouvelle génération (nom de code Sapphire Rapids), de GPU Intel de nouvelle génération (nom de code Ponte Vecchio) et dépassera les deux exaflops de performance de calcul en double précision. Aurora est conçu pour gérer des charges de travail de calcul haute performance, d’IA/ML et d’analyse de données volumineuses. L’Argonne National Laboratory est un laboratoire national du ministère américain de l’énergie. Il est à la pointe des efforts déployés par le pays pour fournir les futures capacités de calcul exascale.
  • L’IA d’Intel alimente le moteur de recommandation d’Alibaba : Alibaba et Intel se sont associés pour créer un module de bout en bout appelée DeepRec, afin de faciliter et développer le deep learning et le déploiement de systèmes de recommandation – une charge de travail qui consomme une part importante de tous les cycles d’IA dans les centres de données cloud et qui a des besoins divers en matière de calcul, de mémoire, de bande passante et de réseau. Les développeurs de DeepRec peuvent facilement charger et mettre à jour les modèles, traiter les couches d’intégration, exploiter les zoos de modèles existants et déployer des services de recommandation à très grande échelle avec des trillions d’échantillons.
  • Modules d’IA optimisés pour les processeurs Intel Xeon Scalable : Les modules d’IA optimisés par Intel offrent aux data scientists des performances et une productivité accrues dès le départ. Intel s’est associé à la communauté open source, ainsi qu’à Amazon, Baidu, Facebook, Google et Microsoft pour garantir les logiciels de data science les plus populaires soient optimisés pour fonctionner sur du matériel Intel, notamment Pandas, scikit-learn, MXNet, PaddlePaddle, PyTorch, TensorFlow, ONNX Runtime et d’autres…
  • Accélérer les performances de l’IA avec les processeurs Intel Xeon Scalable de nouvelle génération : Avec sa nouvelle génération de processeurs Intel Xeon Scalable (“Sapphire Rapids”), Intel vise à multiplier par 30 les performances de l’IA par rapport à la génération précédente. Ces gains de performances sont obtenus grâce à des optimisations logicielles poussées et au moteur AMX intégré au prochain processeur et permettront d’utiliser encore plus de cas d’IA sans avoir besoin de GPU discrets.

Pour en savoir plus  sur L’innovation Intel en IA 

Joel Pascal