Jeff Klaus,
Intel General Manager Datacenter Software
Calculs intensifs
- Où en est l’architecture Intel pour le datacenter ?
Notre architecture Rack Scale Design continue à évoluer. Elle permet de composer les fonctions réseaux, les traitements et le stockage, en activant uniquement les capacités nécessaires, lorsqu’une charge applicative en a besoin, et seulement au niveau requis. On gagne ainsi en efficacité et en capacité d’évolution. Des modules matériels peuvent être mis à niveau au fil du temps, des unités centrales par exemple, sans avoir à renouveler un serveur 2U au complet. C’est un modèle qui bénéficie surtout aux plus grands datacenters confrontés au déluge de données. Mais les opérateurs de centres de données font plusieurs tests avant d’adopter une nouvelle architecture.
- Explorez-vous les infrastructures définies par logiciels ?
Nous fournissons une instrumentation au niveau de chaque équipement, avec l’interprétation de protocoles nécessaires à une bonne compréhension de l’infrastructure. Nous apportons aux fournisseurs de datacenters tels Schneider, ABB ou Siemens, tous les éléments pour relier les informations IT aux données de leurs installations. L’opérateur peut ainsi opérer son datacenter purement par logiciels. Dans certains cas, il peut même automatiser la gestion du firmware.
- Les disques SSD remplacent les disques durs traditionnels. Voyez-vous le paysage du datacenter se transformer côté stockage ?
Les prix des disques SSD chutent considérablement avec de fortes améliorations en matière de vitesse. Intel contribue à cette tendance avec sa technologie 3D XPoint (prononcez Cross Point). Nous sommes maintenant au point où les disques SSD vont certainement dépasser les disques durs classiques dans le datacenter.
- Les applications devront-elles être recompilées pour bénéficier des nouvelles mémoires persistantes de type NVMe ?
Cela dépend. Il peut y avoir un travail nécessaire à mener au niveau du code, mais nous essayons de le rendre aussi simple que possible. Des outils pourront faire des traductions automatiques. Nous avons un vaste groupe de développeurs dans notre division CPU – Intel fait partie des cinq premiers éditeurs de logiciels. Quand vous lancez une nouvelle architecture, vous devez vous assurer que la communauté est prête à l’adopter.
- Que reste-t-il à faire pour améliorer l’efficacité des datacenters ?
Il existe plusieurs initiatives, comme le standard Redfish, une API sécurisée du DMTF à laquelle nous participons et qui va remplacer le protocole de supervision hors bande IPMI (Intelligent Platform Management Interface). Mais nous devons encore sensibiliser et éduquer les opérateurs sur les facultés d’instrumentation des équipements informatiques. Les serveurs, baies de stockage et commutateurs réseaux, depuis 7 à 10 ans déjà, offrent des informations de santé précises. Ils permettent de visualiser finement les consommations électriques et la dissipation thermique, mais ce n’est pas encore très connu.