AVIS D’EXPERT – Bien que largement adoptées ces dernières années, la 5G et l’edge computing n’ont pas encore atteint tout leur potentiel. Une mise en œuvre appropriée de ces technologies représentera le fondement de la prochaine révolution numérique. Nathan Howe, Vice-président, Technologies émergentes et 5G chez Zscaler fait le point.
La 5G améliore la vitesse de connectivité et traite les données dix fois plus rapidement qu’auparavant, tandis que l’edge computing réduit la latence en traitant les données au plus près de l’utilisateur ou de l’appareil via un réseau décentralisé. Cette puissante symbiose pourrait à terme remplacer les structures de réseau traditionnelles. Ces dernières années, l’edge computing a connu une évolution remarquable, passant d’un simple concept à un modèle commercial établi avec des cas d’utilisations clairement définis. Mais pour créer des services edge, un changement de mentalité a également dû s’opérer. Auparavant, l’accent était mis sur la sécurité du traitement des données à proximité de l’endroit où elles étaient créées afin de réduire la surface d’attaque, ce qui signifie que la résilience et la localisation des données étaient reléguées au second plan. Toutefois, les récents événements géopolitiques ont mis en évidence la nécessité de services sécurisés et ont accru le désir de conservation des données en local. Au lieu de donner la priorité à une connectivité ubiquitaire via Internet, il existe désormais un mouvement opposé qui donne la priorité à la qualité de service garantie, même si Internet n’est pas disponible. Les tendances qui en résultent en matière de faible latence, de résilience et de localisation des données, combinées aux nouvelles exigences fonctionnelles, conduisent à un changement dans les architectures techniques et fournissent un vent favorable aux applications basées sur l’Edge Computing.
Modification de l’architecture due aux nouvelles exigences de service
L’avènement du cloud avait préfiguré cette évolution architecturale, avec la première étape consistant à déplacer les applications monolithiques du centre de données vers le cloud. L’étape suivante prévoit le passage à un modèle distribué, dans lequel certaines fonctionnalités ne sont demandées et disponibles qu’à des endroits spécifiques. Une telle évolution exige des performances accrues en termes de fiabilité, de disponibilité des données et, surtout, de réduction des temps de latence, rendue possible par la transmission de données sans fil à haute performance via la technologie 5G. Le débat sur l’edge computing est également stimulé par une demande croissante de services. Les entreprises abandonnent l’idée de maintenir leur propre infrastructure et sont disposées à investir dans des services pour gagner en souplesse et en flexibilité. Par exemple, plutôt que de posséder un réseau Wifi privé, il est maintenant possible d’utiliser un service de transmission de données qui est fourni via une connectivité 4G ou 5G et où la connexion à Internet se fait grâce à un réseau public. Pourtant, lors de la planification d’un tel service, les responsables doivent considérer la sécurisation des flux de données, et c’est là que la philosophie du Zero Trust entre en jeu.
Le Zero Trust permet une communication sécurisée
Selon le National Institute of Standards and Technology (NIST), le principe fondamental du Zero Trust consiste à ne jamais accorder de confiance implicite basée sur des éléments comme le réseau, l’emplacement physique, la position dans le réseau ou la propriété des comptes utilisateurs sur les terminaux. Au contraire, dans une approche Zero Trust, chaque communication est d’abord considérée comme potentiellement dangereuse ou hostile. Son autorisation n’intervient qu’après une vérification via des politiques basées sur l’identité. Cette approche permet d’éviter l’accès non autorisé aux applications, aux charges de travail ou aux déplacements latéraux par des attaquants. La transition vers des architectures distribuées, où l’edge computing est centrale, exige l’intégration des principes Zero Trust pour garantir la sécurité. En raison de son indépendance vis-à-vis des réseaux, le concept Zero Trust peut également être appliqué par des fournisseurs de télécommunications, notamment pour assurer des opérations sécurisées sur les réseaux 4G ou 5G. Cela permet aux charges de travail de fonctionner à la périphérie sans être exposées à la totalité d’Internet.
Vers des opérations sans infrastructure : le point de bascule
D’une part, les entreprises font face à une demande croissante de nouvelles fonctionnalités distribuées. D’autre part, elles doivent jongler avec les réglementations et répondre aux exigences de conformité en matière de sécurité. La mission consiste à mettre en place des infrastructures modernes qui résistent aux pannes et aux pertes de données. L’évolution technologique de la 5G, combinée au cadre de sécurité Zero Trust, facilite la mise en œuvre de l’edge computing et ouvre des perspectives pour les scénarios à venir. De l’utilisation de services à la suppression totale de l’infrastructure, il n’y a qu’un pas à franchir. Dans un scénario sans infrastructure, les utilisateurs pourraient accéder de façon transparente à des services à partir de divers appareils, sans être restreints à des réseaux spécifiques ou à une infrastructure dédiée. Pour ce faire, ils s’appuient sur les réseaux publics pour assurer la connectivité et sur la sécurité Zero Trust pour assurer l’intégrité des flux de données. Ce changement de cap ne se limite pas aux avancées technologiques, il marque également une remise en question fondamentale de la manière dont les entreprises proposeront leurs services à l’avenir. Toutes les fonctions non essentielles de l’entreprise sont externalisées à des prestataires de services, qu’il s’agisse de la connectivité ou de la production. En privilégiant les objectifs commerciaux aux orientations technologiques, les entreprises peuvent mieux aligner les progrès technologiques avec leurs objectifs et en tirer parti de manière efficace
Nathan Howe, Vice-président, Technologies émergentes et 5G chez Zscaler