Fabric réseau
Considérations préalables
Dans ce chapitre nous discuterons des topologies physiques et des protocoles des centres de données, appelées fabrics (tissus) en raison de la complexité de l’infrastructure réseau qui relie les différents composants du centre de données. Ce terme est devenu courant pendant les années 2010, mais, puisque des topologies traditionnelles sont encore présentes dans certains contextes, nous allons commencer par les topologies de la fin du XXe siècle.
Au fil du temps plusieurs producteurs ont proposé des solutions différentes. Pas toutes ont survécu le passage de la théorie au déploiement dans de conditions réelles, toutefois les échecs ont fourni l’expérience nécessaire pour atteindre le niveau actuel.
Pour ces raisons, nous avons abordé le problème avec une approche pragmatique, en évitant des protocoles très intéressants, mais qui sont plutôt orientés vers les opérateurs télécoms que vers les centres de données. Dans la première partie, nous détaillerons les technologies de base de la couche 2, qui datent des années 1980 et 1990 et qui étaient adaptées aux réseaux de production de l’époque. Ces technologies n’ont pas disparu, car elles sont...
Modèle physique à 3-tiers et protocoles de couche 2
Au début, les applications étaient développées comme des entités monolithiques, dont toutes les fonctionnalités et tous les services étaient regroupés et fonctionnaient comme service unique, généralement hébergé sur des serveurs centralisés appelés mainframes. Au fil du temps, les architectures fondées sur les ordinateurs centraux ont été remplacées par le modèle client-serveur, dans lequel la logique de l’application est répartie entre un serveur (qui gère généralement le traitement et le stockage des données) et un client (généralement le terminal personnel de l’utilisateur).
Pendant les années 1990, l’architecture des réseaux et des applications a convergé vers le modèle 3-tiers. En conséquence, les applications ont été divisées en trois composants : la présentation, qui assure l’interface utilisateur, le traitement, qui exécute les opérations logiques, et l’accès aux données, où les informations sont stockées. En parallèle, les réseaux ont été distribués dans les niveaux core (cœur), distribution (agrégation) et access (accès). À ce moment-là, les architectes réseau se concentraient principalement sur les flux nord-sud, c’est-à-dire le trafic entre l’Internet et l’intérieur du centre de données.
Par rapport au modèle précédent, limité à deux niveaux, ce modèle offre une approche structurée de la gestion du flux de données tout en garantissant que le réseau peut s’étendre plus simplement. Cette conception facilite la redondance, améliore les performances et garantit un comportement plus prévisible du réseau.
Avec les progrès technologiques et l’évolution des besoins des centres de données, des modèles différents ont été adoptés. Pourtant, la topologie 3-tiers est toujours présente dans certains centres de données.
1. Architecture physique
Les interconnexions entre...
Modèle Clos
La topologie Clos, selon le nom de l’ingénier qui l’a formalisée, est née dans les années 1940 comme une méthode pour concevoir des réseaux téléphoniques non bloquants. Le principal avantage d’appliquer cette conception aux réseaux informatiques, dont la version de base, à 2-tiers, est appelée Spine-Leaf (tronc-feuille), est de minimiser l’impact causé par les augmentations de taille.
Au fur et à mesure, chaque rack supplémentaire comporte l’ajout d’un commutateur leaf. Si le fabric d’interconnexions entre les spines et les leaves devient un goulot d’étranglement, des commutateurs spine supplémentaires sont insérés pour augmenter la bande passante. Chaque leaf d’une topologie Clos est équidistante de toutes les autres leaves, ce qui garantit une latence prévisible. Il existe toujours plusieurs chemins entre deux leaves, ce qui permet d’optimiser l’utilisation de la bande passante disponible et d’assurer la résilience en cas de défaillance. Cette topologie est actuellement la plus adaptée pour la majorité d’entreprises dans le monde.
Dans le cas où la taille d’une topologie Spine-Leaf n’est pas suffisante, il est possible d’ajouter des niveaux de commutation ultérieurs. Le troisième niveau, généralement appelé super-spine, permet de multiplier la taille de l’infrastructure tout en garantissant le même niveau de performances. Ce principe permet d’ajouter un nombre théoriquement infini de couches supplémentaires.
1. Architecture physique à deux niveaux : Spine-Leaf
La topologie Spine-Leaf met l’accent sur l’évolutivité horizontale, la prévisibilité de la latence et l’efficacité du flux de trafic est-ouest, offrant une topologie sans surréservation. Elle se présente comme un environnement optimal pour les services en cloud et les microservices.
Dans une topologie Spine-Leaf, chaque commutateur leaf est interconnecté avec chaque commutateur spine. Cette connectivité directe garantit que tout appareil connecté à un commutateur leaf n’est qu’à deux sauts...
Un possible futur pour les réseaux : OCS Apollo
Récemment, Google a publié un article et un document de recherche concernant le projet OCS Apollo. Il est axé sur l’adoption de commutateurs de circuits optiques (Optical Circuit Switch, OCS) en remplacement des commutateurs de réseau conventionnels et annonce le passage d’une communication basée sur les électrons à une communication basée sur la lumière. Si les délais traditionnels sont acceptables pour la plupart des applications, dans certains environnements de niche tels que la finance, la chirurgie à distance et les télécommunications, l’échange d’informations dans des délais encore plus courts peut faire une énorme différence.
Comme nous l’avons vu plus en haut dans ce chapitre, les topologies Clos traditionnelles nécessitent le déploiement d’une grande couche de spines et super-spines fonctionnant à la vitesse des fibres MMF, ce qui entraîne un recâblage peu pratique de l’ensemble du centre de données à chaque évolution générationnelle. En plus, la coexistence de deux domaines, électrique et optique, dans les centres de données actuels est à l’origine d’une inefficacité sensible à grande échelle. Le traitement des données...