Haut de page>
 

Datacenter

 
 
 
 
 
 
 
 
 

Datacenter Networking

Les technologies réseau au sein des datacenters évoluent de manière rapide. Il faut différentier :

  • Les switches datacenter proposant une connectique unifiée, soit des ports utilisables à choix en Ethernet, en FCoE ou en FC ;
  • Les switches de réseau de stockage (SAN) à choix basés sur de l'Ethernet pour les environnements en iSCSI ou basés sur de la connectique FC.

  • Les standards technologiques ont récemment basculé de débits de :
    • 1 Gbps (SFP) à 10 Gbps (SFP+), 25 Gbps (SFP28), 40 Gbps (QSFP) et même 100 Gbps (QSFP28) pour la partie Ethernet
    • 8 Gbps à 16 Gbps ou 32 Gbps pour la partie FC

    Dédiés aux environnements serveurs ou stockage, ces équipements sont généralement déployés dans des architectures hautement disponibles et supportent des latences de traitement extrêmement faibles.
     

    Software Defined Networking

    Dans le contexte de l'avènement des logiques de virtualisation et de SDDC (Software Defined DataCenter), de nouvelles solutions ont vu le jour ces dernières années pour rendre les environnements réseaux datacenter programmables, pour permettre l'automatisation d'un certain nombre de tâches opérationnelles complexes.

    Ces solutions s'appuient généralement sur des switches supportant le standard VXLAN, et ont pour principe de sortir l'intelligence des couches matérielles du réseau pour la porter sur des plateformes logicielles permettant d'ajouter des logiques d'orchestration, de virtualisation de réseaux et de micro-segmentation (Ex : Gestion du trafic "Est-Ouest" entre les VMs).

     

    Unified Computing

    Quelque soit leur format (Tour, rack ou blade), les serveurs ont connu des évolutions majeures ces dernières années, avec toujours plus de densité et de performance (Nouveaux CPU disposant de plus de coeurs et de fréquences plus élevées, nouveaux standards pour la RAM, support du NVMe, connectique basée sur les derniers standards réseaux, etc.).

    Avec des formats toujours plus compacts, ces environnements serveurs évoluent vers des logiques d'abstraction du matériel et de simpliffication des configurations.

    Certaines gammes supportent même des logiques d'automatisation avancée, soit à la capacité à déplacer des "workloads" de manière transparente entre des serveurs physiques disposant de spécifications techniques différentes, ou entre des datacenters différents (Stateless computing).

     

    Unified Storage

    Les plateformes de stockage "block" ont connu une révolution ces dernières années, avec l'avènement des disques Flash comme nouveau standard (en remplacement des disques mécaniques).

    Suivant le dimensionnement initial et les besoins en évolutivité de l'infrastructure datacenter, ces baies de stockage sont intégrées aux environnements serveurs à choix via un réseau SAN (iSCSI ou Fibre Channel) ou en Direct Attached (Ex : Connexion SAS).

    La révolution récente du stockage repose entre autres sur l'adoption de nouveaux supports (Ex : Storage Class Memory), de nouveaux bus de communication (Ex : PCI Express pour les NVMe) et de nouveaux protocoles pour l'accès au stockage (Ex : NVMe over Fabric), ces innovations permettent d'améliorer de manière drastique les performances des environnements de stockage et de réduire les latences.

    L'adoption des architectures All Flash est facilitée par une optimisation des volumétries (mécanismes de compression ou de déduplication des données), et sur une réduction progressive du coût des disques Flash (Ex : SATA SSD).

    En termes de disponibilité, la plupart des baies intègrent nativement des mécanismes de haute disponibilité qui ne se limitent pas à une simple réplication, mais qui disposent de mécanismes de basculement automatique, ou support même un mirroring complet du stockage entre deux sites.

     

    Software Defined Storage

    Comme le réseau ou la capacité de processing des serveurs, il est possible de mettre en oeuvre des logiques d'abstraction au niveau du stockage.

    Plus clairement, la quasi-totalité des fonctions majeures des baies de stockage traditionnelles ont été portées sur des solutions logicielles capables :

    • D'exploiter la capacité disque interne d'un ensemble de serveurs physiques (Stockage DAS) et de la présenter comme un stockage partagé, soit pour ces mêmes serveurs, soit pour d'autres serveurs
    • D'exploiter la capacité disque d'un ensemble de baies de stockage, de piloter tout ou partie des fonctionnalités techniques qu'elles sont susceptibles de supporter, et de présenter ces ressources comme un stockage partagé unique

    L'intérêt de cette nouvelle approche, c'est qu'elle permet d'automatiser un certain nombre de tâches liées à la gestion du stockage et d'exploiter l'intégralité des ressources stockage à disposition de manière simple et uniforme.

     

    File Storage

    La croissance exponentielle des données non-structurées au sein de la plupart des organisations implique de rendre les services de fichier hautement disponibles, de supporter des logiques de croissance à l'infini, sans péjoration des performances, de proposer différentes méthodes d'accès aux données suivant les types de clients (Ex : CIFS, NFS, HTTPS, etc.).

    Dans ce domaine, en complément des services de fichiers Microsoft ou Linux, il existe deux types de plateformes principales :

  • Les baies NAS : Qu'il s'agisse de baies unifiées ou de plateformes dédies, elles proposent par défaut des mécanismes de protection des données basées sur des concepts de RAID, et s'accompagnent de logiques de "filer" virtuel susceptible de fonctionner sur un site de production et de basculer sur un site de Disaster Recovery. Par contre, elles fonctionnent sur une logique de "scale-up", ce qui implique que pour un modèle donné, il est uniquement possible d'augmenter la capacité gérée suivant les limitations de la plateforme.
  • Les baies scale-out-NAS : Ces plateformes de stockage proposent un système de fichier unique reposant sur une architecture matérielle hautement distribuée. En matière d'évolutivité, elles permettent de croitre à l'infini, que ce soit pour l'amélioration des performances ou l'augmentation de la capacité. En complément, les mécanismes de protection des données reposent sur des règles de placement granulaires des données suivant le niveau de protection attendu (Ex : Deux copies d'un même fichier sur un même noeud du cluster, une troisième sur un autre noeud du même site, et une quatrième sur un second site).
  •  

    Server Virtualization

    La virtualisation des serveurs a atteint un niveau de maturité important au cours des dernières années. Les solutions d'administration des environnements virtualisés permettent désormais de prendre le contrôle sur tout ou partie des composants matériels sous-jacents dans une logique de Software Defined DataCenter (SDDC), et d'offrir un monitoring centralisé des infrastructures.

    Outre les standards de VMware, Microsoft ou Citrix, d'autres hyperviseurs basés sur des modèles open-source (Ex : KVM) peuvent être utilisés dans des contextes spécifiques, avec des solutions d'orchestration pour rendre transparente l'administration d'environnements hétérogènes.

     

    Convergence & Hyper-Convergence

    Les plateformes convergées correspondent à la mise en oeuvre d'infrastructures complètes (Computing, réseau, stockage) délivrées sous la forme de racks complets pré-installés et pré-configurés.

    Ces environnements complets proposent par défaut un seul point de contact pour le support, des garanties en termes de compatibilité, des SLA en termes de performances ou de capacité suivant les attentes spécifiques d'un client.Ces plateformes offrent en complément des solutions de monitoring, de reporting ou d'administration centralisées, indépendantes du matériel sous-jacent.

    La notion d'hyper-convergence quant à elle repose généralement sur le packaging de composants matériels ou logiciels dans un ou plusieurs serveurs physiques assumant l'intégralité des fonctions d'une infrastructure virtualisée complète.

    Ces plateformes s'appuient sur une logique de scale-out pour garantir une certaine évolutivité. Généralement délivrées sous la forme de serveurs rack intégrant plusieurs lames pour le computing et la virtualisation, ainsi qu'un nombre défini de disques pour le stockage.