Haut de page>
 

Datacenter

 
 
 
 
 
 
 
 
 
 
 

Datacenter Networking

Les technologies réseau au sein des datacenters évoluent de manière rapide. Il faut différentier :

  • Les switches de coeur de réseau disposant uniquement de connectivité Ethernet (LAN)
  • Les switches de réseau de stockage à choix basés sur de l'Ethernet pour les environnements en iSCSI ou basés sur de la connectique FC (SAN)
  • Les switches datacenter proposant une connectique unifiée, soit des ports utilisables à choix en Ethernet, en FCoE ou en FC.

  • Les standards technologiques ont récemment basculé de débits de :
    • 1 Gbps (SFP) à 10 (SFP+), 40 (QSFP) ou 100 Gbps pour la partie Ethernet
    • 4 ou 8 Gbps à 16 Gbps pour la partie FC

    Ces équipements sont généralement déployés dans des logiques de haute disponibilité et sont censés assumer les fonctions de routage internes au réseau d'entreprise (Gestion des VLANs), à interconnecter les couches d'accès ou de distribution (Réseaux utilisateurs), avec les environnements serveur.
     

    Software Defined Networking

    Dans le contexte de l'avènement des logiques de virtualisation et de SDDC (Software Defined DataCenter), de nouvelles solutions ont vu le jour pour rendre les environnements réseau datacenter programmables, pour permettre l'automatisation d'un certain nombre de tâches.

    Ces solutions impliquent de disposer de switches supportant ces standards (Ex : VXLAN), mais de sortir l'intelligence des couches matérielles du réseau pour la porter sur des plateformes logicielles permettant d'ajouter des logiques d'orchestration, de virtualisation de réseaux et de micro-segmentation (Ex : Gestion des communications de VM à VM).

     

    Unified Computing

    Qu'il s'agisse de technologies rack ou blade, les environnements serveurs évoluent également vers des logiques d'abstraction du matériel et d'automatisation des configurations. Dès lors, les composants matériels d'une infrastructure sont uniquement assimilés à un pool de ressources à disposition (Processeur, mémoire, réseau) pour exécuter certaines tâches.

    La notion d'automatisation correspond à la capacité à déplacer des "workloads" de manière transparente entre des serveurs disposant de spécifications techniques différentes, ou entre des datacenters différents.

    La virtualisation d'I/O correspond à une couche d'abstraction complémentaire qui permet au travers de liens réseaux existants d'émuler des liens LAN ou SAN supplémentaires, le tout sans impacter la production (Ex : Ajout à la volée de cartes virtuelles 10 Gbps Ethernet ou 8 Gbps FC sur des serveurs existants sans redémarrage).

     

    Unified Storage

    Le stockage était historiquement divisé en deux mondes, soit les technologies "block" (SAN) disponibles à choix en Ethernet pour les réseaux iSCSI ou Fiber Channel pour les réseaux FC, et "file" (NAS) pour la mise à disposition de services de stockage CIFS ou NFS.

    Désormais, la majorité des baies du marché peuvent partager un même pool de stockage, avec des contrôleurs redondants en actif/actif ou en actif/passif capables de de délivrer les deux types de services depuis un même équipement.

    En termes de performances, outre les capacités offertes par la mémoire interne des contrôleurs de stockage, il est désormais possible d'étendre le cache interne de la baie au moyen de disques SSD qui permettront d'absorber les pics en termes d'opérations de lecture et d'écriture.

    Les technologies SSD peuvent également être couplées aux disques SAS et NL-SAS dans des logiques d'auto-tiering avec un déplacement automatique des données entre différents "Tiers" de stockage suivant des priorités business ou un taux d'utilisation.

    En termes d'efficacité, la plupart des baies du marché intègrent des notions de "thin provisionning", de compression ou de déduplication des données.

    Au niveau de la protection des données, outre les fonctions de "snapshots" de volume ou de réplication, il est également possible d'ajouter des fonctions de chiffrement ou de verrouillage de certains volumes (WORM), ou encore de snapshots applicatifs pour assurer la consistance des données applicatives les plus critiques.

     

    Flash & RAM Storage

    Les capacités offertes par les technologies Flash et leur évolution en termes de capacité permettent d'envisager de nouvelles approches pour le stockage.

    Afin d'accélérer des applications spécifiques (Ex : VDI, bases de données, etc.), il est par exemple possible d'intégrer des cartes Flash directement dans les serveurs, en les synchronisant éventuellement avec les baies de stockage (Consistance des données), ou de réutiliser une partie de la mémoire des serveurs pour la présenter comme un stockage primaire.

    Une autre approche intéressante consiste à mutualiser ces ressources au sein de baies "full Flash". Etant données les performances et la faible latence offertes par ces baies, il est désormais possible d'intégrer des logiques de compression ou de déduplication des données à la volée, sans compromis sur les performances, de travailler sur des "snapshots" accessibles en lecture / écriture pour par exemple cloner des environnements de production (Développement/Test/Qualité), sans augmenter la capacité de stockage utilisée.

    Ce type de baies peut être implémenté dans une logique de scale-out, c'est à dire avec une évolutivité infinie en termes de capacités et de performances.

     

    Software Defined Storage

    Comme le réseau ou la capacité de processing des serveurs, il est possible de mettre en oeuvre des logiques d'abstraction au niveau du stockage.

    Plus clairement, la quasi-totalité des fonctions majeures des baies de stockage traditionnelles ont été portées sur des solutions logicielles capables :

    • D'exploiter la capacité disque interne d'un ensemble de serveurs physiques (Stockage DAS) et de la présenter comme un stockage partagé, soit pour ces mêmes serveurs, soit pour d'autres serveurs
    • D'exploiter la capacité disque d'un ensemble de baies de stockage, de piloter tout ou partie des fonctionnalités techniques qu'elles sont susceptibles de supporter, et de présenter ces ressources comme un stockage partagé unique

    L'intérêt de cette nouvelle approche, c'est qu'elle permet d'automatiser un certain nombre de tâches liées à la gestion du stockage et d'exploiter l'intégralité des ressources stockage à disposition de manière simple et uniforme.

     

    File Storage

    La croissance exponentielle des données non-structurées au sein de la plupart des organisations implique de rendre les services de fichier hautement disponibles, de supporter des logiques de croissance à l'infini, sans péjoration des performances, de proposer différentes méthodes d'accès aux données suivant les types de clients (Ex : CIFS, NFS, HTTPS, etc.).

    Dans ce domaine, en complément des services de fichiers Microsoft ou Linux, il existe deux types de plateformes principales :

  • Les baies NAS : Qu'il s'agisse de baies unifiées ou de plateformes dédies, elles proposent par défaut des mécanismes de protection des données basées sur des concepts de RAID, et s'accompagnent de logiques de "filer" virtuel susceptible de fonctionner sur un site de production et de basculer sur un site de Disaster Recovery. Par contre, elles fonctionnent sur une logique de "scale-up", ce qui implique que pour un modèle donné, il est uniquement possible d'augmenter la capacité gérée suivant les limitations de la plateforme.
  • Les baies scale-out-NAS : Ces plateformes de stockage proposent un système de fichier unique reposant sur une architecture matérielle hautement distribuée. En matière d'évolutivité, elles permettent de croitre à l'infini, que ce soit pour l'amélioration des performances ou l'augmentation de la capacité. En complément, les mécanismes de protection des données reposent sur des règles de placement granulaires des données suivant le niveau de protection attendu (Ex : Deux copies d'un même fichier sur un même noeud du cluster, une troisième sur un autre noeud du même site, et une quatrième sur un second site).
  •  

    Big Data

    La notion de Big Data correspond au traitement de volumétries de données très importantes, soit des capacités de stockage quasi-infinies, une indexation à la volée des données collectées, et des fonctions de recherche avancées.

    Les plateformes en question reposent généralement sur des technologies scale-out NAS, qu'elles soient matérielles ou logicielles, pour mettre en oeuvre un système de fichiers unique reposant sur une architecture matérielle hautement distribuée (Ex : HDFS).

     

    Server Virtualization

    La virtualisation des serveurs a atteint un niveau de maturité important au cours des dernières années. Les solutions d'administration des environnements virtualisés permettent désormais de prendre le contrôle sur tout ou partie des composants matériels sous-jacents dans une logique de Software Defined DataCenter (SDDC), et d'offrir un monitoring centralisé des infrastructures.

    Outre les standards de VMware, Microsoft ou Citrix, d'autres hyperviseurs basés sur des modèles open-source (Ex : KVM) peuvent être utilisés dans des contextes spécifiques, avec des solutions d'orchestration pour rendre transparente l'administration d'environnements hétérogènes.

     

    Convergence & Hyper-Convergence

    Les plateformes convergées correspondent à la mise en oeuvre d'infrastructures complètes (Computing, réseau, stockage) délivrées sous la forme de racks complets pré-installés et pré-configurés.

    Ces environnements complets proposent par défaut un seul point de contact pour le support, des garanties en termes de compatibilité, des SLA en termes de performances ou de capacité suivant les attentes spécifiques d'un client.Ces plateformes offrent en complément des solutions de monitoring, de reporting ou d'administration centralisées, indépendantes du matériel sous-jacent.

    La notion d'hyper-convergence quant à elle repose généralement sur le packaging de composants matériels ou logiciels dans un ou plusieurs serveurs physiques assumant l'intégralité des fonctions d'une infrastructure virtualisée complète.

    Ces plateformes s'appuient sur une logique de scale-out pour garantir une certaine évolutivité. Généralement délivrées sous la forme de serveurs rack intégrant plusieurs lames pour le computing et la virtualisation, ainsi qu'un nombre défini de disques pour le stockage.