virtu-desk
  • La virtualisation
    • Les éditeurs
      • Citrix
      • Liquidware
      • Microsoft
      • Systancia
      • VMware
    • Les solutions
      • Les applications
      • Le poste de travail
      • Les serveurs
    • La mobilité
      • CYOD & bureau mobile
      • Enjeux et défis pour les entre
      • Qu'en pensent les entreprises
      • La mobilité et la virtualisati
      • Pourquoi une tablette au trava
    • Le cloud
      • Cloud computing
      • Cloud & Poste de travail
      • Le Cloud Computing en video
    • Les principes
    • Le V.D.I
  • L'écosystème
    • L'environnement utilisateur
      • AppSense User Virtualization
      • Norskale
      • ProfileUnity
      • RES Workspace Manager
      • vWorkspace
    • La containerisation
      • Les produits
      • Les éditeurs
    • Divers
      • Systancia Identity
      • Citrix Provisioning Server
      • Flex-IO
    • Audit/Supervision
      • Stratusphere FIT
      • Stratusphere UX
  • La sécurité
    • Produits Systancia
      • Systancia Access
      • Systancia Cleanroom
      • Systancia Gate
    • Bitdefender GravityZone
    • Recover2Cloud
    • Veeam Availability Suite
    • Stormshield Endpoint Security
  • Convergence & VDI
    • Convergentes
      • BladeSystem Matrix
      • Flexpod
      • PureFlex
      • Vblock
      • Virtual Compute
      • vStart
    • Hyper-convergentes
      • Atlantis HyperScale
      • Cisco HyperFlex
      • DataCore
      • Dell-EMC VxRail
      • Dell XC Series
      • EMC ScaleIO
      • HP Converged System
      • HP StoreVirtual VSA
      • Lenovo Série HX
      • Microsoft S2D
      • NetApp HCI
      • Nutanix
      • Pivot3
      • Scale Computing
      • Simplivity
      • VCE VxRack
      • Virtual SAN
      • VMware EVO:RAIL
  • L'actualité IT
    • La virtualisation du poste
    • Les infrastructures convergées
    • La sécurité
    • Divers
    • Les archives
      • La virtualisation du poste
      • Les infrastructures convergées
      • La sécurité
      • Divers

Blog - Convergence (Hyper)

  • Lister les billets de la rubrique
    • Comprendre comment l’hyper-convergence est adaptée au VDI
    • L’alliance Nutanix-Minjar va renforcer les capacités multi-cloud de l’OS Nutanix…
    • La vision de Nutanix en 90 secondes et en Français
    • Les NTC (Nutanix Technology Champions) 2018 « Made in France »
    • Nutanix inscrit la résilience dans sa plateforme cloud
    • NetApp HCI : l'essentiel sur l'offre hyper-convergée de NetApp
    • Nutanix dévoile la version 5.5 de sa plateforme AHV
    • Interview Sylvain Siou sur la vision du cloud par Nutanix à l'occasion de Next 2017
    • L’hyper-convergence arrive enfin chez NetApp…
    • La vision de Nutanix en 90 secondes et en Français
    • Microsoft S2D –Solution hyper-convergée dans Windows Server 2016
    • Microsoft S2D – Présentation du Software Storage Bus
    • Microsoft S2D – Choix des disques et des types de résilience
    • Microsoft S2D – Fonctionnement du cache
    • Microsoft S2D – Tolérance de pannes et efficacité du stockage
    • Microsoft S2D – La configuration matérielle requise
    • HPE rachète SimpliVity pour 650 millions de dollars !
    • Nutanix fait ses premiers pas en Bourse…
    • Nutanix fournit toujours plus de services avec Acropolis
    • Lenovo étend sa gamme d’Appliances hyper-convergées
    • Appliances VCE VxRack 1000 avec noeuds Neutrino
    • Appliances « Xpress », le SMB de Nutanix
    • Un revenu x2 pour le marché de l'hyper-convergence d'ici 2019 !
    • Les nouveautés de Virtual SAN 6.2
    • GP « Hyper-convergence » – EMC devant Nutanix avant mi-2017 ?
    • Magic Quadrant des systèmes intégrés 2015
    • Nutanix rachète Pernix Data et de Calm.io
    • Architecture Nutanix - Les ports TCP/UDP
    • Nutanix valide sa technologie sur les serveurs UCS de Cisco
    • Nutanix VM flash Mode - Activer les performances du SSD dans un système hybride
    • Nutanix Self Service Restore - Restaurer en mode fichiers sans faire intervenir l'administrateur...
    • Lenovo HX-series - Roadmap 2016
    • HPE annonce son « Hyper Converged 380 »
    • Cisco se met à l’hyper-convergence avec ses systèmes HyperFlex
    • Boostez les performances de votre desktop avec Liquidware Labs, Citrix et Nutanix
    • Nutanix sort sa version Acropolis 4.6...
    • Nutanix – Le Software va-t-il manger le monde ?
    • Nutanix & Wall Street, une rencontre incontournable ?
    • Nutanix Acropolis 4.5. Les fonctionnalités selon le type d’hyperviseur.
    • Citrix XenDesktop et Nutanix Acropolis
    • Erasure Coding-X, le RAID de Nutanix à l’échelle du cluster
    • Lenovo annonce ses serveurs hyper-convergés Nutanix
    • Acropolis - Quand le Panthéon Nutanix converge vers le 21ème Olympe
    • Les NTC (Nutanix Technology Champions) 2016 « Made in France »
    • AppliDis Fusion 5 s'intègre à l'hyperviseur Nutanix Acropolis.
    • Systancia renouvelle l’offre de solutions VDI avec Nutanix
    • Sauvegardez les Infrastructures Nutanix avec Veeam
    • Avec Nutanix, l'infrastructure devient invisible...
    • Nutanix & Lenovo annoncent officiellement leur partenariat.
    • AppliDis Fusion 5 obtient la certification Nutanix Ready for Acropolis
    • Atlantis HyperScale en bref...
    • Nouveautés de Virtual SAN 6.1
    • Les acteurs de l'hyper-convergence
    • Les ports réseau chez Nutanix
    • Dimensionnez vous-même votre infrastructure Nutanix …
    • Nutanix Community Edition – Le SDS gratuit de Nutanix
    • VxRack - La nouvelle solution hyper-convergente d'EMC
    • La gestion des licences chez Nutanix
    • L'hyper-convergence VSPEX™ Blue chez EMC
    • Le nouveau SDS de VMware: Virtual SAN 6.0
    • Nutanix Tour 2015
    • Le stockage hyper-convergé est-il une bonne option pour le VDI?
    • Nutanix – Un test de performance simple et rapide avec « Diagnostics.py »
    • Nutanix – La version NOS 4.1 est disponible...
    • Nutanix domine des pieds et de la tête le marché de l’hyper-convergence
    • NX-7000 – La plateforme Nutanix pour environnements VDI graphiques
    • Nutanix - NX-8150 opération à coeur ouvert...
    • Utiliser un stockage SAN/NAS avec Nutanix ?
    • EVO:Rail - NetApp a pris le TGV…
    • Nutanix - Mise en place de « Metro Cluster Availability » en vidéo
    • Nutanix - Mise à jour simplifiée pour les hyperviseurs
    • Nutanix & le Big Data
    • Bien dimensionner ses plateformes Nutanix
    • Dell lance sa gamme d'appliances hyper-convergentes
    • L'hyper-convergence classée en deux sous catégories...
    • Support Nutanix - La satisfaction clients...
    • Hyper-convergence : Nutanix & les 3 Mousquetaires...
    • Nutanix – Dimensionner vos plateformes VDI
    • La technologie SDS (Software-Defined Storage) de DataCore
    • Nutanix - Composants du CVM en vidéo
    • Nutanix & vCloud Automation Center
    • Nutanix - Quelques fonctionnalités en vidéo
    • Comment connaitre la volumétrie d'un cluster Nutanix...
    • Nutanix - NOS de 4.0 à 4.1…
    • Nutanix « Data-at-rest encryption »
    • Hotfix Nutanix pour la vulnérabilité « ShellShock »
    • Nutanix/Atlantis – Lukas remet les pendules à l’heure
    • VDI - Nutanix garanti les performances…
    • Protection de la donnée – NDFS vs RAID & Stockage objet
    • ECS - Le stockage HyperScale d'EMC et son Cluster ScaleIO
    • Nutanix - Visitez les entrailles des NX-1050, NX-3050 et NX-3060 Series
    • 5 millions de plus pour Nutanix…
    • Projets VDI : Comment choisir son stockage?
    • VMware EVO: RAIL – Des impacts sur les partenariats Nutanix ?
    • Nommage des blocs Nutanix
    • Citrix valide XenDesktop sur les plateformes Nutanix
    • Simplivity s’intègre aux serveurs de Cisco
    • VMware EVO:RAIL
    • Plateformes V.D.I - Les Datacenters respirent avec Nutanix
    • Happy birthday to Nutanix
    • Nutanix & VMware Horizon 6.0 with View : 54 minutes avec VCAI pour créer 445 Desktops
    • EVO: RAIL - VMware signe, Nutanix relativise
    • L’hyper-convergence NX-8150 de Nutanix au service des clouds publics avec « Cloud Connect » ?
    • VMware prend aussi le « rail » de l’hyper-convergence
    • Arrow référence SimpliVity
    • On ne dit plus « Big data » mais « Mégadonnées »
    • Nutanix, un visionnaire au sommet du « Magic Quadrant 2014 »
    • Outil de dimensionnement VMware Virtual SAN
    • Nutanix et Veeam Backup & Replication pour vSphere : les meilleures pratiques
    • Gérer des full clones avec Horizon View 6 ? No prob avec Nutanix…
    • LSI et Supermicro proposent une appliance hyperconvergée pour VMware Virtual Desktops pilotée par le logiciel EMC ScaleIO
    • Scale Computing - L'hyper-convergence pour les PME
    • Data Virtualization Engine de Simplivity
    • L’architecture OmniStack de Simplivity
    • Optimisation de la donnée par Simplivity vs Nutanix
    • Nutanix & VMware Horizon View 6 – L’efficacité lors du Boot Storm…
    • Nutanix & le V.D.I – L'évidence et la pertinence...
    • Nutanix – Le cache étendu (Extent Cache)
    • Les fonctionnalités avancées de Nutanix
    • Nutanix - Test IOPs en vidéo
    • EMC et sa solution ScaleIO
    • Virtual SAN vs ScaleIO
    • Virtual SAN en vidéo
    • Virtual SAN 5.5 - Design & dimensionnement
    • Cmdlets PowerShell Nutanix
    • Nutanix annonce la version 4.0 de son système d’exploitation
    • Nutanix - Software-Defined Controller Architecture
    • La donnée et ses chemins I/O chez Nutanix
    • NDFS, le système de fichiers distribué de Nutanix
    • Cloud, VDI et Big Data : Pourquoi Nutanix ?
    • La gestion du stockage chez Nutanix
    • Nutanix et son stockage
    • Présentation Nutanix avec retour d'expérience Claranet
    • VSAN s’intègre à l’hyperviseur ESX
    • Nutanix, un Datacenter in a box
    • Nutanix ajoute Hyper-V à sa liste d'hyperviseurs
    • Installation d'un block Nutanix

Les catégories du blog

  • Résolution d'incidents
  • Virtualisation d'applications
  • Virtualisation de postes de travail
  • Virtualisation de serveurs
  • L'Ecosystème
  • Infrastructures (hyper) convergentes
  • Cloud & Big Data
  • Divers

Les tags du blog

AppliDis Citrix Cloud Convergence Divers EMC Horizon View IPdiva Liquidware Labs Microsoft Nutanix SBC Simplivity StratusphereUX Systancia sécurité VDI VMware VSAN XenApp
  • Accueil /
  • Tous les billets du blog /
  • Infrastructures (hyper) convergentes /
  • Les fonctionnalités avancées de Nutanix

Les fonctionnalités avancées de Nutanix

Par | Le vendredi, 25 juillet 2014 | Commentaires (0) | Infrastructures (hyper) convergentes

 

La gestion des systèmes de stockage est le plus gros défi des centres de données virtualisés aujourd’hui car il représente une zone de l’infrastructure lourde à administrer, complexe et onéreuse.

L’architecture de stockage en réseau déterminée il y a quinze ans pour servir les besoins des serveurs physiques est aujourd’hui bien trop chère et complexe à gérer pour adresser le monde virtualisé.

Par manque d’alternatives robustes et éprouvées, les équipes informatiques sont contraintes d’utiliser des solutions traditionnelles qui ne suivent pas le rythme des machines virtuelles qui se déplacent, se multiplient rapidement et demandent de plus en plus de performance et de capacité.

Nutanix Complete Cluster est une architecture scale-out unique sur le marché, car elle contient à la fois la puissance de calcul et l’espace de stockage permettant aux entreprises de virtualiser leur centre de donnée sans utiliser de baie de stockage en réseau (SAN ou NAS) dissociée des serveurs. Développé pour servir les machines virtuelles, le cluster Nutanix simplifie radicalement l’architecture via l'usage de ses blocs d'infrastructure très denses contenant processeurs, mémoire, médias de stockage et fonctionnant en cluster extensible selon les besoins.

Résultat: un niveau de disponibilité maximum, une performance optimale qu'elle que soit la taille de l'environnement virtuel, une baisse drastique des coûts d'infrastructure et une grande simplicité de mise en œuvre.

Voir ces deux billets « La gestion du stockage chez Nutanix » et « Nutanix et son stockage » sur le blog.

Introduction

Limitations des architectures actuelles

Les entreprises, pour la plus grande majorité, bâtissent leurs plateformes de virtualisation sur la base d’un modèle traditionnel de serveurs connectés à une baie de stockage à travers un réseau, modèle qui se prête mal aux évolutions des environnements virtuels. En effet, il est très fréquent de constater des problèmes de dégradation des performances avec l’accroissement du nombre de VM hébergées par ce type d’architecture. C’est la première raison pour laquelle les grands acteurs du Cloud n’utilisent pas ce modèle serveurs-réseau-stockage pour servir les machines virtuelles qu’ils hébergent. La seconde raison est que dans un modèle traditionnel, le stockage en réseau est devenu la source principale de coût et de complexité au sein des infrastructures virtuelles.

Nx vdi 1

Le modèle de stockage en réseau fonctionne bien pour des serveurs physiques qui servent des applications relativement statiques. La virtualisation et, plus récemment, le Cloud Computing ont rendu les Datacenters extrêmement dynamiques : les machines virtuelles sont créées à la demande, se déplacent sur différents serveurs et dépendent complètement des ressources partagées. Ces caractéristiques rendent extrêmement complexe la gestion des machines virtuelles et de l’infrastructure physique sous-jacente.

Conséquence directe de la facilité de création des VM : les volumes de données augmentent très rapidement au sein des data-centres. Dans les entreprises, de nouvelles initiatives comme la virtualisation des postes de travail accentuent encore cette tendance. Le surcroît d’activité lié à la gestion des infrastructures de virtualisation n’est plus absorbable par beaucoup d’entreprises. Celles-ci externalisent de plus en plus leurs machines virtuelles chez des sociétés de services,  qui se retrouvent à gérer un nombre encore plus gigantesque de machines virtuelles, et à implanter des data-centres de en plus capacitifs pour répondre à la demande. Le nombre croissant de machines virtuelles exerce une pression de plus en plus forte sur les architectures traditionnelles qui connectent les moyens de calcul aux espaces de stockage via un réseau multicouches, particulièrement en termes de performance, temps d’administration et budget d’investissement. La solution idéale serait donc une architecture basée sur des briques très simples à installer et à remplacer, dont la performance augmente à l’infini en fonction des besoins, et qui réduise drastiquement les dépenses en matériels, logiciels, espace occupé et consommation électrique.

L’émergence des disques SSD (solid-state) est une autre tendance qui agrandit le fossé entre les serveurs et les systèmes de stockage. L’usage de disques SSD qui sont entre 100 fois et 1000 fois plus rapides que les disques traditionnels vont accroitre les goulots d’étranglement et la complexité du réseau stockage si les machines virtuelles doivent y accéder à travers un réseau. De nombreux acteurs du stockage SAN/NAS ajoutent désormais les disques SSD à leurs solutions, pour un budget conséquent. Ce type de solution nécessite également des investissements supplémentaires sur le réseau, afin de délivrer la bande passante nécessaire à l’exploitation de ce tiers de stockage pourtant déjà onéreux. Sur cet aspect, la solution idéale permettra aux machines virtuelles d’accéder directement à ces SSD en local pour une performance maximale, tout en supportant les fonctionnalités primordiales de déplacement de VM et de haute disponibilité.

L’approche Google

Google et d’autres entreprises majeures de l’ère du Cloud comme Amazon, Yahoo et Microsoft (Azure) ont pris conscience qu’une approche basée sur du stockage en réseau ne pourrait pas fonctionner pour leurs data-centres. Ils ont donc développé des solutions logicielles (par exemple le Google File System) qui peuvent fédérer un très grand nombre de serveurs de commodité incluant du stockage local dans un cluster unique.

Cette approche a permis à Google de construire une infrastructure convergée de calcul et de stockage utilisant des serveurs contenant du stockage local comme brique de base. Le File System de Google exploite un cluster de serveurs et crée un espace de stockage unique qui peut être accédé par toutes les applications qui s’exécutent sur un des serveurs du cluster. La particularité de ce type d’architecture est que le système cherche constamment à rapprocher géographiquement l’exécution de l’application et les données utilisées, ainsi une majorité des échanges s’effectuent localement dans le serveur afin d’éviter l’utilisation du réseau. Le niveau de performance est donc optimal grâce à l’élimination des problèmes de latence et de congestion.

Cette architecture permet également d’obtenir un très haut niveau de disponibilité pour les applications en masquant complètement les pannes matérielles au niveau des disques et des serveurs. Le File System Google a permis à Google de construire des data-centres évolutifs à l’extrême tout réduisant les coûts de moitié et en levant les limites de performance constatées sur des architectures serveurs-réseau-SAN/NAS.

Pour les besoins des entreprises, Nutanix a adopté une approche « scale out » similaire pour développer une infrastructure de calcul et de stockage prévue dès sa genèse pour l’hébergement de machines virtuelles en entreprise. A l’origine de Nutanix, on retrouve l’équipe d’architectes et développeurs à l’origine du Google File System, les architectes de l’infrastructure Big Data de Facebook ainsi que d’autres talents issus des domaines du Cloud, de la virtualisation, de l’optimisation des performances sur les systèmes de stockage.

L’architecture de Nutanix Complete Cluster

Principes fondamentaux

La solution Nutanix Complete Cluster a été développée à partir d’une feuille blanche pour résoudre les problématiques liées au stockage pour les machines virtuelles en construisant un système qui tire parti des dernières avancées en terme d’architecture système, et de technologies matérielles et logicielles. Il y a trois piliers clés dans l’architecture Nutanix.

Infrastructure distribuée

L’architecture Nutanix est similaire à celle de Google car c’est une infrastructure distribuée, ou « scale out » au niveau des moyens de calcul et de stockage qui élimine le besoin en système de stockage en réseau. Nutanix puise dans les meilleurs pratiques et fonctionnalités de l’environnement Google pour délivrer une solution optimisée pour la virtualisation en entreprise. A l’inverse du Google File System qui est une solution customisée pour les applications internes de Google (recherche, Gmail, etc..), Nutanix fournit une solution qui sert toutes les applications à partir du moment où elles sont virtualisées. En plus de ses facultés à distribuer l’infrastructure, la solution dispose de fonctionnalités embarquées identiques ou meilleures que celles fournies dans les solutions de stockage classiques du marché.

Ceci inclut des fonctions de haute disponibilité, réplication, snapshot, backup, reprise d’activité, compression en ligne et post process, thin provisioning,  etc…

Voir le billet « NDFS, le système de fichiers distribué de Nutanix » sur le blog

Virtualisation

La solution Nutanix a été pensée pour les machines virtuelles, donc elle supporte nativement toutes les fonctions des hyperviseurs, au même titre que les solutions de stockage centralisées. Ceci inclut entre autre la migration en ligne de machines virtuelles et la fonction de haute disponibilité (HA). De plus, comme l’architecture Nutanix est consciente de l’environnement virtuel, elle résorbe les limitations des solutions traditionnelles qui sont optimisées pour fonctionner avec des serveurs physiques.

Par exemple, alors que l’unité de gestion est la machine virtuelle du côté système, du côté stockage l’unité est traditionnellement la LUN. Quand une LUN est partagée par de nombreuses VM, il devient de plus en plus difficile d’effectuer des opérations sur le stockage, telles que la sauvegarde, la reprise après incident, les snapshot par machine virtuelle. Cela devient également très compliqué d’identifier les causes des dégradations de performance au sein d’un environnement fortement mutualisé à cause de la séparation entre serveurs et stockage. L’architecture Nutanix annule complètement ces contraintes et permet à gérer le stockage avec la VM pour unité de gestion.

Solid-State Drives

L’architecture Nutanix a été développée pour tirer le meilleur parti des disques solid-state drives les plus performants du marché. Il est important de noter que les systèmes de stockage traditionnels ont été pensés pour exploiter des disques mécaniques et l’exploitation de disques SSD de manière efficace s’avère très compliquée pour eux, car le mode d’accès aux données est complètement différent avec les disques SSD.  Les disques durs doivent gérer des rotations et optimiser la latence des recherches, les disques SSD n’ont pas ces limitations physiques. Cette différence entre les deux médias induit que le logiciel de contrôle doit être paramétré différemment pour tirer le maximum de performance des disques SSD.

On ne peut pas simplement utiliser un logiciel prévu pour des systèmes à disques durs et espérer qu’il fonctionnera efficacement avec des disques solid-state. La solution Nutanix fédère les disques SSD du cluster pour stocker les données accédées fréquemment. Par exemple, les métadonnées et les données « chaudes » du stockage primaire, sont stockées au sein de ce cache distribué pour la haute performance et persistant pour un recouvrement rapide des données. Pour maximiser le gain en performance des SSD, la solution Nutanix :

  • Réserve les disques SSD pour les fonctions gourmandes en I/O
  • Inclus des technologies d’optimisation d’espace utilisé pour permettre à une grande capacité d’espace virtuel d’être stocké sur une petite quantité d’espace physique
  • Migre automatiquement les données « froides » ou rarement utilisées vers des disques durs capacitifs, et permet aux administrateurs systèmes de by passer les SSD pour les machines virtuelles dont la criticité est faible.

Voir le billet « La donnée et ses chemins I/O chez Nutanix » sur le blog

Description de l’architecture

La solution Nutanix Complete Cluster est un cluster distribué de nœuds haute performance, chacun exécutant un hyperviseur standard et contenant des processeurs, de la mémoire, du stockage local dont des disques SSD et des disques durs. Chaque nœud héberge des machines virtuelles comme un serveur hôte de virtualisation standard. De plus, le stockage local de chaque nœud est virtualisé au sein d’un espace unifié par Nutanix Scale-Out Converged Storage (SOCS) (Figure1). En effet, SOCS agit comme un SAN avancé qui utilise les SSD et disques durs locaux de tous les nœuds pour stocker les données des machines virtuelles. Les machines virtuelles qui tournent sur le cluster écrivent les données vers SOCS comme si elles écrivaient vers un SAN. SOCS est conscient des VM de l’environnent et leur fournit des fonctionnalités avancées de gestions des données. Il amène les données au plus proche des machines virtuelles en les stockant localement dans le système qui exécute la VM, ce qui donne les meilleures performances pour un prix réduit. Afin d’assurer la haute disponibilité du système les données sont également répliquées au sein du cluster. La solution Nutanix Complete Cluster s’étend horizontalement de quelques nœuds à un très grand nombre de nœuds, permettant aux entreprises d’étendre leur infrastructure lorsqu’elles en ont besoin.  

Figure 1: Nutanix Scale-Out Converged Storage Architecture

Nx vdi 2

Avec la solution Nutanix Complete Cluster, toutes les fonctionnalités de virtualisation, incluant la haute disponibilité et le déplacement de VM, continuent de fonctionner de manière optimale. Les administrateurs créent des machines virtuelles en utilisant leurs procédures habituelles. Nutanix SOCS fournit le stockage pour ces machines virtuelles sous forme de disques virtuels, ou vDisks, qui se présentent comme des périphériques iSCSI standards.

Voir le billet « Nutanix - Software-Defined Controller Architecture » sur le blog

Nutanix Scale-Out Converged Storage – Composants clés

L’élément clé de l’architecture Nutanix est SOCS  - une couche d’abstraction propriétaire permettant la convergence et la distribution de l’infrastructure qui fournit un ensemble unique de fonctionnalités :

  • Il est réellement convergé avec les moyens de calcul. Les VM et SOCS coexistent au sein du même cluster.
  • Il est conscient des VM qui l’environnent. SOCS fournit du stockage VM par VM et peut identifier les I/O liés à chacune d'entre-elles.
  • Il peut s’étendre de 3 nœuds à un nombre très importants de nœuds.
  • Il intègre nativement l’exploitation optimale des disques solid-state drives.
  • Il permet une très haute disponibilité du cluster, rendant la solution insensible aux pannes de disques et de serveurs.
  • Il délivre une très haute performance en s’assurant que les I/O s’effectuent en local, en exploitant idéalement les SSD et en utilisant une série de fonctionnalités d’optimisation propres à Nutanix.
  • Il fournit des fonctionnalités uniques d’optimisation de la capacité de stockage utilisée.

SOCS fonctionne grâce aux composants suivant:

n-Way Controller Cluster

Alors que les systèmes de stockage SAN traditionnels présentent typiquement 1, 2, 4 ou 8 contrôleurs, un n-node Nutanix Complete Cluster a n contrôleurs (Figure 2). Chaque nœud du cluster exécute une machine virtuelle spéciale, appelée « Controller VM ». Cette machine virtuelle agit comme un contrôleur virtuel pour SOCS. Toutes les VM « Controller VM » dans un cluster communiquent les unes avec les autres pour former un seul système distribué. A la différence des systèmes SAN/NAS traditionnels, qui sont limités à un petit nombre de contrôleurs fixes, cette architecture continue de s’étendre à mesure que des nœuds sont rajoutés au cluster.

Figure 2: Nutanix Scale-Out Controller VM Architecture

Nx vdi 3

Heat-Optimized Tiering Cache (HOTcache)

HOTcache est un cache haute performance fonctionnant en complémentarité des SSD au sein de chaque nœud du cluster. Quand une VM guest écrit une donnée, cette donnée est en premier lieu écrite dans HOTcache et ensuite, en tache de fond, est transférée vers SOCS. HOTcache utilise une disposition séquentielle des données pour fournir les meilleures performances même en cas de charges applicatives séquencées de manière aléatoire par un ensemble de VM. HOTcache garde une copie de la donnée sur un disque SSD local et une autre copie sur un autre nœud afin qu’il n’y ait pas de perte de donnée même en cas de perte d’un nœud.

Service de distribution des Meta data (Medusa)

Avec les systèmes de stockage traditionnels, les contrôleurs deviennent souvent le goulot d’étranglement à mesure que la capacité du système augmente. Une des principales raisons à ce problème est que le stockage des Meta data s’effectue sur les contrôleurs. Les systèmes traditionnels évoluent jusqu’à un petit nombre de contrôleurs, donc lorsque le nombre de machines virtuelles augmente, la charge I/O par contrôleur augmente également.

Medusa, est un service de distribution des Meta datas dans le cluster qui garantit la meilleure évolutivité et réplique les données sur plusieurs nœuds pour la tolérance aux pannes. Ce service est hautement disponible et peut tolérer des pannes de plusieurs modules. En comparaison, les solutions de stockage traditionnelles dépendent de quelques contrôleurs et ne peuvent pas tolérer les pannes de plusieurs modules sans impact sur la production.             

Service de maintenance pour les données distribuées (Curator)

Le service de maintenance pour les données distribuées, Curator, est une architecture logicielle basée sur MapReduce et conçue pour exécuter en tâche de fond des opérations de gestion de la donnée de manière massivement parallèle. Ces opérations incluent :

  • Migration des données froides vers des tiers plus capacitifs (pour le Heat-Optimised Tiering)
  • Collection des résidus liés aux données effacées
  • Vérification de la consistance des données via checksums de routine
  • Réplication des données en cas de panne de disques ou de nœud
  • Rééquilibrage des données en cas d’ajout ou suppression de nœud
  • Migration des données pour permettre l’accès local aux données quand une VM se déplace d’un nœud vers un autre

FlashStore

FlashStore est le stockage persistant basé sur les technologies Flash fourni par l’agrégation des SSD au sein de chaque nœud du cluster. La donnée est d’abord écrite sur FlashStore et ensuite déplacée vers DiskStore lorsqu’elle devient « froide ». Lorsque des données « froides » redeviennent « chaudes », elles sont replacées dans FlashStore. Pour les vDisks qui servent des VMs à la priorité faible, les administrateurs ont l’option de ne pas utiliser FlashStore.

DiskStore

DiskStore est le tiers de stockage SATA de grande capacité réparti sur le cluster. DiskStore fournit une grande capacité de stockage pour les données froides. Le Heat-Optimising-Tiering (HOT) de Nutanix combine Flashstore et DiskStore pour délivrer à la fois une performance maximale et une grande capacité de stockage à faible coût.

Fonctionnalités clés

Nutanix Complete Cluster n’élimine pas seulement le besoin de stockage en réseau mais fournit également une très haute disponibilité, performance et des fonctionnalités avancées de gestion des données. Les fonctionnalités clés sont décrites ci-dessous.

Optimisation de capacité

Nutanix QuickClone

Nutanix permet aux administrateurs de déployer rapidement de nouvelles machines virtuelles en utilisant sa fonctionnalité QuickClone. Les QuickClones sont des snapshots modifiables qui se comportent comme des vDisks standards – les administrateurs peuvent y rattacher des VM, écrire des données dessus et même en faire un autre snapshot. Cette fonctionnalité est très utile pour déployer de nouveau postes de travail virtuels, créer un environnement de test et développement copié à partir de bases de données de production, et pour tout autre scénarios nécessitant des clones sans une duplication des données. Ce système supporte également les snapshots en read-only pour les besoins de sauvegarde.

Nutanix Thin Provisioning

Le stockage des machines virtuelles est provisionné en mode Thin provisioning dans le système Nutanix. Les administrateurs peuvent définir la capacité d’un vDisk mais le stockage physique est alloué seulement lorsque le besoin réel le nécessite. Bien sûr, s’ils le souhaitent, les administrateurs peuvent paramétrer une réservation qui garantit la quantité de stockage pour un ensemble de vDisks.

Nutanix Compression

La solution Nutanix complete cluster intrègre nativement la possibilité de faire de la compression in-line des données, et en option la compression post process. La compression permet de multiplier l’espace de stockage utile entre x 2 et x 4.5. Lorsque la compression est effectuée in-line, il y a une pénalité au niveau utilisation des processeurs, donc en général cette fonctionnalité est activée pour des clusters de test ou de reprise d’activité. Dans le cas de la compression post-process, la tâche s’effectue en tache de fond, et progresse chaque fois que la puissance processeur est libérée par les machines virtuelles. Donc pour un cluster de production, il est préférable d’utiliser la compression post process afin d’assurer une priorité aux machines virtuelles sur les ressources processeurs.

Nutanix Elastic Deduplication

Nutanix a implémenté une technologie de déduplication unique au monde qui démontre la nature réellement convergée du système. Faisant l’objet de brevets déposés, cette fonctionnalité s’applique sur l’ensemble des tiers de stockage à savoir le cache en mémoire et SSD ainsi que le stockage primaire sur disque.

A la différence des systèmes de déduplication in-line ou post process présents sur le marché, le système ne dé-doublonne pas  à partir d’une lecture des blocs de données. Lire les données implique une grande consommation d’IOPS dans les systèmes de déduplication post process, ou une grande consommation de puissance processeur pour les systèmes de déduplication in-line. Le système Nutanix, à contrario, va générer une empreinte (identifiant unique) pour chaque bloc de donnée écrit, immédiatement après l’acquittement de l’écriture, ce qui permet d’identifier les blocs de données sans impact sur les performances en écriture.

La base d’empreintes permet dans un second temps de dé-dupliquer le cache en lecture puisqu’un bloc de donnée unique sera monté une seule fois en cache au niveau RAM ou SSD. Cette fonctionnalité permet de maximiser la quantité de données exploitées directement dans le cache pour de meilleures performances.

Enfin, en tâche de fond, le système Nutanix peut re-parcourir la base d’empreinte pour dé-dupliquer les données sans parcourir les blocs de donnée, ce qui permet d’optimiser l’espace de stockage et regagner jusqu’à 90% de l’espace utile. Ce gain d’espace est obtenu sans consommer les IOPS d’une déduplication post-process traditionnelle.

Nutanix Converged Backup

La fonctionnalité Converged Backup fournit des fonctionnalités de sauvegarde instantanée et restauration pour les vDisks. Plusieurs mois de sauvegarde peuvent être conservés dans le système sans nécessiter une solution de sauvegarde externalisée. Quand une reprise d’activité est nécessaire, les administrateurs peuvent restaurer instantanément un vDisk à partir de n’importe lequel de ses backups. Pour les clients qui souhaitent externaliser leur sauvegarde, la solution Nutanix est compatible avec les outils tiers standards du marché.

Simplicité d’administration

Déploiement simplifié

La solution Nutanix Complete Cluster est plug-and-play et contient tous les matériels et logiciels nécessaires pour accueillir un très grand nombre de serveurs virtuels et de postes de travail virtuels. Les administrateurs peuvent l’installer et commencer à créer des machines virtuelles en l’espace de quelques minutes. Le rajout de nœuds permettant d’augmenter la capacité d’un cluster est complètement automatisé et s’effectue en deux clics dans l’interface d’administration.

Interface utilisateur de nouvelle génération

Nutanix PRISM est une interface intuitive développée en HTML5 qui permet aux administrateurs d’avoir une vue complète des ressources de calcul et de stockage du cluster. Elle leur permet de réaliser des opérations de trouble shoot sur des VM très simplement en leur permettant de relier chaque VM à des ressources physiques au sein du système.

Nx vdi 4

Nutanix Complete Cluster fournit également une interface CLI pour le management ainsi qu’une API REST et une MIB SNMP pour s’interfacer avec les outils de gestion existants..

Nutanix Scale-out Converged Storage (SOCS)

Nutanix SOCS permet d’éviter la gestion d’un système complexe de stockage en réseau, automatise les tâches et rend beaucoup plus simple la gestion d’environnements virtuels de toutes tailles.

Conformité avec les standards IT

Bien que Nutanix Complete Cluster permette la convergence d’infrastructure, il continue de supporter les outils et interfaces standards du marché que les départements informatiques utilisent. Par exemple, les nœuds hébergent des hyperviseurs standards du marché (tels que VMware ESXi, Microsoft Hyper-V et KVM) et toutes les procédures et outils logiciels qui fonctionnent avec ces hyperviseurs continueront de fonctionner avec Nutanix. De la même manière, les vDisks sont des périphériques iSCSI standards connectés aux VM via un initiateur iSCSI standard dans l’hyperviseur. En s’appuyant sur des interfaces complètement standardisées, le cluster Nutanix peut s’intégrer sans difficulté dans l’écosystème IT existant des entreprises.           

Performance et évolutivité

Solid-State Drives

Nutanix Complete Cluster a été développé avec l’utilisation de disques SSD à l’esprit. Les SSD pour serveurs intégrés inclus dans la solution fournisse de meilleures performances que les SSD au sein des systèmes de stockage traditionnels car ils évitent les problèmes de congestion et de latence induits par du stockage en réseau. Les systèmes traditionnels sont bien souvent limités par la quantité de Meta data qu’ils peuvent accueillir au sein du cache des contrôleurs. Dans un cluster Nutanix, les SSD sont utilisés à la fois pour les données des VM et pour stocker les Meta data de SOCS pour un accès plus rapide. Stocker des Meta datas riches sur SSDs permet à SOCS de fournir des fonctions avancées de gestion des données. Enfin, étant donné l’architecture Scale-out du cluster Nutanix, la capacité SSD du système grossit en même temps que le nombre de nœuds de calcul.

Nutanix Heat-Optimize Tiering (HOT)

Au sein d’un cluster Nutanix, un vDisk peut être alloué à un mix de disques SSD et SATA. Afin de s’assurer que seules les données de grande valeur restent sur les SSD, SOCS déplace les données froides vers les disques SATA de grande capacité en tâche de fond grâce à la fonctionnalité HOT.

Nutanix Elastic Deduplication

La technologie de déduplication Nutanix est utile à la fois pour optimiser l’espace de stockage mais aussi pour obtenir de meilleures performances. En effet, la déduplication s’effectue sans impact sur les performances mais en plus elle permet d’optimiser la quantité de données contenues dans le cache soit le tiers le plus performant du système.

Seuls les blocs de données uniques étant montés en cache, dans un contexte, ou de nombreux blocs de données seraient identiques entre les machines virtuelles (VDI par exemple), la totalité des données chaudes fonctionnent depuis le cache du système pour une performance décuplée.

Evolutivité

Le Cluster Nutanix est pensé pour évoluer depuis 3 nœuds jusqu’à un très grand nombre de nœuds (pas de limite). Chaque aspect de la solution a été développé avec en tête les besoins d’évolutivité des data-centres virtualisés d’aujourd’hui. A titre d’exemple, il n’y a pas de notion de maitre qui centraliserait les Meta data au sein du système. La couche de Meta data est, elle aussi, distribuée à travers l’ensemble du cluster, éliminant les points de contention habituels sur les systèmes Scale-out. De plus avec un contrôleur SOCS par nœud, le nombre de contrôleurs au sein du système peut être bien supérieur à celui d’un système de stockage traditionnel contenant seulement quelques contrôleurs. Ces innovations majeures sur le design permettent au système de commencer petit et de s’étendre massivement au moment où le besoin se présente.

Haute disponibilité

Nutanix Cluster RAID

Nutanix Complete Cluster est un système Scale-out très hautement disponible, sans aucun single point of failure. Grâce à l’utilisation du Cluster RAID Nutanix, les données sont réparties en blocs sur les disques d’un nœud afin d’améliorer les performances et répliquées à travers le cluster pour garantir la haute disponibilité. Ceci permet de délivrer une très haute disponibilité aux machines virtuelles même en cas de perte de disques ou de serveurs.

Redondance, changement de pièces, upgrade

Un cluster Nutanix est prévu pour résister à la perte successive de plusieurs composants sans perte de service. Chaque bloc de donnée étant écrit 2 fois dans la grille, lors de la perte d’un disque ou d’un nœud, le système peut continuer de servir les machines virtuelles actives grâce au réplica de donnée.

Dès que le système détecte que certains blocs de données ne sont présents qu’à un seul exemplaire (lors de la perte d’un nœud par exemple), le système s’auto-cicatrise en régénérant un réplica pour chacun de ces blocs de données. L’opération est très rapide car tous les nœuds du cluster travaillent à cette reconstruction. Une fois l’opération terminée le système est à nouveau en position de tolérance aux pannes.

Concernant le changement de pièces, les composants principaux (SSD, Disques, Alims) sont extractibles à chaud sans arrêt de production.

Enfin lors d’une upgrade des contrôleurs de stockage virtuels, Nutanix fournit une procédure automatisée qui permet d’upgrader les contrôleurs virtuels un par un sans impact sur les machines virtuelles en production.

Service de distribution des Meta data (Medusa)

Medusa est un service qui distribue les Meta data au sein du cluster et réplique les données sur de multiples nœuds pour garantir la tolérance aux pannes. Ce service permet d’atteindre un très haut niveau de disponibilité pour un data-centre virtualisé si on le compare aux solutions traditionnelles qui s’appuient sur quelques contrôleurs de stockage pour la redondance et la performance.

Nutanix Instant vDisk Motion

La capacité à migrer une VM en production d’un serveur hôte à un autre est une fonctionnalité très puissante fournie par les hyperviseurs standards du marché.

Jusqu’à présent, les entreprises ont pu profiter de cette fonctionnalité uniquement via l’usage d’un stockage centralisé et accédé via le réseau. D’ailleurs beaucoup d’entreprises ont implémenté ces solutions de stockage en réseau uniquement pour permettre le déplacement de VM à chaud et la haute disponibilité.

Dans un cluster Nutanix, le déplacement de VM à chaud fonctionne parfaitement bien qu’il s’agisse d’une infrastructure convergée qui utilise du stockage local. Les vDisks au sein du système sont des entités logiques complètement mobiles. Cette notion est primordiale pour la fonction Nutanix Instant vDisk Motion qui permet de déplacer rapidement un vDisk d’un nœud à un autre, quand nécessaire.

Sauvegarde et restauration

La faculté de sauvegarder et restaurer l’environnement sur un site de reprise est clé pour la stratégie de protection des données en entreprise. Nutanix Complete Cluster permet nativement d’effectuer des sauvegardes de données internalisées au cluster et d’effectuer des réplications entre cluster. Pour l’externalisation complète des sauvegardes, la solution et est compatible avec l’API vStorage de VMware pour la protection des données (VADP). Ceci permet une sauvegarde et restauration complète et fonctionnelle des machines virtuelles, à travers l’intégration avec les outils du marché compatibles VADP.

Reprise d’activité

Nutanix propose une fonctionnalité de réplication couplée avec une procédure de reprise d’activité automatisée. Cette fonctionnalité permet en un clic de lancer la procédure de reprise d’activité incluant le réenregistrement des machines virtuelles dans l’hyperviseur du site de reprise dans l’état ou elles étaient lors de la dernière réplication. La procédure de retour arrière s’effectue en un clic également ce qui facilite les opérations de bascule planifiées ou non. Le nombre de sites inclus dans l’architecture PRA est illimité et le niveau de granularité de cette protection est la machine virtuelle (et non pas la LUN).

Nx vdi 5

Nutanix Maintenance et Monitoring

Chaque système Nutanix propose par défaut une fonctionnalité « call-home » qui permet à nos équipes supports de monitorer la plateforme et d’assurer une maintenance proactive sur le système. Cette fonction est désactivable ou ré-orientable vers l’équipe informatique du client, si une communication vers l’extérieur n’est pas souhaitée. Les ingénieurs Nutanix effectuent le support de la solution Nutanix à distance ainsi que de l’hyperviseur choisi par le client (VMware ESX, Microsoft Hyper-V, KVM). Le changement de pièce est effectué sur site par un ingénieur sous-traitant certifié Nutanix.

Nutanix VDI Convergence

Articles similaires

« Petit Forestier » engage sa transformation digitale

Je rebondis sur un billet de James Karuttykaran, SE Director Southern EMEA chez Nutanix, que je viens de lire à l’instant sur LinkedIn. James met en avant une belle référence Nutanix en France « Petit Forestier &r…

AppliDis Fusion - La certification "Nutanix Ready AHV-Integrated"

Systancia remercie Nutanix d'avoir attribué à AppliDis Fusion la certification "Nutanix Ready AHV-Integrated" validant sa capacité à provisionner et gérer nativement les machines virtuelles au sein d’A…

7 votes. Moyenne 5.00 sur 5.

Vous devez être connecté pour poster un commentaire

                                www.virtu-desk.fr                                                      « Les technologies de virtualisation de l'environnement utilisateur »

            A propos

  • Mentions légales
  • CGU

 

         Contacts

  • Me contacter
  • Modération

   

               Me suivre

Twitter        Viadéo       Linked

Twitter 2    Vimeo    Linked in

 

           Abonnnement aux flux RSS

   Site         Blog         Agenda     Forum

Rss   Rss    Rss   Rss

 Copyright 04-2014 - Francis MILLOT

 

 

 

 

 

 

 

  • Mentions légales
  • Conditions générales d'utilisation