virtu-desk
  • La virtualisation
    • Les éditeurs
      • Citrix
      • Liquidware
      • Microsoft
      • Systancia
      • VMware
    • Les solutions
      • Les applications
      • Le poste de travail
      • Les serveurs
    • La mobilité
      • CYOD & bureau mobile
      • Enjeux et défis pour les entre
      • Qu'en pensent les entreprises
      • La mobilité et la virtualisati
      • Pourquoi une tablette au trava
    • Le cloud
      • Cloud computing
      • Cloud & Poste de travail
      • Le Cloud Computing en video
    • Les principes
    • Le V.D.I
  • L'écosystème
    • L'environnement utilisateur
      • AppSense User Virtualization
      • Norskale
      • ProfileUnity
      • RES Workspace Manager
      • vWorkspace
    • La containerisation
      • Les produits
      • Les éditeurs
    • Divers
      • Systancia Identity
      • Citrix Provisioning Server
      • Flex-IO
    • Audit/Supervision
      • Stratusphere FIT
      • Stratusphere UX
  • La sécurité
    • Produits Systancia
      • Systancia Access
      • Systancia Cleanroom
      • Systancia Gate
    • Bitdefender GravityZone
    • Recover2Cloud
    • Veeam Availability Suite
    • Stormshield Endpoint Security
  • Convergence & VDI
    • Convergentes
      • BladeSystem Matrix
      • Flexpod
      • PureFlex
      • Vblock
      • Virtual Compute
      • vStart
    • Hyper-convergentes
      • Atlantis HyperScale
      • Cisco HyperFlex
      • DataCore
      • Dell-EMC VxRail
      • Dell XC Series
      • EMC ScaleIO
      • HP Converged System
      • HP StoreVirtual VSA
      • Lenovo Série HX
      • Microsoft S2D
      • NetApp HCI
      • Nutanix
      • Pivot3
      • Scale Computing
      • Simplivity
      • VCE VxRack
      • Virtual SAN
      • VMware EVO:RAIL
  • L'actualité IT
    • La virtualisation du poste
    • Les infrastructures convergées
    • La sécurité
    • Divers
    • Les archives
      • La virtualisation du poste
      • Les infrastructures convergées
      • La sécurité
      • Divers

Blog - Convergence (Hyper)

  • Lister les billets de la rubrique
    • Comprendre comment l’hyper-convergence est adaptée au VDI
    • L’alliance Nutanix-Minjar va renforcer les capacités multi-cloud de l’OS Nutanix…
    • La vision de Nutanix en 90 secondes et en Français
    • Les NTC (Nutanix Technology Champions) 2018 « Made in France »
    • Nutanix inscrit la résilience dans sa plateforme cloud
    • NetApp HCI : l'essentiel sur l'offre hyper-convergée de NetApp
    • Nutanix dévoile la version 5.5 de sa plateforme AHV
    • Interview Sylvain Siou sur la vision du cloud par Nutanix à l'occasion de Next 2017
    • L’hyper-convergence arrive enfin chez NetApp…
    • La vision de Nutanix en 90 secondes et en Français
    • Microsoft S2D –Solution hyper-convergée dans Windows Server 2016
    • Microsoft S2D – Présentation du Software Storage Bus
    • Microsoft S2D – Choix des disques et des types de résilience
    • Microsoft S2D – Fonctionnement du cache
    • Microsoft S2D – Tolérance de pannes et efficacité du stockage
    • Microsoft S2D – La configuration matérielle requise
    • HPE rachète SimpliVity pour 650 millions de dollars !
    • Nutanix fait ses premiers pas en Bourse…
    • Nutanix fournit toujours plus de services avec Acropolis
    • Lenovo étend sa gamme d’Appliances hyper-convergées
    • Appliances VCE VxRack 1000 avec noeuds Neutrino
    • Appliances « Xpress », le SMB de Nutanix
    • Un revenu x2 pour le marché de l'hyper-convergence d'ici 2019 !
    • Les nouveautés de Virtual SAN 6.2
    • GP « Hyper-convergence » – EMC devant Nutanix avant mi-2017 ?
    • Magic Quadrant des systèmes intégrés 2015
    • Nutanix rachète Pernix Data et de Calm.io
    • Architecture Nutanix - Les ports TCP/UDP
    • Nutanix valide sa technologie sur les serveurs UCS de Cisco
    • Nutanix VM flash Mode - Activer les performances du SSD dans un système hybride
    • Nutanix Self Service Restore - Restaurer en mode fichiers sans faire intervenir l'administrateur...
    • Lenovo HX-series - Roadmap 2016
    • HPE annonce son « Hyper Converged 380 »
    • Cisco se met à l’hyper-convergence avec ses systèmes HyperFlex
    • Boostez les performances de votre desktop avec Liquidware Labs, Citrix et Nutanix
    • Nutanix sort sa version Acropolis 4.6...
    • Nutanix – Le Software va-t-il manger le monde ?
    • Nutanix & Wall Street, une rencontre incontournable ?
    • Nutanix Acropolis 4.5. Les fonctionnalités selon le type d’hyperviseur.
    • Citrix XenDesktop et Nutanix Acropolis
    • Erasure Coding-X, le RAID de Nutanix à l’échelle du cluster
    • Lenovo annonce ses serveurs hyper-convergés Nutanix
    • Acropolis - Quand le Panthéon Nutanix converge vers le 21ème Olympe
    • Les NTC (Nutanix Technology Champions) 2016 « Made in France »
    • AppliDis Fusion 5 s'intègre à l'hyperviseur Nutanix Acropolis.
    • Systancia renouvelle l’offre de solutions VDI avec Nutanix
    • Sauvegardez les Infrastructures Nutanix avec Veeam
    • Avec Nutanix, l'infrastructure devient invisible...
    • Nutanix & Lenovo annoncent officiellement leur partenariat.
    • AppliDis Fusion 5 obtient la certification Nutanix Ready for Acropolis
    • Atlantis HyperScale en bref...
    • Nouveautés de Virtual SAN 6.1
    • Les acteurs de l'hyper-convergence
    • Les ports réseau chez Nutanix
    • Dimensionnez vous-même votre infrastructure Nutanix …
    • Nutanix Community Edition – Le SDS gratuit de Nutanix
    • VxRack - La nouvelle solution hyper-convergente d'EMC
    • La gestion des licences chez Nutanix
    • L'hyper-convergence VSPEX™ Blue chez EMC
    • Le nouveau SDS de VMware: Virtual SAN 6.0
    • Nutanix Tour 2015
    • Le stockage hyper-convergé est-il une bonne option pour le VDI?
    • Nutanix – Un test de performance simple et rapide avec « Diagnostics.py »
    • Nutanix – La version NOS 4.1 est disponible...
    • Nutanix domine des pieds et de la tête le marché de l’hyper-convergence
    • NX-7000 – La plateforme Nutanix pour environnements VDI graphiques
    • Nutanix - NX-8150 opération à coeur ouvert...
    • Utiliser un stockage SAN/NAS avec Nutanix ?
    • EVO:Rail - NetApp a pris le TGV…
    • Nutanix - Mise en place de « Metro Cluster Availability » en vidéo
    • Nutanix - Mise à jour simplifiée pour les hyperviseurs
    • Nutanix & le Big Data
    • Bien dimensionner ses plateformes Nutanix
    • Dell lance sa gamme d'appliances hyper-convergentes
    • L'hyper-convergence classée en deux sous catégories...
    • Support Nutanix - La satisfaction clients...
    • Hyper-convergence : Nutanix & les 3 Mousquetaires...
    • Nutanix – Dimensionner vos plateformes VDI
    • La technologie SDS (Software-Defined Storage) de DataCore
    • Nutanix - Composants du CVM en vidéo
    • Nutanix & vCloud Automation Center
    • Nutanix - Quelques fonctionnalités en vidéo
    • Comment connaitre la volumétrie d'un cluster Nutanix...
    • Nutanix - NOS de 4.0 à 4.1…
    • Nutanix « Data-at-rest encryption »
    • Hotfix Nutanix pour la vulnérabilité « ShellShock »
    • Nutanix/Atlantis – Lukas remet les pendules à l’heure
    • VDI - Nutanix garanti les performances…
    • Protection de la donnée – NDFS vs RAID & Stockage objet
    • ECS - Le stockage HyperScale d'EMC et son Cluster ScaleIO
    • Nutanix - Visitez les entrailles des NX-1050, NX-3050 et NX-3060 Series
    • 5 millions de plus pour Nutanix…
    • Projets VDI : Comment choisir son stockage?
    • VMware EVO: RAIL – Des impacts sur les partenariats Nutanix ?
    • Nommage des blocs Nutanix
    • Citrix valide XenDesktop sur les plateformes Nutanix
    • Simplivity s’intègre aux serveurs de Cisco
    • VMware EVO:RAIL
    • Plateformes V.D.I - Les Datacenters respirent avec Nutanix
    • Happy birthday to Nutanix
    • Nutanix & VMware Horizon 6.0 with View : 54 minutes avec VCAI pour créer 445 Desktops
    • EVO: RAIL - VMware signe, Nutanix relativise
    • L’hyper-convergence NX-8150 de Nutanix au service des clouds publics avec « Cloud Connect » ?
    • VMware prend aussi le « rail » de l’hyper-convergence
    • Arrow référence SimpliVity
    • On ne dit plus « Big data » mais « Mégadonnées »
    • Nutanix, un visionnaire au sommet du « Magic Quadrant 2014 »
    • Outil de dimensionnement VMware Virtual SAN
    • Nutanix et Veeam Backup & Replication pour vSphere : les meilleures pratiques
    • Gérer des full clones avec Horizon View 6 ? No prob avec Nutanix…
    • LSI et Supermicro proposent une appliance hyperconvergée pour VMware Virtual Desktops pilotée par le logiciel EMC ScaleIO
    • Scale Computing - L'hyper-convergence pour les PME
    • Data Virtualization Engine de Simplivity
    • L’architecture OmniStack de Simplivity
    • Optimisation de la donnée par Simplivity vs Nutanix
    • Nutanix & VMware Horizon View 6 – L’efficacité lors du Boot Storm…
    • Nutanix & le V.D.I – L'évidence et la pertinence...
    • Nutanix – Le cache étendu (Extent Cache)
    • Les fonctionnalités avancées de Nutanix
    • Nutanix - Test IOPs en vidéo
    • EMC et sa solution ScaleIO
    • Virtual SAN vs ScaleIO
    • Virtual SAN en vidéo
    • Virtual SAN 5.5 - Design & dimensionnement
    • Cmdlets PowerShell Nutanix
    • Nutanix annonce la version 4.0 de son système d’exploitation
    • Nutanix - Software-Defined Controller Architecture
    • La donnée et ses chemins I/O chez Nutanix
    • NDFS, le système de fichiers distribué de Nutanix
    • Cloud, VDI et Big Data : Pourquoi Nutanix ?
    • La gestion du stockage chez Nutanix
    • Nutanix et son stockage
    • Présentation Nutanix avec retour d'expérience Claranet
    • VSAN s’intègre à l’hyperviseur ESX
    • Nutanix, un Datacenter in a box
    • Nutanix ajoute Hyper-V à sa liste d'hyperviseurs
    • Installation d'un block Nutanix

Les catégories du blog

  • Résolution d'incidents
  • Virtualisation d'applications
  • Virtualisation de postes de travail
  • Virtualisation de serveurs
  • L'Ecosystème
  • Infrastructures (hyper) convergentes
  • Cloud & Big Data
  • Divers

Les tags du blog

AppliDis Citrix Cloud Convergence Divers EMC GPU Horizon View IPdiva Liquidware Labs Microsoft Nutanix SBC StratusphereUX Systancia sécurité VDI VMware VSAN XenApp
  • Accueil /
  • Tous les billets du blog /
  • Infrastructures (hyper) convergentes /
  • Protection de la donnée – NDFS vs RAID & Stockage objet

Protection de la donnée – NDFS vs RAID & Stockage objet

Par | Le samedi, 27 septembre 2014 | Commentaires (0) | Infrastructures (hyper) convergentes

 

Avant d’entrer dans le vif du sujet, je voudrais faire un petit rappel sur les futurs enjeux de l’univers numérique qui forcement, remettent en cause les solutions traditionnelles de stockage.

Quelques chiffres

90 % du volume actuel de données ont été créés au cours des deux dernières années. L’univers numérique est en pleine expansion. Les ordinateurs et autres téléphones mobiles seront bientôt dépassés par les équipements informatiques portables et les objets connectés. Les objets connectés mobiles (puces RFID, smart cars, jouets, et même colliers de chien…), représentent aujourd’hui 18% de l’environnement digital mondial. Leur part devrait atteindre 27 % dans six ans, selon une étude publiée par IDC pour le compte d’EMC. D’après cette même étude, en 2020, le volume de données généré dans le monde par les objets connectés sera de 44 zettabytes, soit plus de 40 000 milliards de Gb (un Zo égal 1021 octets). En 2013, le volume de données était de 4,4 zettabytes, la progression sera donc de x10 en 7 ans. Dans six ans, 212 milliards de ces appareils seront en activité sur la planète. On dénombre à ce jour 20 milliards de dispositifs ou d’objets permettant de se connecter à internet, voire entre eux. Une plateforme comme Twitter génère à elle seule 7 téraoctets de données par jour.

Stockage 100% flash, la solution ?

D’ici là, il est nécessaire d’anticiper et de prévoir de nouveaux modes de stockage, d’accès et de protection de cette gigantesque masse d’informations. En effet, le stockage traditionnel, qui s’appuie sur l’ajout de disques pour stocker les nouvelles données, ne tient plus car le coût en est devenu prohibitif et les performances des disques ne permettent plus de soutenir la demande des utilisateurs sur ces données. Pour répondre au défi de la performance, la transition de disques magnétiques vers des solutions flash est une autre tendance qui anime le marché. Plusieurs constructeurs proposent des baies 100 % flash pour le stockage primaire des données afin de suivre la cadence. Mais là encore, on ne fait que déplacer le goulet d’étranglement actuel des I/O vers les contrôleurs eux-mêmes, d’où la nécessité, là encore, de rechercher de nouvelles architectures pour répondre au problème.

Stockage « Scale out », la réponse ?

Le marché du stockage sur disque devrait continuer à croître,  mais il devra rapidement évoluer vers des solutions qui permettent d’augmenter les ressources plus facilement et pour des coûts moindres comme des produits de stockage « Scale out » qui permettent de faire face au volume par simple ajout de nœuds de contrôleurs, qu’ils soient virtuels ou matériels, en s’appuyant sur des technologies hyper-convergées. Actuellement, c’est le seul moyen pour accompagner la croissance de la capacité brute de stockage nécessaire qui, selon le Gartner Group, devrait être de l’ordre de 50 % d’ici à 2016. Des entreprises, comme Pure Storage, Scality, Simplivity, Nirvanix, Nutanix et bien d’autres encore ont désormais leur mot à dire. La plupart d’entre elles ont choisi nativement des architectures « Scale out » couplée à la technologie Flash pour répondre aux problèmes de stockage posés par les environnements Cloud et les environnements fortement virtualisés. Ils investissent tous sur de nouvelles technologies de stockage en proposant des concepts innovants comme la convergence ou l’hyper-convergence, le stockage objet (présenter un fichier à travers HTTP par des API, le plus souvent REST), le stockage exclusivement sur des baies utilisant la technologie Flash.

Reste que la virtualisation du stockage par couche logicielle (système de fichiers distribué) qui sépare le matériel sous-jacent de l’intelligence de stockage (réplication, déduplication, tiering des données, etc…) est le concept le plus avancé et le plus pertinent aujourd’hui pour répondre aux besoins de grosses volumétries et de performances, avec sa technologie « Scale out » hyper bien adaptée.

Nutanix, avec son système de fichier distribué NDFS en est la meilleure preuve car elle rencontre un beau succès auprès de nombreux grands comptes français.

Mais c’est quoi la résilience ?

Ceci étant dit, revenons à nos moutons. On parle de plus en plus des nouvelles technologies et solutions de stockage, mais qu’en est-il vraiment ? Quels sont les éléments à prendre en compte ? Nous allons nous intéresser à la résilience qui est un des facteurs clé des nouvelles technologies de stockage.

Un des principaux intérêts du stockage est de pouvoir mettre en place une protection automatique des données. Comme plusieurs disques physiques sont utilisés, le système doit être en mesure de dupliquer les données de l'un vers l'autre afin de pouvoir les récupérer en cas de panne de l'un des disques. Permettre à un système de survivre à une panne matérielle, c'est ce qu'on appelle la « résilience ». Le terme « résilience » désigne donc la capacité d’un système, quel qu’il soit, à continuer de fonctionner en cas de panne. Dans les infrastructures traditionnelles ou « Scale out », le système doit protéger l’intégrité des données dans les pools et les espaces de stockage, qui doivent pouvoir « survives » en cas de panne d’un disque (ou plusieurs) ou d’un nœud du cluster.

La question que l’on peut se poser, c’est de savoir si la résilience est aussi bien, voire mieux gérée avec une infrastructure hyper-convergée, implémentée d’un système de fichiers distribué versus un stockage centralisé classique (RAID) ou objet.

Nous allons donc traiter ce point dans deux parties distinctes :

  • Résilience avec gestion du stockage traditionnel RAID et stockage objet
  • Résilience avec gestion du stockage hyper-convergé et système de fichiers distribué

Résilience avec gestion du stockage traditionnel RAID et stockage objet

Commençons par le stockage traditionnel partagé, et le niveau de RAID 5 (un des plus utilisé). La figure ci-dessous représente 3 disques SATA de 4 Tb dans une configuration RAID 5 avec un disque de secours (Hot Spare).

Fig protdata 01 

Prenons un exemple de scénario où l’on perd un disque. Le disque de Hot Spare est activé et la reconstruction des données commence, comme l’indique la figure ci-dessous.

Fig protdata 02 

Tout va pour le meilleur du monde me direz-vous, un disque est tombé en panne, le disque de Hot Spare a automatiquement pris sa place et la grappe RAID a commencé à reconstruire les données. Mais le problème dans cet exemple, aussi simplifié soit-il, c’est que les deux disques (soit une bande passante totale de 200 IOPS) doivent se reconstruire à partir d’un seul disque et la vitesse maximale à laquelle le RAID 5 va pouvoir restaurer la résilience est limitée à celle du disque de Hot Spare, soit 100 IOPS. Je vous laisse imaginer ce que ça donnerait avec un RAID 5 composé de 8 disques. Il y aurait 7 disques (soit 700 IOPS) qui reconstruiraient le nouveau disque avec seulement 100 IOPS en bande passante.

Avec cette architecture, les problèmes sont les suivants :

  1. La résilience à la reconstruction de l’ensemble du RAID va être conditionnée par les limites du disque de destination (Hot Spare), dans ce cas ci-dessus par un disque dur SATA à moins de 100 IOPS.
  2. La panne ultérieure d’un seul disque dur dans le RAID entraîne la perte de données.
  3. L’activité pendant la reconstruction du RAID a un fort impact sur ​​les contrôleurs de stockage, ce qui entraine une baisse des performances sur l'ensemble du stockage.
  4. L’activité pendant la reconstruction du RAID a un fort impact sur les machines virtuelles qui fonctionnent dans la grappe RAID.
  5. Plus il y a de disques dans la grappe RAID, plus la reconstruction longue et les plus les impacts sur les performances sont négatifs.

Maintenant que nous avons abordé ce concept, nous savons qu’une reconstruction de RAID peut prendre des heures, voir des jours, occasionnant des baisses de performances sur l’ensemble du stockage. Mais avec les nouvelles technologies hyper-convergées, ces contraintes ne sont plus vraiment un problème me direz-vous. Et bien c’est faux !

Tout ça va entièrement dépendre de la  façon dont les données sont récupérées en cas de défaillance d'un disque ou d’un nœud. Prenons comme exemple une solution hyper-convergente qui utilise un stockage objet. La figure ci-dessous représente un exemple simplifié de stockage objet basé sur l’hyper-convergence. Quatre objets en noirs, A, B, C et D avec leur copie représentée en couleur mauve.

Remarque: Les objets dans le magasin peuvent atteindre des centaines (voir beaucoup plus) de Gb en volumétrie.

Fig protdata 03 

Jetons un coup d'œil sur ce qui se passerait dans un scénario où un disque viendrait à tomber en panne. Dans la figure ci-dessous, nous voyons un disque qui est en panne sur le nœud 1, ce qui signifie que l’objet A et l'objet de réplique D (mauve) ont été perdus. Le magasin d’objets devra donc se reconstruire en faisant une copie de l'objet A sur le nœud 4 et une réplique de l'objet D sur le nœud 2 pour garantir la résilience.

Fig protdata 04 

Cette architecture pose plusieurs problèmes :

  1. Fonction de la taille des objets qui peuvent être supérieur à 200 Gb, le stockage va manquer de granularité.
  2. La résilience pour la reconstruction d'un objet unique est limitée par le disque ou le nœud source.
  3. La résilience pour la reconstruction d'un objet unique est également limitée par le disque ou le nœud de destination.
  4. La reconstruction de plusieurs objets (tels que l'objet A et D dans l'exemple ci-dessus) est limitée par le même disque ou le même nœud  qui se traduira par une contention et un ralentissement du processus de reconstruction pour la résilience aux deux objets.
  5. L'impact de la reconstruction est important pour les machines virtuelles en cours d'exécution sur les nœuds de source et de destination.
  6. Le magasin d'objets nécessite un témoin qui généralement est stocké sur un autre nœud du cluster. (Non représenté dans la figure ci-dessus).

Il convient de souligner que si des SSD sont utilisées pour le cache en écriture, l’impact est réduit et on accélère la reconstruction. Mais dans certains cas, les données sont récupérées en dehors du cache, c’est-à-dire dans le disque SAS ou SATA, et même si les écritures se font dans la SSD, on n’obtient guère d’amélioration car les écritures sont limitées par les performances en lecture dans le disque.

En résumé

Les solutions de stockage RAID traditionnelles, utilisées par les SAN/NAS et les solutions hyper-convergentes plus récentes à base de stockage objet souffrent toutes les deux de problèmes similaires lors de la reconstruction automatique des données en cas de perte de disques ou de nœuds.

Résilience avec gestion du stockage hyper-convergé et système de fichiers distribué

Pour faire suite à cette première partie, nous allons maintenant parler du concept hyper-convergent basé sur un système de fichiers distribué, basé sur GFS (Google File System) et HDFS (Hadoop Distributed File System) et dans notre cas, plus particulièrement sur celui de Nutanix NDFS (Nutanix Distributed File System).

L’objectif est de faire le comparatif entre les solutions traditionnelles SAN/NAS en RAID et l’hyper-convergence à base de stockage objet pour la protection des données.

La figure ci-dessous montre une solution hyper-convergente à 4 nœuds qui utilise un système de fichiers distribués sur 4 disques SATA identiques de 4 Tb avec une protection où la donnée est répliquée deux fois. (C’est le facteur de réplication x2 (RF2) chez Nutanix).

Fig protdata 05 

Comme on peut le remarquer, la première différence concerne les données, qui sont beaucoup plus granulaires en comparaison avec une solution hyper-convergente à base de stockage objet (vu dans la première partie).

La seconde différence, un peu moins évidente, c’est que les copies répliquées des données du nœud 1 (avec des lettres mauves), ne résident pas que sur un seul autre nœud, mais sont distribuées à travers tout le cluster. Regardons maintenant ce qui se passe quand un disque tombe en panne.

Dans la figure ci-dessous, le nœud 1 perd son disque qui héberge 8 blocs de données granulaires chacun de taille de 1 Mb.

Fig protdata 06 

Le système de fichiers distribué détecte aussitôt que les données A, B, C, D, E, I, M, P n’ont plus qu’une seule copie dans le cluster et commence un processus de reconstruction (comme le facteur de réplication est x2, il les copie sur d’autres nœuds)

Voici les étapes de réplication :

  1. La data « A » est répliquée du nœud 2 vers le nœud 3
  2. La data « B » est répliquée du nœud 2 vers le nœud 4
  3. La data « C » est répliquée du nœud 3 vers le nœud 2
  4. La data « D » est répliquée du nœud 4 vers le nœud 2
  5. La data « E » est répliquée du nœud 2 vers le nœud 4
  6. La data « I » est répliquée du nœud 3 vers le nœud 2
  7. La data « M » est répliquée du nœud 4 vers le nœud 3
  8. La data « P » est répliquée du nœud 4 vers le nœud 3

Quel est l’impact sur chaque nœud ?

Le tableau ci-dessous est une représentation simplifiée de la charge pendant la reconstruction dans le cluster. Comme vous pouvez le constater, la charge (soit les 8 blocs granulaires de données répliquées) a été répartie entre les nœuds du cluster de façon très homogène.

Fig protdata 07

Voici les avantages d'une solution hyper-convergente avec un système de fichiers distribué (utilisé par Nutanix dans notre cas).

  1. Distribution hautement granulaire, utilisant des blocs de 1Mb, donc pas de gros objets.
  2. Pour reconstruire la résilience après la perte d’un disque (ou d’un nœud), la charge de travail a été répartie et distribuée sur tous les disques et les nœuds dans le cluster. (Et pas seulement à un seul disque limité à moins de 100 IOPS)
  3. Comme la charge est distribuée et répartie dans tout le cluster (n’est pas dépendante d’une paire des disques ou de nœuds entre la source et la destination), la reconstruction des données a un très faible impact sur l’activité et les performances.
  4. Grace au système de fichiers distribué, la reconstruction des données à un faible impact sur les machines virtuelles en cours d'exécution et des performances constantes sont maintenues pendant cette phase de reconstruction.
  5. Plus le cluster est gros, moins l’impact est important car la reconstruction des données, pour une même volumétrie (Gb), est plus rapide car elle se fait sur un nombre plus important de disques et de nœuds.
  6. Les SSD des nœuds Nutanix sont non seulement utilisées pour le cache en lecture/écriture, mais aussi comme stockage persistant. Ça signifie que les données traitées seront écrites dans la SSD et au cas où ces données ne soient pas encore dans le cache (mémoire ou SSD niveaux), elles seront sans doute dans la SSD persistante ce qui va considérablement améliorer les performances pendant la reconstruction.

En résumé

Les solutions en RAID traditionnels sur des SAN/NAS et l’hyper-convergence utilisant un stockage objet, souffrent des problèmes similaires lors de la reconstruction automatique des données en cas de perte d’un disque ou d’un nœud.

La solution hyper-convergée Nutanix, utilisant le système de fichiers distribué NDFS (Nutanix Distributed File System), peut reconstruire la résilience, suite à une panne de disque dur ou d’un des nœuds du cluster, beaucoup plus vite et avec un minimum de conséquence sur l'impact de l’activité, grâce à son architecture modulaire et distribuée. Cela signifie de biens meilleurs performances et un rendement beaucoup plus constant pour les machines virtuelles.

 

Sources de ce document sur ces liens : lien1 - lien2 - lien3 - lien4

Convergence Nutanix

Articles similaires

L’alliance Nutanix-Minjar va renforcer les capacités multi-cloud de l’OS Nutanix…

Voilà, c’est fait. Nutanix a annoncé le 1er mars 2018 la signature d'un accord définitif pour l'acquisition de « Minjar ». …

La vision de Nutanix en 90 secondes et en Français

Nutanix Enterprise Cloud OS... Des années de recherche et d'innovation résumées en moins de 2 minutes. Bravo James... …

9 votes. Moyenne 5.00 sur 5.

Vous devez être connecté pour poster un commentaire

                                www.virtu-desk.fr                                                      « Les technologies de virtualisation de l'environnement utilisateur »

            A propos

  • Mentions légales
  • CGU

 

         Contacts

  • Me contacter
  • Modération

   

               Me suivre

Twitter        Viadéo       Linked

Twitter 2    Vimeo    Linked in

 

           Abonnnement aux flux RSS

   Site         Blog         Agenda     Forum

Rss   Rss    Rss   Rss

 Copyright 04-2014 - Francis MILLOT

 

 

 

 

 

 

 

  • Mentions légales
  • Conditions générales d'utilisation