virtu-desk
  • La virtualisation
    • Les éditeurs
      • Citrix
      • Liquidware
      • Microsoft
      • Systancia
      • VMware
    • Les solutions
      • Les applications
      • Le poste de travail
      • Les serveurs
    • La mobilité
      • CYOD & bureau mobile
      • Enjeux et défis pour les entre
      • Qu'en pensent les entreprises
      • La mobilité et la virtualisati
      • Pourquoi une tablette au trava
    • Le cloud
      • Cloud computing
      • Cloud & Poste de travail
      • Le Cloud Computing en video
    • Les principes
    • Le V.D.I
  • L'écosystème
    • L'environnement utilisateur
      • AppSense User Virtualization
      • Norskale
      • ProfileUnity
      • RES Workspace Manager
      • vWorkspace
    • La containerisation
      • Les produits
      • Les éditeurs
    • Divers
      • Systancia Identity
      • Citrix Provisioning Server
      • Flex-IO
    • Audit/Supervision
      • Stratusphere FIT
      • Stratusphere UX
  • La sécurité
    • Produits Systancia
      • Systancia Access
      • Systancia Cleanroom
      • Systancia Gate
    • Bitdefender GravityZone
    • Recover2Cloud
    • Veeam Availability Suite
    • Stormshield Endpoint Security
  • Convergence & VDI
    • Convergentes
      • BladeSystem Matrix
      • Flexpod
      • PureFlex
      • Vblock
      • Virtual Compute
      • vStart
    • Hyper-convergentes
      • Atlantis HyperScale
      • Cisco HyperFlex
      • DataCore
      • Dell-EMC VxRail
      • Dell XC Series
      • EMC ScaleIO
      • HP Converged System
      • HP StoreVirtual VSA
      • Lenovo Série HX
      • Microsoft S2D
      • NetApp HCI
      • Nutanix
      • Pivot3
      • Scale Computing
      • Simplivity
      • VCE VxRack
      • Virtual SAN
      • VMware EVO:RAIL
  • L'actualité IT
    • La virtualisation du poste
    • Les infrastructures convergées
    • La sécurité
    • Divers
    • Les archives
      • La virtualisation du poste
      • Les infrastructures convergées
      • La sécurité
      • Divers

Blog - Convergence (Hyper)

  • Lister les billets de la rubrique
    • Comprendre comment l’hyper-convergence est adaptée au VDI
    • L’alliance Nutanix-Minjar va renforcer les capacités multi-cloud de l’OS Nutanix…
    • La vision de Nutanix en 90 secondes et en Français
    • Les NTC (Nutanix Technology Champions) 2018 « Made in France »
    • Nutanix inscrit la résilience dans sa plateforme cloud
    • NetApp HCI : l'essentiel sur l'offre hyper-convergée de NetApp
    • Nutanix dévoile la version 5.5 de sa plateforme AHV
    • Interview Sylvain Siou sur la vision du cloud par Nutanix à l'occasion de Next 2017
    • L’hyper-convergence arrive enfin chez NetApp…
    • La vision de Nutanix en 90 secondes et en Français
    • Microsoft S2D –Solution hyper-convergée dans Windows Server 2016
    • Microsoft S2D – Présentation du Software Storage Bus
    • Microsoft S2D – Choix des disques et des types de résilience
    • Microsoft S2D – Fonctionnement du cache
    • Microsoft S2D – Tolérance de pannes et efficacité du stockage
    • Microsoft S2D – La configuration matérielle requise
    • HPE rachète SimpliVity pour 650 millions de dollars !
    • Nutanix fait ses premiers pas en Bourse…
    • Nutanix fournit toujours plus de services avec Acropolis
    • Lenovo étend sa gamme d’Appliances hyper-convergées
    • Appliances VCE VxRack 1000 avec noeuds Neutrino
    • Appliances « Xpress », le SMB de Nutanix
    • Un revenu x2 pour le marché de l'hyper-convergence d'ici 2019 !
    • Les nouveautés de Virtual SAN 6.2
    • GP « Hyper-convergence » – EMC devant Nutanix avant mi-2017 ?
    • Magic Quadrant des systèmes intégrés 2015
    • Nutanix rachète Pernix Data et de Calm.io
    • Architecture Nutanix - Les ports TCP/UDP
    • Nutanix valide sa technologie sur les serveurs UCS de Cisco
    • Nutanix VM flash Mode - Activer les performances du SSD dans un système hybride
    • Nutanix Self Service Restore - Restaurer en mode fichiers sans faire intervenir l'administrateur...
    • Lenovo HX-series - Roadmap 2016
    • HPE annonce son « Hyper Converged 380 »
    • Cisco se met à l’hyper-convergence avec ses systèmes HyperFlex
    • Boostez les performances de votre desktop avec Liquidware Labs, Citrix et Nutanix
    • Nutanix sort sa version Acropolis 4.6...
    • Nutanix – Le Software va-t-il manger le monde ?
    • Nutanix & Wall Street, une rencontre incontournable ?
    • Nutanix Acropolis 4.5. Les fonctionnalités selon le type d’hyperviseur.
    • Citrix XenDesktop et Nutanix Acropolis
    • Erasure Coding-X, le RAID de Nutanix à l’échelle du cluster
    • Lenovo annonce ses serveurs hyper-convergés Nutanix
    • Acropolis - Quand le Panthéon Nutanix converge vers le 21ème Olympe
    • Les NTC (Nutanix Technology Champions) 2016 « Made in France »
    • AppliDis Fusion 5 s'intègre à l'hyperviseur Nutanix Acropolis.
    • Systancia renouvelle l’offre de solutions VDI avec Nutanix
    • Sauvegardez les Infrastructures Nutanix avec Veeam
    • Avec Nutanix, l'infrastructure devient invisible...
    • Nutanix & Lenovo annoncent officiellement leur partenariat.
    • AppliDis Fusion 5 obtient la certification Nutanix Ready for Acropolis
    • Atlantis HyperScale en bref...
    • Nouveautés de Virtual SAN 6.1
    • Les acteurs de l'hyper-convergence
    • Les ports réseau chez Nutanix
    • Dimensionnez vous-même votre infrastructure Nutanix …
    • Nutanix Community Edition – Le SDS gratuit de Nutanix
    • VxRack - La nouvelle solution hyper-convergente d'EMC
    • La gestion des licences chez Nutanix
    • L'hyper-convergence VSPEX™ Blue chez EMC
    • Le nouveau SDS de VMware: Virtual SAN 6.0
    • Nutanix Tour 2015
    • Le stockage hyper-convergé est-il une bonne option pour le VDI?
    • Nutanix – Un test de performance simple et rapide avec « Diagnostics.py »
    • Nutanix – La version NOS 4.1 est disponible...
    • Nutanix domine des pieds et de la tête le marché de l’hyper-convergence
    • NX-7000 – La plateforme Nutanix pour environnements VDI graphiques
    • Nutanix - NX-8150 opération à coeur ouvert...
    • Utiliser un stockage SAN/NAS avec Nutanix ?
    • EVO:Rail - NetApp a pris le TGV…
    • Nutanix - Mise en place de « Metro Cluster Availability » en vidéo
    • Nutanix - Mise à jour simplifiée pour les hyperviseurs
    • Nutanix & le Big Data
    • Bien dimensionner ses plateformes Nutanix
    • Dell lance sa gamme d'appliances hyper-convergentes
    • L'hyper-convergence classée en deux sous catégories...
    • Support Nutanix - La satisfaction clients...
    • Hyper-convergence : Nutanix & les 3 Mousquetaires...
    • Nutanix – Dimensionner vos plateformes VDI
    • La technologie SDS (Software-Defined Storage) de DataCore
    • Nutanix - Composants du CVM en vidéo
    • Nutanix & vCloud Automation Center
    • Nutanix - Quelques fonctionnalités en vidéo
    • Comment connaitre la volumétrie d'un cluster Nutanix...
    • Nutanix - NOS de 4.0 à 4.1…
    • Nutanix « Data-at-rest encryption »
    • Hotfix Nutanix pour la vulnérabilité « ShellShock »
    • Nutanix/Atlantis – Lukas remet les pendules à l’heure
    • VDI - Nutanix garanti les performances…
    • Protection de la donnée – NDFS vs RAID & Stockage objet
    • ECS - Le stockage HyperScale d'EMC et son Cluster ScaleIO
    • Nutanix - Visitez les entrailles des NX-1050, NX-3050 et NX-3060 Series
    • 5 millions de plus pour Nutanix…
    • Projets VDI : Comment choisir son stockage?
    • VMware EVO: RAIL – Des impacts sur les partenariats Nutanix ?
    • Nommage des blocs Nutanix
    • Citrix valide XenDesktop sur les plateformes Nutanix
    • Simplivity s’intègre aux serveurs de Cisco
    • VMware EVO:RAIL
    • Plateformes V.D.I - Les Datacenters respirent avec Nutanix
    • Happy birthday to Nutanix
    • Nutanix & VMware Horizon 6.0 with View : 54 minutes avec VCAI pour créer 445 Desktops
    • EVO: RAIL - VMware signe, Nutanix relativise
    • L’hyper-convergence NX-8150 de Nutanix au service des clouds publics avec « Cloud Connect » ?
    • VMware prend aussi le « rail » de l’hyper-convergence
    • Arrow référence SimpliVity
    • On ne dit plus « Big data » mais « Mégadonnées »
    • Nutanix, un visionnaire au sommet du « Magic Quadrant 2014 »
    • Outil de dimensionnement VMware Virtual SAN
    • Nutanix et Veeam Backup & Replication pour vSphere : les meilleures pratiques
    • Gérer des full clones avec Horizon View 6 ? No prob avec Nutanix…
    • LSI et Supermicro proposent une appliance hyperconvergée pour VMware Virtual Desktops pilotée par le logiciel EMC ScaleIO
    • Scale Computing - L'hyper-convergence pour les PME
    • Data Virtualization Engine de Simplivity
    • L’architecture OmniStack de Simplivity
    • Optimisation de la donnée par Simplivity vs Nutanix
    • Nutanix & VMware Horizon View 6 – L’efficacité lors du Boot Storm…
    • Nutanix & le V.D.I – L'évidence et la pertinence...
    • Nutanix – Le cache étendu (Extent Cache)
    • Les fonctionnalités avancées de Nutanix
    • Nutanix - Test IOPs en vidéo
    • EMC et sa solution ScaleIO
    • Virtual SAN vs ScaleIO
    • Virtual SAN en vidéo
    • Virtual SAN 5.5 - Design & dimensionnement
    • Cmdlets PowerShell Nutanix
    • Nutanix annonce la version 4.0 de son système d’exploitation
    • Nutanix - Software-Defined Controller Architecture
    • La donnée et ses chemins I/O chez Nutanix
    • NDFS, le système de fichiers distribué de Nutanix
    • Cloud, VDI et Big Data : Pourquoi Nutanix ?
    • La gestion du stockage chez Nutanix
    • Nutanix et son stockage
    • Présentation Nutanix avec retour d'expérience Claranet
    • VSAN s’intègre à l’hyperviseur ESX
    • Nutanix, un Datacenter in a box
    • Nutanix ajoute Hyper-V à sa liste d'hyperviseurs
    • Installation d'un block Nutanix

Les catégories du blog

  • Résolution d'incidents
  • Virtualisation d'applications
  • Virtualisation de postes de travail
  • Virtualisation de serveurs
  • L'Ecosystème
  • Infrastructures (hyper) convergentes
  • Cloud & Big Data
  • Divers

Les tags du blog

AppliDis Citrix Cloud Convergence Divers EMC GPU Horizon View IPdiva Liquidware Labs Microsoft Nutanix SBC StratusphereUX Systancia sécurité VDI VMware VSAN XenApp
  • Accueil /
  • Tous les billets du blog /
  • Infrastructures (hyper) convergentes /
  • Microsoft S2D – Fonctionnement du cache

Microsoft S2D – Fonctionnement du cache

Par | Le samedi, 11 février 2017 | Commentaires (0) | Infrastructures (hyper) convergentes

Les espaces de stockage direct (Microsoft S2D pour Storage Spaces Direct) comprennent un cache intégré côté serveur pour optimiser les performances de stockage. C'est un cache volumineux, persistant et en temps réel pour la lecture et l'écriture.

NOTA : Ce billet est repris du site Technet de Microsoft (voir lien de la source en fin d'article)

Le cache est configuré automatiquement lorsque les espaces de stockage direct sont activés. Dans la plupart des cas, aucune gestion manuelle n'est requise. Le fonctionnement du cache dépend des types de lecteurs présents.

 

Types de lecteurs et options de déploiement

Les espaces de stockage direct sont disponibles pour trois types de dispositifs de stockage :

W2k16 ssd nvme

  Mémoire non volatile NVMe (Non-Volatile Memory Express)

W2k16 ssd ssd

  Disque SSD (Solid-State Drive) SATA/SAS

W2k16 ssd hdd

  Disque dur HDD (Hard Disk Drive)

 

Ces formats peuvent être combinés de six façons, que nous regroupons dans les deux catégories « 100 % Flash » et « hybride ».

Possibilités de déploiement 100 % Flash

Les déploiements 100 % Flash visent à optimiser les performances de stockage, et n'incluent pas de disques durs rotatifs (HDD).

W2k16 ssd all flash deployment possibilities

Possibilités de déploiement hybride

Les déploiements hybrides visent à équilibrer performances et capacité de stockage, ou à optimiser la capacité. Ils comprennent des disques durs rotatifs (HDD).

W2k16 ssd hybrid deployment possibilities

Les lecteurs de cache sont sélectionnés automatiquement

Dans les déploiements comprenant plusieurs types de lecteurs, les espaces de stockage direct utilisent automatiquement tous les lecteurs les plus « rapides » pour la mise en cache. Les lecteurs restants sont utilisés pour la capacité.

Les types de lecteurs les plus « rapides » sont déterminés selon la hiérarchie suivante.

W2k16 ssd drive type hierarchy

Par exemple, si vous avez des lecteurs NVMe et SSD, les NVMe seront utilisés pour la mise en cache des SSD.

Si vous avez des lecteurs SSD et HDD, les SSD seront utilisés pour la mise en cache des HDD.

Remarque

Les lecteurs de cache ne sont pas compris dans la capacité de stockage utilisable. Toutes les données stockées en cache sont également stockées ailleurs, même si cette opération peut se faire lors d'une étape ultérieure. Autrement dit, la capacité de stockage brute totale de votre déploiement correspond à la somme de vos lecteurs de capacité uniquement.

Lorsque les lecteurs sont tous du même type, aucun cache n'est configuré automatiquement. Vous avez la possibilité de configurer des lecteurs plus endurants pour la mise en cache de lecteurs moins endurants du même type. Pour en savoir plus, consultez la section Configuration manuelle.

 

Le comportement du cache est défini de manière automatique

 

Le comportement du cache est déterminé automatiquement en fonction du ou des types de lecteurs utilisés. Si vous créez un cache pour des disques SSD (par exemple, avec des NVMe), seules les écritures sont mises en cache. Si vous créez un cache pour des disques HDD (par exemple, avec des SSD), les écritures et les lectures sont mises en cache.

W2k16 ssd cache read write behavior

 

Mise en cache en écriture seulement pour les déploiements 100 % Flash

Si vous créez un cache pour des disques SSD (NVMe ou SSD), seules les écritures sont mises en cache. Avec cette méthode, les lecteurs de capacité s'usent moins rapidement. En effet, vous pouvez regrouper de nombreuses écritures et réécritures dans le cache, et ne les déstocker que lorsque c'est nécessaire. Le trafic cumulatif sur les lecteurs de capacité est ainsi réduit, ce qui permet de prolonger leur durée de vie. Pour cette raison, nous vous recommandons de sélectionner des lecteurs très endurants et optimisés pour l'écriture pour le cache. Vous pouvez raisonnablement choisir des lecteurs de capacité moins endurants en écriture.

Les lectures ne sont pas mises en cache, étant donné qu'elles n'affectent pas la durée de vie des lecteurs Flash de manière significative, et que les disques SSD offrent généralement une faible latence dans ce domaine. Aussi, elles arrivent directement des lecteurs de capacité (sauf quand les données ont été écrites trop récemment et qu'elles n'ont pas encore été déstockées du cache). Le cache est ainsi dédié intégralement aux écritures pour une efficacité optimale.

Par conséquent, les caractéristiques d'écriture, comme la latence, sont dictées par les lecteurs de cache, alors que les caractéristiques de lecture sont dictées par les lecteurs de capacité. Dans les deux cas, elles sont cohérentes, prévisibles et uniformes.

Mise en cache en lecture/écriture pour les déploiements hybrides

Si vous créez un cache pour des disques HDD, les écritures et les lectures sont mises en cache. Dans les deux cas, la latence est équivalente à celle des lecteurs Flash (souvent env. 10x meilleure). Le cache de lecture stocke les données lues récemment et fréquemment pour un accès rapide et pour réduire au maximum le trafic aléatoire vers les disques durs. (En raison des délais de recherche et de rotation, la latence et le temps perdu causés par l'accès aléatoire à un disque dur sont considérables.) Les écritures sont mises en cache pour absorber les pics de trafic, et comme précédemment, vous pouvez regrouper les écritures et réécritures afin de réduire au maximum le trafic cumulatif sur les lecteurs de capacité.

Les espaces de stockage direct font appel à un algorithme qui annule l'aspect aléatoire des écritures avant de les déstocker du cache. Cela permet d'émuler un schéma d'E/S d'apparence séquentielle au niveau du lecteur, même quand les E/S réelles provenant de la charge de travail (par exemple, des machines virtuelles) sont aléatoires. Les E/S par seconde et le débit au niveau des disques durs sont ainsi optimisés.

Mise en cache dans des déploiements comprenant les trois types de lecteurs

Lorsque les trois types de lecteurs sont présents, les lecteurs NVMe fournissent le cache pour les disques SSD et HDD. Le comportement est celui décrit ci-dessus : seules les écritures sont mises en cache pour les SSD. Pour les HDD, les lectures et les écritures sont mises en cache. Le fardeau de la mise en cache pour les HDD est réparti équitablement entre les lecteurs de cache.

Récapitulatif

Ce tableau récapitule les lecteurs utilisés pour la mise en cache et la capacité, et rappelle les comportements de cache associés à chaque déploiement.

Déploiement

Lecteurs de cache

Lecteurs de capacité

Comportement du cache (par défaut)

Uniquement des disques NVMe

Aucun (configuration manuelle possible, mais facultative)

NVMe

Écriture seulement (si configuré)

Disques SSD uniquement

Aucun (configuration manuelle possible, mais facultative)

SSD

Écriture seulement (si configuré)

NVMe + SSD

NVMe

SSD

Écriture seulement

NVMe + HDD

NVMe

HDD

Lecture + Écriture

SSD + HDD

SSD

HDD

Lecture + Écriture

NVMe + SSD + HDD

NVMe

SSD + HDD

Lecture + Écriture pour les HDD, Écriture seulement pour les SSD

Architecture côté serveur

Le cache est mis en œuvre côté lecteur : les différents lecteurs formant le cache au niveau d'un serveur sont reliés à un ou plusieurs lecteurs de capacité au sein de ce même serveur.

Étant donné que le cache est situé sous le reste de la pile de stockage à définition logicielle Windows, les concepts d'espaces de stockage et de tolérance de panne ne sont pas implémentés, ni nécessaires. Vous pouvez considérer cela comme des lecteurs « hybrides » (mi-Flash, mi-disque) qui sont ensuite présentés à Windows. Comme avec un véritable lecteur hybride, le mouvement en temps réel des données à chaud et à froid entre les portions plus rapides et plus lentes du support physique est presque invisible de l'extérieur.

Étant donné que la résilience dans les espaces de stockage direct relève au moins du niveau serveur (à savoir que les copies des données sont toujours écrites sur différents serveurs, avec au moins une copie par serveur), les données en cache bénéficient de la même résilience que les données qui ne sont pas en cache.

W2k16 ssd cache server side architecture

Par exemple, lorsque vous utilisez une mise en miroir triple, trois copies des données sont écrites sur différents serveurs quand elles arrivent en cache. Indépendamment du fait qu'elles soient ou non déstockées du cache, il existera toujours trois copies.

Les mappages de lecteurs sont dynamiques

Le mappage entre les lecteurs de cache et de capacité peut être effectué selon n'importe quel ratio, de 1:1 jusqu'à 1:12 et au-delà. Il s'ajuste automatiquement lors de l'ajout ou du retrait de lecteurs, par exemple quand vous agrandissez le système ou en cas de panne. Cela signifie que vous pouvez ajouter des lecteurs de cache ou de capacité de manière indépendante, quand vous le souhaitez.

W2k16 ssd dynamic binding

Nous vous recommandons de choisir un nombre de lecteurs de capacité qui soit un multiple du nombre de lecteurs de cache, pour des raisons de symétrie. Par exemple, si vous avez quatre lecteurs de cache, vous obtiendrez des performances plus équilibrées avec huit lecteurs de capacité plutôt qu'avec sept ou neuf.

Gestion des pannes au niveau des lecteurs de cache

En cas de panne d'un lecteur de cache, les écritures qui n'ont pas encore été déstockées de ce dernier sont perdues pour le serveur local, autrement dit il ne reste que les autres copies (sur les autres serveurs). Tout comme dans n'importe quel scénario de panne de lecteur, les espaces de stockage récupèrent automatiquement les données en consultant les copies survivantes.

Pendant une brève période, les lecteurs de capacité rattachés au lecteur de cache perdu seront considérés comme défectueux. Une fois que le mappage de cache aura été renouvelé (automatiquement) et que les données auront été réparées (automatiquement), ces lecteurs seront de nouveau considérés comme intègres.

C'est pour cette raison qu'il faut au moins deux lecteurs de cache par serveur pour préserver les performances.

W2k16 ssd handling failure

Vous pouvez remplacer un lecteur de cache tout comme n'importe quel autre lecteur.

Remarque

Il vous faudra peut-être couper l'alimentation pour remplacer en toute sécurité un disque NVMe de type carte d'extension ou M.2.

Relation avec les autres caches

Il existe plusieurs autres caches non reliés dans la pile de stockage à définition logicielle Windows. Par exemple, le cache en écriture différée des espaces de stockage, le cache de lecture ReFS et le cache de lecture en mémoire pour le volume partagé de cluster.

Avec les espaces de stockage direct, le comportement par défaut du cache en écriture différée des espaces de stockage et du cache de lecture ReFS ne doit pas être modifié. Par exemple, vous ne pouvez pas utiliser de paramètres tels que -WriteCacheSize sur l'applet de commande New-Volume.

Vous pouvez utiliser ou non le cache de volume partagé de cluster, au choix. Il est désactivé par défaut dans les espaces de stockage direct, mais il n'entre pas en conflit avec le nouveau cache décrit dans cette rubrique. Dans certains cas, il peut grandement améliorer les performances. Pour plus d'informations, consultez le message de blog How to Enable CSV Cache (Comment activer le cache de volume partagé de cluster).

Configuration manuelle

Pour la plupart des déploiements, la configuration manuelle n'est pas requise. Si vous en avez besoin, lisez ce qui suit.

Spécifier le modèle du lecteur de cache

Dans les déploiements où tous les lecteurs sont de même type (par exemple, uniquement NVMe ou uniquement SSD), aucun cache n'est configuré, car Windows ne distingue pas automatiquement les caractéristiques telles que l'endurance en écriture sur des lecteurs de même type.

Pour utiliser les lecteurs les plus endurants pour la mise en cache et les lecteurs les moins endurants pour la capacité, vous pouvez spécifier le modèle de lecteur à utiliser avec le paramètre -CacheDeviceModel de l'applet de commande Enable-ClusterS2D. Une fois les espaces de stockage direct activés, tous les lecteurs de ce modèle seront utilisés pour le cache.

Conseil

Assurez-vous d'utiliser exactement le modèle spécifié en sortie de Get-PhysicalDisk.

Exemple

PS C:\> Get-PhysicalDisk | Group Model -NoElement

Count Name
----- ----
    8 FABRIKAM NVME-1710
   16 CONTOSO NVME-1520

PS C:\> Enable-ClusterS2D -CacheDeviceModel "FABRIKAM NVME-1710"

Vous pouvez vérifier que les lecteurs que vous avez choisis sont utilisés pour le cache en exécutant Get-PhysicalDisk dans PowerShell et en vérifiant que la propriété Usage indique bien "Journal".

Possibilités de déploiement manuel

La configuration manuelle offre les possibilités de déploiement suivantes :

W2k16 ssd exotic deployment possibilities

Définir le comportement du cache

Vous pouvez changer le comportement par défaut du cache. Par exemple, vous pouvez mettre en cache les lectures, même dans un déploiement 100 % Flash. Nous vous déconseillons de modifier ce comportement à moins d'être certain que le comportement par défaut ne convient pas à votre charge de travail.

Pour modifier le comportement, utilisez l'applet de commande Set-ClusterS2D et ses paramètres -CacheModeSSD et -CacheModeHDD. Le paramètre CacheModeSSD définit le comportement d'un cache associé à des disques SSD. Le paramètre CacheModeHDD définit le comportement d'un cache associé à des disques durs. Vous pouvez le faire à tout moment une fois les espaces de stockage activés.

Vous pouvez utiliser Get-ClusterS2D pour vérifier le comportement.

Exemple

PS C:\> Get-ClusterS2D

CacheModeHDD : ReadWrite
CacheModeSSD : WriteOnly
...

PS C:\> Set-ClusterS2D -CacheModeSSD ReadWrite

PS C:\> Get-ClusterS2D

CacheModeHDD : ReadWrite
CacheModeSSD : ReadWrite
...

Définir la taille du cache

La taille du cache doit être définie en fonction des besoins de votre charge de travail ou de vos applications (les données lues ou écrites activement à un instant T).

C'est important notamment pour les déploiements hybrides avec des disques durs. Si les plages de travail actives sont plus volumineuses que votre cache ou si elles dérivent trop vite, le nombre de lectures manquées risque d'augmenter et il faudra déstocker les écritures plus agressivement, ce qui nuira aux performances globales.

Vous pouvez utiliser l'utilitaire intégré Analyseur de performances (PerfMon.exe) dans Windows pour inspecter le taux d'absences dans le cache. Plus particulièrement, vous pouvez comparer la valeur Cache Miss Reads/sec au niveau du décompte Cluster Storage Hybrid Disk et le nombre total d'E/S par seconde en lecture de votre déploiement. Chaque « lecteur hybride » correspond à un lecteur de capacité.

Par exemple, deux lecteurs de cache pour quatre lecteurs de capacité vous donneront quatre instances de « lecteurs hybrides » par serveur.

W2k16 ssd perfmon

Il n'y a pas de règle universelle, mais si vous constatez qu'il manque trop de lectures au niveau du cache, ce dernier est probablement trop petit et vous devez envisager d'ajouter des lecteurs de cache. Vous pouvez ajouter des lecteurs de cache ou de capacité indépendamment les uns des autres, à tout moment.

Source de ce billet sur ce lien.

Convergence Microsoft S2D

Articles similaires

Microsoft S2D –Solution hyper-convergée dans Windows Server 2016

Vous pouvez utiliser les espaces de stockage direct pour déployer un stockage défini par logiciel (SDS pour Software-defined Storage) pour les machines virtuelles et héberger les machines virtuelles sur le même cluster dans une s…

Microsoft S2D – Présentation du Software Storage Bus

Ce billet explique le mécanisme de communication intra-serveurs dans un cluster Windows 2016 pour les espaces de stockage direct (Microsoft S2D pour Storage Spaces Direct). Software Storage Bus est un bus de stockage virtuel couvrant tous les serveu…

4 votes. Moyenne 5.00 sur 5.

Vous devez être connecté pour poster un commentaire

                                www.virtu-desk.fr                                                      « Les technologies de virtualisation de l'environnement utilisateur »

            A propos

  • Mentions légales
  • CGU

 

         Contacts

  • Me contacter
  • Modération

   

               Me suivre

Twitter        Viadéo       Linked

Twitter 2    Vimeo    Linked in

 

           Abonnnement aux flux RSS

   Site         Blog         Agenda     Forum

Rss   Rss    Rss   Rss

 Copyright 04-2014 - Francis MILLOT

 

 

 

 

 

 

 

  • Mentions légales
  • Conditions générales d'utilisation