ENI Cours Virtualisation ASR v2.2
ENI Cours Virtualisation ASR v2.2
ENI Cours Virtualisation ASR v2.2
Formations à l’informatique
Découvrez la différence ENI
www.eni-ecole.fr
Votre formation - Programme
Virtualisation - Conception et architecture
Module 1 – Retour sur les fondamentaux
Module 2 – Les fonctionnalités du Datacenter vSphere
Module 3 – Gestion des ressources et exploitation
Module 4 – Haute disponibilité de l’infrastructure virtuelle
www.eni-ecole.fr n° 2
Virtualisation - Conception et architecture
Module 1
Retour sur les fondamentaux
www.eni-ecole.fr n° 3
Contenu du module
Les composantes d’une infrastructures vSphere
Configuration du réseau
Configuration du stockage
Stockage et MPIO en environnement vSphere
www.eni-ecole.fr n° 4
Activons les souvenirs…
2 serveurs ESXi et un vCSA vous sont livrés…
Configurez les Hôtes pour les intégrer au vCenter
Ajoutez 5 cartes réseaux à chaque hôte
Configurez la partie réseau
Configurez le stockage
Vous simulerez une baie SAN avec le rôle iSCSI Target Server sur votre machine hôte.
Créez un espace de 60Go qui sera accessible par les 2 ESXi.
Astuce : Pour que votre machine hôte communique avec vos VM, vous devrez
configurer la carte VMNET1 (sur votre machine hôte) avec l’adresse IP :
192.168.1.254/24
A vous de jouer….
www.eni-ecole.fr n° 5
Un peu de vocabulaire…
Fonctionnalité / acronyme Définition / Utilité
Hyperviseur
Hôte
vCenter
vSwitch
vNIC
vmNIC
VMKernel
Adaptateur de stockage
iSCSI / NFS
www.eni-ecole.fr n° 6
La machine hôte
C’est le serveur physique qui dispose des ressources matérielles
www.eni-ecole.fr n° 7
La solution de gestion globale d’hyperviseurs
Les hyperviseurs (HV) peuvent être gérés de manière autonome ou peuvent
être regroupés au sein d’un même contexte de gestion
Ce regroupement, qui en simplifie l’administration, se traduit par :
L’intégration à un contexte de domaine AD des serveurs sur lesquels le rôle Hyper V
est installé (en environnement Microsoft)
L’ajout du composant vCenter (en environnement vSphere)
www.eni-ecole.fr n° 8
Les principales fonctionnalités
Fonctionnalité Utilité
vMotion Déplacement de machine virtuelle d’un hôte vers un autre hôte.
Storage vMotion Déplacement du stockage d’une machine virtuelle d’une banque de
données vers une autre.
DRS Automatisation du déplacement de machines virtuelles : d’un hôte
Storage DRS vers un autre hôte disposant de plus de ressources ; ou d’un
datastore vers un autre.
DPM Fonctionnalité permettant d’automatiser l’entrée et la sortie de veille
d’hyperviseurs en fonction de la charge d’activité du cluster.
HA High Availability : fonctionnalité de haute disponibilité. Lors de la
défaillance d’un hôte, les machines virtuelles ciblées seront
redémarrées sur un autre hôte du cluster.
FT Fault Tolerance : fonctionnalité de très haute disponibilité protégeant
des machines virtuelles ciblées de la défaillance d’un hôte. Aucune
interruption de service n’affectera les VM ciblées.
www.eni-ecole.fr n° 9
Les ressources de l’hyperviseur
Les types de ressources suivants sont nécessaires au fonctionnement de
machines virtuelles :
CPU
RAM
Réseau
Disque
Ces ressources sont disponibles sur l’hôte et réparties par l’hyperviseur aux
machines virtuelles hébergées
www.eni-ecole.fr n° 10
Le vSphere Switch – (standard et distribué)
C’est le composant central de gestion du réseau de l’ESXi
Il est géré
indépendamment pour chaque ESXi de l’infrastructure (vSwitch standard)
depuis le vCenter et utilisable par tous les hyperviseurs du datacenter
Liaison
Un vSwitch est lié à un ou plusieurs groupements de ports
Un vSS peut être raccordé à zéro, une ou plusieurs cartes réseaux
www.eni-ecole.fr n° 11
Les groupements de ports
Ils définissent un type d’utilisation du réseau
pour l’ESXi parmi les suivants :
Type Utilisation
Création de réseau à destination des
VM Kernel
besoins de l’infrastructure de
virtualisation
VM Création de réseau à destination des
Network machines virtuelles
www.eni-ecole.fr n° 12
Le groupement de ports de type VM Kernel
Le groupement de port de type VM Kernel est utilisé pour les différents besoins
de l’infrastructure vSphere
www.eni-ecole.fr n° 13
Les vmNIC et vNIC
Les vmNIC sont les cartes réseaux Les vNIC sont les cartes réseaux
physiques de l’ESXi. associées aux machines virtuelles.
Hote VM
Network adapters Networking
ENI E©ole
vmnic0 vnic
vmnic1 vSwitch0 Port group
de type Virtual Machine
www.eni-ecole.fr n° 14
Exemple d’illustration
www.eni-ecole.fr n° 15
Les VLAN en environnement virtualisé
En environnement vSphere les VLAN peuvent affectés :
Au niveau du switch
(un seul VLAN ciblera alors
tout le trafic)
Si les VLAN sont affectés par l’hyperviseur, le switch doit être configuré en mode
trunk et lié à tous les VLAN nécessaires aux composantes d’infrastructure
vSphere et aux VM.
www.eni-ecole.fr n° 16
Les composantes vSphere de stockage
Dans une infrastructure vSphere, on distingue deux composantes de configuration
du stockage :
Les adaptateurs de stockage servent à lier des solutions de stockage aux hôtes
amenés à les utiliser
www.eni-ecole.fr n° 17
vSphere et le stockage
De nombreuses possibilités sont prises en charge pour l’hébergement des
machines virtuelles dans l’environnement vSphere
www.eni-ecole.fr n° 18
iSCSI en environnement vSphere
Illustration des éléments constitutifs d’une solution de stockage iSCSI
SAN Storage Area Network : le réseau de stockage qui est caractérisé par son
(ses) protocole(s) d’accès et connectivité, sa volumétrie, ses fonctionnalités
associées, ses performances
LUN Logical Unit Number : unité de stockage d’une baie de disques
HBA Host Bus Adapter : adaptateur de stockage qui (une fois configuré)
permettra l’accès à un ou plusieurs espaces disques
iSCSI Target L’élément qui met à disposition de l’espace disque physique
iSCSI Initiator L’élément qui accède à de l’espace disque mis à sa disposition
www.eni-ecole.fr n° 19
Banques de données et formatage
On distingue 3 types de banques de données :
VMFS
RDM avec VMFS
NFS
Les banques de données exploitant un espace disque en mode bloc doivent être
formatées. Le système de fichier de formatage pris en charge par vSphere est
VMFS.
VMFS est un système de fichier qui permet un accès concurrentiel en lecture et
écriture à un ensemble d’hôtes.
www.eni-ecole.fr n° 20
Gestion des banques de données
Les principales tâches de gestion des banques de données sont :
Création et formatage
Suivi de son taux d’utilisation
Extension dynamique
Parcours, import et export de données
www.eni-ecole.fr n° 21
Terminer la MSP précédente
Prise en charge de la redondance réseau :
2 cartes pour le management
2 cartes pour les VM
o Le vSwitch de l’ESX1 sera nommé VM ESX1
o Le vSwitch de l’ESX2 sera nommé VM ESX2
2 cartes pour l’ISCSI
Configurez l’iSCSI. Vérifiez en déconnectant une des 2 cartes réseaux que vous
ne perdez pas l’accès au datastore.
www.eni-ecole.fr n° 22
MPIO - intérêt d’utilisation en environnement vSphere
MPIO : Multipath I/O est une méthode basée sur l’utilisation de chemins d’accès
multiples à un périphérique de stockage.
www.eni-ecole.fr n° 23
MPIO – Contextes et contraintes de mise en œuvre
Contexte de mise en œuvre en environnement vSphere
MPIO permet de configurer sur un serveur ESXi plusieurs chemins et réseaux
pour l’accès à une unité de stockage logique via le protocole iSCSI.
www.eni-ecole.fr n° 24
MPIO – exemples de configuration réseau
Les exemples suivants illustrent deux configurations réseaux pouvant être
utilisées pour le raccordement au stockage iSCSI d’un ESXi
Exemple 1
Utilisation d’un vSwitch avec
deux groupes de ports (chacun
lié à une VMNic de l’hyperviseur)
Exemple 2
Utilisation de deux vSwitchs avec
un groupe de port chacun
(chaque groupe de port étant lié
à une VMNic de l’hyperviseur)
www.eni-ecole.fr n° 25
MPIO – Configuration de l’adaptateur de stockage
Configuration de la liaison de l’adaptateur iSCSI à des réseaux multiples
www.eni-ecole.fr n° 26
Virtualisation - Conception et architecture
Module 2
Les fonctionnalités du Datacenter
vSphere
www.eni-ecole.fr n° 27
Contenu du module
vCenter et la gestion vSphere
Single Sign On (SSO)
Les migrations
Gestion distribuée du réseau
www.eni-ecole.fr n° 28
VMware vCenter
vCenter a pour objectif de permettre la gestion centralisée de multiples serveurs
hôtes de virtualisation ESXi et des machines virtuelles hébergées sur ces
serveurs.
www.eni-ecole.fr n° 29
Architecture vCenter
Gestion
www.eni-ecole.fr n° 30
Fonctionnalités vCenter
VMware vSphere
Disponibilité Sécurité Evolutivité
vShield Zones DRS
vMotion
VMSafe Hot Add
Services Storage vMotion
Application HA
Fault Tolerance
Data Recovery
www.eni-ecole.fr n° 31
vCenter et le contexte de Datacenter
L’ajout de vCenter à une infrastructure de virtualisation vSphere permet la
création de contexte(s) de Datacenter vSphere.
www.eni-ecole.fr n° 32
vCenter et le contexte de Datacenter
L’organisation des ressources au sein de Datacenters multiples permet de
regrouper ces ressources selon certains critères comme :
Leur emplacement géographique
Leur client d’affectation
Leur contexte d’utilisation (production, maquette)
Serveur vCenter
www.eni-ecole.fr n° 33
Organisation des objets de l'inventaire
La création de dossiers permet de regrouper des ressources d’un même type
pour la délégation et/ou pour des contraintes physiques.
Datacenter
Nantes
www.eni-ecole.fr n° 34
Bénéfices du Single Sign On
Gestion centralisée des utilisateurs
Support de multiples fournisseurs d'identités
Découverte automatique des serveurs vCenter de l'infrastructure
Granularité des délégations sur les objets
www.eni-ecole.fr n° 35
Composants Single Sign On (SSO)
vSphere client ou
Inventaire Serveur vCenter
Web
Active Directory
Open LDAP NIS Base locale
2003 et +
Services d'identité
www.eni-ecole.fr n° 36
Composants Single Sign On (SSO)
Ajout d'un service d'identité
www.eni-ecole.fr n° 37
Gestion des machines virtuelles
www.eni-ecole.fr n° 38
Migration de machines virtuelles
La migration consiste à déplacer une machine virtuelle d’un hôte ESXi vers un
autre hôte ESXi. Il existe quatre types de migration :
À Froid : La machine à migrer est arrêtée
Suspendue : La machine à migrer est en pause (suspendue)
vMotion : La machine virtuelle est en cours de fonctionnement
Storage vMotion : Migration des fichiers de la machine virtuelle en cours de
fonctionnement d’un datastore à un autre
Enhanced vMotion : Migration des fichiers de la machine virtuelle en cours de
fonctionnement sans stockage partagé. Cette opération ne peut être réalisée qu’à
l’aide du vSphere Web Client.
www.eni-ecole.fr n° 39
Méthodes de migration
Source Vmware
www.eni-ecole.fr n° 40
vMotion
Stockage partagé
Disques virtuels et fichiers
VM 1 VM 1
(Réseau Production)
de configuration
(Réseau Production)
Image
ESX A
Mémoire
ESX B
Mémoire
Réseau vMotion
Réseau Production
www.eni-ecole.fr n° 41
Storage vMotion
Storage vMotion permet la réalisation d’opération de maintenance et de
reconfiguration des espaces de stockage sans arrêt de production.
Cette fonctionnalité est indépendante des types de stockage
1. Démarrage de la migration
2. Utilisation du VMkernel data
mover ou de l’API VAAI pour
copier les données
3. Démarrage d’un nouveau process
de VM
4. Le driver miroir intercepte tous
les appels et effectue les copies
sur les datastores source et
destination
Source Vmware
www.eni-ecole.fr n° 42
Conception d’une gestion distribuée du réseau
Dans un contexte de gestion isolée d’hyperviseurs, la gestion du réseau est
propre à chaque hyperviseur. Elle se traduit par l’utilisation de vSwitchs
standards et de groupes de ports locaux associés à ces commutateurs virtuels.
Ces vSwitchs et groupes de ports sont créés et gérés localement sur chaque
hyperviseurs.
www.eni-ecole.fr n° 43
vDS : vSphere Distributed Switch
vSwitch vSwitch
vDS vSwitch
www.eni-ecole.fr n° 44
Les composantes d’infrastructure réseau distribuée
L’utilisation de réseaux vSphere distribués s’appuie sur la configuration d’un
ensemble d’éléments. Certains éléments sont gérés au niveau du vCenter /
Datacenter, d’autres sont à configurer sur les hôtes prenant part au réseau
distribué.
Les éléments gérés sur les ESXi prenant part au réseau distribué sont :
Les VMNic de l’hyperviseurs affectées au vDS
Les adaptateurs virtuels associés aux vDS et DPortGroup
Ces éléments seront abordés dans le détail dans les diapositives suivantes.
www.eni-ecole.fr n° 45
Le vSphere Distributed Switch
Le vSphere Distributed Switch
Il est caractérisé par
sa version (contrainte par les ESXi)
un nombre de ports de liens montants
l’état d’activation de la fonctionnalité
Network I/O Control
Ajout du vDS
à un(ou Gestion des Groupes de
plusieurs) ports distribués associés
hyperviseurs au vSwitch
www.eni-ecole.fr n° 46
Le groupe de port distribué
L’association d’un ou plusieurs groupes de ports distribués à un vSwitch
permet de raccorder des machines virtuelles au réseau
permet de répondre aux besoins d’infrastructure vSphere
www.eni-ecole.fr n° 47
Configuration réseau sur l’ESXi - 1
Pour être utilisable par des hyperviseurs de l’infrastructure, un vDS doit être
ajouté aux hyperviseurs concernés.
Lors de cet ajout, on sélectionne la ou les VMNic de l’hyperviseur utilisée(s)
pour le raccordement à ce vSwitch. Les machines virtuelles de l’ESXi peuvent
alors être raccordées à ce groupe de ports du vDS.
www.eni-ecole.fr n° 48
Configuration réseau sur l’ESXi - 2
Pour qu’un groupe de port distribué soit utilisable pour répondre aux besoins de
l’infrastructure vSphere d’un hyperviseur, il faut lui associer un adaptateur
virtuel du (ou des) ESXi concerné.
www.eni-ecole.fr n° 49
Desserte réseau des machines virtuelles
Les types de cartes réseaux suivants peuvent être ajoutés aux machines virtuelles :
E1000e : Emulation de la carte Intel Gigabit NIC 82574. Proposée par défaut
pour Windows 8 et Windows 2012 offre des performances supérieures.
www.eni-ecole.fr n° 50
Débits comparés des différents types de cartes réseaux
Comparaison des taux de transfert des différentes cartes :
www.eni-ecole.fr n° 51
Bonnes pratiques
La partie réseau dans un environnement virtualisé est souvent cause de
ralentissements et de goulots d’étranglements.
Le faible coût financier des cartes réseaux aujourd’hui peut très facilement le
permettre.
www.eni-ecole.fr n° 52
MSP : vMotion, Storage vMotion, vDS
Réaliser un déplacement de la VM Win7-ESX1 vers l’ESX2. Le stockage sera
également modifié vers le datastore local de l’ESX2.
Quelle problématique se présente ?
Créez un vSphere Distributed Switch pour les VM et incluez les cartes réseaux
correspondantes des hôtes à ce vDS.
Assignez les 2 Vm à ce vDS et déplacez ensuite la VM Win7-ESX1 vers l’ESX1 (VM
+ Stockage vers le Datastore local).
Vérifiez l’étiquette réseau assignée à la VM après son déplacement.
www.eni-ecole.fr n° 53
Virtualisation - Conception et architecture
Module 3
Gestion des ressources et
Exploitation
www.eni-ecole.fr n° 54
Contenu du module
Les Snapshots
Gestion de l’automatisation du démarrage des VM
Gestion des ressources
Réservations / limites / pools : rappels
Les parts
L’extensibilité
Allocation de ressources CPU
www.eni-ecole.fr n° 55
Snapshots
www.eni-ecole.fr n° 56
Snapshots
Des applications destinées à la sauvegarde vont se baser sur des Snapshots pour
effectuer leur sauvegarde (Veeam Backup&Replication…)
www.eni-ecole.fr n° 57
Automatisation du démarrage des VM
Il est possible de configurer le démarrage automatique de VM au lancement de
l’hyperviseur. Cette fonctionnalité permet de réduire l’indisponibilité de machine
virtuelles après redémarrage de l’hyperviseur les hébergeant.
www.eni-ecole.fr n° 58
Configuration du démarrage automatique de VM
www.eni-ecole.fr n° 59
Réservation et limites
La réservation de ressources
Permet de garantir le provisionnement en ressources physiques de l’hôte pour des
…….……………………………………………………………………………………………………………………………
machines virtuelles.
…….……………………………………………………………………………………………………………………………
…….……………………………………………………………………………………………………………………………
…….……………………………………………………………………………………………………………………………
…….……………………………………………………………………………………………………………………………
www.eni-ecole.fr n° 60
Ciblage Pool / VM
La
Mise en en
mise œuvre
œuvrede de
limites et réservations
limites sursur
et réservations une VMVM
une
Affecte les ressources de l’hyperviseur AU DEMARRAGE de la VM.
…….……………………………………………………………………………………………………………………………
…….……………………………………………………………………………………………………………………………
La
Mise en en
mise œuvre
œuvrede de
limites et réservations
limites sursur
et réservations unun
pool dede
pool ressources
ressource
Affecte les ressources de l’hyperviseur immédiatement.
…….……………………………………………………………………………………………………………………………
Les ressources affectées au pool sont utilisables par les VM du pool sur lesquelles
…….……………………………………………………………………………………………………………………………
www.eni-ecole.fr n° 61
Ressources : fonctionnement des parts
Quand l’hyperviseur utilise toutes ses ressources, mémoire ou processeur il
privilégie certaines machines au détriment d’autres.
Les machine privilégiées se voient accorder plus de ressources physiques, ou
plus de parts de ressources matérielles.
10GiB
L’affectation de parts se configure sur une 3000 parts
machine virtuelle ou sur un pool (parts 10GiB
VM-ERP
réparties entre les machines du pool). 10GiB
10GiB
SRV-INF1
La gestion des parts possède 3 niveaux 10GiB
SRV-PROD2
1000 parts SRV-INF2
10GiB
www.eni-ecole.fr n° 63
Résultante de la configuration des parts
Capacité totale
CPU : 30 GHz
RAM : 300Go
www.eni-ecole.fr n° 64
Configuration des parts : conception
Le nombre de VM présentes dans le pool est capital pour effectuer les calculs. Il
faut avoir conscience que les ressources attribuées au pool sont réparties entre
les différentes machine.
www.eni-ecole.fr n° 65
Imbrication de pools et extensibilité
L’extensibilité est un point de configuration qui peut être activé (par défaut) ou
désactivé sur un pool de ressources. Un pool de ressources « extensible » peut
emprunter des ressources réservables aux pools parents. Cette opération peut-
être récursive jusqu’au pool racine.
www.eni-ecole.fr n° 66
Scénario – exemple de configuration
Pool Ing-Prod
Les machines virtuelles du pool Ingénierie
pourront emprunter des ressources au
Réservation : 3000 MHz
pool parent.
Réservation extensible : oui
VM 4 VM 5 VM 6 VM 7 VM 1 VM 2 VM 3
R =500 R =500 R =500 R =500 R =400 R =300 R =500
www.eni-ecole.fr n° 67
Allocation de ressources CPU aux machines virtuelles
L’allocation de ressources CPU par machine virtuelle se traduit par la
configuration :
D’un nombre de socket virtuel
D’un nombre de cœurs d’exécution
par socket
www.eni-ecole.fr n° 68
Conséquences de la sur allocation CPU
L’hôte physique sur lequel est installé l’hyperviseur dispose d’un ou plusieurs
socket CPU à un ou plusieurs cœurs chacun. Le produit de ces deux valeurs
forme le nombre de vCPU de l’hôte.
Il est possible d’allouer à l’ensemble des VM plus de vCPU que n’en dispose
l’hôte. Cela n’a pas de conséquence sur les performances des VM tant que les
ressources utilisées par les VM sont inférieures aux ressources de l’hyperviseur.
Cela impacte les performances des VM quand plus de ressources sont
demandées par les VM que n’en dispose l’hyperviseur.
vCPU
vCPU vCPU
vCPU
vCPU vCPU
www.eni-ecole.fr n° 69
Allocation de vCPU multiple à une VM
En cas de surallocation de vCPU, lors du besoin de ressources CPU par les VM,
celles-ci peuvent :
Soit disposer d’autant de vCPU que configuré
Soit être en attente de disponibilité CPU
Plus le nombre de vCPU alloué à une VM est grand, plus ses demandes de
ressources risquent d’être mises en attente.
VM en attente CPU
vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU 1 cycle d’horloge
Ressources CPU 2 4 8
configurées vCPU vCPU vCPU
www.eni-ecole.fr n° 70
Virtualisation - Conception et architecture
Module 4
Haute disponibilité
de l'infrastructure virtuelle
www.eni-ecole.fr n° 71
Contenu du module
Disponibilité et solutions
Le cluster vSphere
vSphere HA
vSphere FT
vSphere DRS
vSphere DPM
www.eni-ecole.fr n° 72
Introduction
www.eni-ecole.fr n° 73
Contextes de haute disponibilité
Le rôle du service informatique ou d’un fournisseur de service est de garantir le
bon fonctionnement et la disponibilité des services mis en œuvres.
Pour les services critiques, des contraintes de disponibilité peuvent être
imposées, notamment quand leur indisponibilité impactent directement le
fonctionnement de l’entreprise.
La notion de haute disponibilité est liée à la mise en œuvre d’un ensemble de
techniques visant à accroitre la disponibilité d’un environnement donné.
www.eni-ecole.fr n° 74
Les solutions pour accroitre la disponibilité
Une multitude de mesures peut être mise en œuvre pour accroitre la
disponibilité d’éléments ciblés d’une infrastructure.
www.eni-ecole.fr n° 75
Discussion
www.eni-ecole.fr Module 1 - n° 76
Analyse des besoins
La mise en place d’un ensemble de solutions, pour accroitre la disponibilité
d’une multitude de services doit se faire après un important travail d’analyse des
besoins et contraintes de disponibilité service par service.
On ne met pas en place une solution de haute disponibilité pour les services de
l’entreprise, mais des solutions personnalisées pour des services ciblés.
www.eni-ecole.fr n° 77
/!\
Seules les fonctionnalités de haute disponibilité propre à
l’environnement vSphere sont présentées dans la suite de ce
module.
www.eni-ecole.fr n° 78
Haute disponibilité en environnement vSphere
L’environnement vSphere correspond à la couche de virtualisation de serveur de
l’infrastructure. Les solutions prises en charge par vSphere permettent d’agir à
ce niveau.
www.eni-ecole.fr n° 79
vSphere HA
vSphere HA permet de minimiser le temps d’indisponibilité. L’interruption de
service existe toujours mais est très largement minimisée.
Tous les systèmes d’exploitation invités sont supportés
La fonctionnalité est disponible dans le cadre d'un cluster
Protection contre la défaillance d’un hôte ESXi, d’une machine virtuelle, d’une
application
Le Heartbeat est chargé de détecter les défaillances
www.eni-ecole.fr n° 80
vSphere HA: Fonctionnement du cluster
Lors de l’ajout d’un hôte dans un cluster HA, un agent FDM (Fault Domain
Manager) est transféré sur l’hôte.
L’agent FDM est chargé de la communication entre les hôtes du cluster et de la
remontée d’informations :
Etat des VMs
Placement, redémarrage des VMs
Mécanisme de heartbeat
En relation directe avec l’agent hostd
VM 2 VM 4
VM 1 VM 3
FDM FDM
ESXi master ESXi slave
Cluster
hostd hostd
Serveur vCenter
www.eni-ecole.fr n° 81
vSphere HA: Fonctionnement du cluster
Un processus d’élection détermine un serveur Maitre, tous les autres sont
esclaves. En cas de défaillance du serveur Maitre, une nouvelle élection a lieu.
Le choix du nouveau maître est basé sur celui qui possède le plus grand nombre
de datastores connectés.
Le serveur principal :
Surveille l’état des hôtes secondaires
Surveille l'état d'alimentation des VM protégées
Collecte les informations des VM protégées par le HA.
www.eni-ecole.fr n° 82
vSphere HA : HeartBeat
Deux mécanismes de heartbeat différents sont utilisés dans le cluster:
Un mécanisme de heartbeat utilisant tous les réseaux VMKernel configurés pour un
trafic de gestion.
o Maitres et esclaves s’envoient un heartbeat chaque seconde.
www.eni-ecole.fr n° 83
Redondance des réseaux pour Heartbeat
Si plusieurs hôtes sont isolés et peuvent continuer à s’échanger des pulsations
au travers d’un des réseau de gestion ou bien d’un datastore, on parlera de
Partitionnement du réseau et un processus d’élection sera déclenché.
Lorsqu’un hôte est isolé, HA va forcer les VM à s’arrêter.
La redondance des réseaux sur lesquels circulent les pulsations est primordiale
pour éviter un isolement des hôtes pouvant entrainer le démarrage de deux
machines identiques sur le réseau.
www.eni-ecole.fr n° 84
Redondance réseau pour Heartbeat
Différentes méthodes sont envisageables pour rendre redondant le réseau utilisé pour le
heartbeat :
www.eni-ecole.fr n° 85
Datastore Heartbeat
En cas de défaillance des réseaux de gestion, les datastores communs sont utilisés
pour déterminer si un hôte est isolé ou non. Minimum 2 datastores sont nécessaires.
www.eni-ecole.fr n° 86
vSphere HA : Défaillance d’un hôte
En cas de défaillance le service HA redémarre les VM sur un autre hôte ESXi
VM 2 VM 4 VM 6
VM 1 VM 3 VM 5
ESXi ESXi
! ESXi
Cluster
Serveur vCenter
www.eni-ecole.fr n° 87
vSphere HA : Défaillance d’une VM
Quand une VM n’envoie plus son heartbeat ou que le process de la machine
virtuelle échoue, HA redémarre la VM. Les VMware tools doivent être installé
ls
Too
VM
VM 6
ls ls
Too Too
VM VM
VM 5 VM 9
ls o ls ls
Too To Too
VM VM VM
VM 2 VM 4 VM 8
ls ls ls
Too Too Too
VM VM VM
VM 1 VM 3 VM 7
Cluster
Serveur vCenter
www.eni-ecole.fr n° 88
vSphere HA : Défaillance d’une application
En cas de défaillance d’une application pouvant dialoguer avec les VMware
tools, HA redémarre la VM concernée.
ls
P Too
AP VM 6 VM
ls ls
Too Too
P
AP VM 5 VM P
AP VM 9
VM
ls ls
P Too
ls
P Too Too
AP VM 2 VM AP VM 4 VM P
AP VM 8 VM
ls ls ls
P Too P Too Too
AP VM 1 VM AP VM 3 VM P
AP VM 7 VM
Cluster
Serveur vCenter
www.eni-ecole.fr n° 89
vSphere HA : Configuration
Un cluster regroupe un ensemble d’hyperviseurs et leurs machines hébergées
sur lesquels les fonctions de haute disponibilité (HA et/ou DRS) sont activées.
Les différentes fonctionnalités de haute disponibilité peuvent :
Etre activées à la création du cluster
www.eni-ecole.fr n° 90
vSphere HA : Configuration
Désactiver ce
paramètres lors de
maintenance du
réseau
Le contrôle
d'admission garantit
que suffisamment de
ressources sont
disponibles pour le
fonctionnalité HA
www.eni-ecole.fr n° 91
Options des machines virtuelles
Dans la configuration de vSphere HA sont défini les comportements par défaut :
De priorité de redémarrage des VM
D’action à mener en cas d’isolement réseau de l’hôte
www.eni-ecole.fr n° 92
Options des machines virtuelles
Ces règles peuvent être redéfinies machine par machine au besoin afin de
répondre à des besoins précis.
Il est ainsi possible de gérer l’ordre de redémarrage des VM dans le cadre de HA.
On pourra par exemple dans le cadre d’applications métier redémarrer le
serveur hébergeant la base de données avant le serveur applicatif.
www.eni-ecole.fr n° 93
Surveillance des machines virtuelles
Réinitialisation par l’hyperviseur de la machine virtuelle en cas de non réception des
heartbeats (requiert les VMware tools)
www.eni-ecole.fr n° 94
Surveillance du cluster HA
www.eni-ecole.fr n° 95
vSphere FT (Fault Tolerance)
La fonctionnalité HA entraine une indisponibilité (downtime) non négligeable
puisqu’une machine virtuelle considérée comme non disponible est redémarrée
sur un autre hôte ESXi. Cela entraine donc la perte de toutes les transactions qui
n'ont pas été validées sur les disques stockés sur les datastores. Une application
pourrait également avoir conservé des fichiers ouverts et se trouver dans un état
incohérent.
FT est une solution de très haute disponibilité qui est utilisée dans le cadre
d’applications critiques.
www.eni-ecole.fr n° 97
vSphere FT (Fault Tolerance)
La fonctionnalité FT fonctionne sur le modèle du cluster actif / passif : une VM
en fonctionnement est active sur un hôte et passive sur le second. Tous les flux
d’E/S de cette VM sont répliqués en permanence vers sa « copie » passive.
En cas de défaillance de l’hôte sur lequel la VM est active, celle-ci devient active
sur l’autre hôte immédiatement, sans aucune interruption de service.
www.eni-ecole.fr n° 98
vSphere FT (Fault Tolerance) : Contraintes
Un nombre suffisant de serveurs ESXi doit être disponible pour protéger des VM
tolérantes aux pannes. (VMware recommande un nombre maximum de 4 VM-
FT primaires ou secondaires par hôte)
Les datastores doivent être accessibles par tous les hôtes.
Des contraintes du nombre de vCPU s’appliquent aux machines virtuelles
concernées (en fonction de la version de l’hyperviseur et des licences).
La fonctionnalité storage vMotion est incompatible avec FT.
Un réseau vmkernel différent du réseau vMotion est nécessaire à des fins de
redondance.
www.eni-ecole.fr n° 99
vSphere FT (Fault Tolerance) : Contraintes
Les snapshots sont impossibles.
Les sauvegardes exploitant l'API VADP (vStorage API for Data protection) sont
indisponibles.
Les disques durs doivent être de taille fixe (Thick Eager Zeroed) ou RDMv.
L’activation de FT modifiera leur état et ajustera automatiquement la réservation
de la RAM.
www.eni-ecole.fr n° 100
vSphere FT : Evolutions de avec vSphere 6
Depuis la version 6, certains logiciels de Backup comme Veeam
Backup&Replication prennent en charge la sauvegarde de machines protégées
par FT.
Les limites techniques ont été repoussées sur de nombreux points, en particulier
sur le nombre de vCPU par VM qui est passé de 1 à 4.
www.eni-ecole.fr n° 101
MSP : HA
Mettez en place HA entre les 2 hôtes.
Vérifiez le bon fonctionnement en arrêtant physiquement un des deux ESX
Vérifiez le bon fonctionnement en déconnectant les cartes réseaux d’un des hôtes
www.eni-ecole.fr n° 102
DRS, SDRS, DPM
Les services de migration vMotion et Storage vMotion permettent de déplacer
VM et contenu dans l'infrastructure virtuelle.
Les services de Haute disponibilité HA et FT permettent d’accroitre la
disponibilité de VM.
La charge des hyperviseur peut être inégale dans le temps ce qui requiert un
suivi des administrateurs afin de positionner / migrer les VM sur les hôtes de
manière appropriée afin d’équilibrer leur charge.
www.eni-ecole.fr n° 103
Cluster DRS
Les fonctions DRS sont disponibles dans le cadre d'un cluster vSphere.
www.eni-ecole.fr n° 104
Cluster DRS : Prérequis
Pour le fonctionnement du cluster DRS :
les hôtes doivent être reliés par un réseau virtuel configuré pour vMotion
les hôtes doivent être connectés à un stockage partagé
Tous les datastores doivent être accessibles par les hôtes membres du cluster
Un certain niveau de compatibilité matérielle est requis pour utiliser cette
fonctionnalité
www.eni-ecole.fr n° 105
EVC (Enhanced vMotion Compatibility)
Dans le cadre de la mise en place d’un Cluster, il est essentiel de tenir compte de
la couche matérielle, bien souvent oubliée lors de la mise en place
d’hyperviseurs.
La famille de processeurs (Intel / AMD) est une donnée essentielle puisque dans
le cadre d’un cluster, il sera impossible de mixer les technologies.
Au-delà du constructeur, la génération du processeur va également avoir un
rôle.
Les processeurs évoluent et certaines instructions CPU apparaissent. Elles ne seront
donc pas forcement prises en charge par l’ancienne génération.
Ces différentes instructions non prises en charge peuvent notamment poser des
problèmes dans un contexte vMotion (impossible de migrer les VM).
www.eni-ecole.fr n° 106
EVC (Enhanced vMotion Compatibility)
Cette fonctionnalité favorise la compatibilité des processeurs de génération
différentes dans un contexte vMotion.
EVC garantit que tous les serveurs hôtes d'un cluster présenteront les mêmes
jeux d'intruction aux VM
www.eni-ecole.fr n° 107
DRS: Niveau d'automatisation
Trois niveaux d'automatisation sont disponibles
www.eni-ecole.fr n° 108
DRS : Règles d'affinité du cluster
L'automatisation du placement des VM dans un cluster peut être la source de
problème de performances ou de sécurité. Exemple : les deux membres d'un
cluster à basculement positionnés sur le même hôte. En cas de défaillance de
l'hôte, le cluster à basculement serait pris en défaut.
Des règles d'affinité ou d'anti-affinité permettent de définir si des machines
virtuelles peuvent se trouver sur le même hôte ou si au contraire ils doivent être
sur deux hôtes distincts.
www.eni-ecole.fr n° 109
DRS : Niveau d'automatisation des machines virtuelles
Si l’option d’activation des niveaux d’automatisation au niveau des VM est
cochée dans les propriétés du cluster DRS, les paramètres de migration peuvent
être définis par VM
www.eni-ecole.fr n° 110
Storage DRS
Les performances d'une infrastructure de virtualisation sont très dépendantes
des ressources de stockage. L'optimisation des performances de ces ressources
peut-être effectuée au niveau des services de stockage SAN (sous réserve de
compatibilité avec le tiering automatique) ou bien par vSphere.
La fonctionnalité Storage DRS permet d'analyser les I/O sur les datastores pour
positionner au mieux ceux-ci sur les ressources de stockage les plus appropriées.
Cette fonctionnalité requiert la création d’un cluster de banques de données
www.eni-ecole.fr n° 111
Storage DRS
Des mesures sont effectuées régulièrement pour proposer des
recommandations à l'administrateur
www.eni-ecole.fr n° 112
DPM: Distributed Power Management
La fonction Distributed Power Management (DPM) de vSphere permet à un
cluster DRS de réduire sa consommation d'énergie en activant et désactivant
des hôtes sur la base de l'utilisation des ressources de cluster.
vSphere DPM surveille le cumul des exigences de toutes les machines virtuelles
dans le cluster en termes de mémoire et de ressources CPU et les compare à la
capacité totale de ressources disponible de tous les hôtes dans le cluster. Si la
surcapacité suffisante est trouvée, vSphere DPM place un ou plusieurs hôtes en
mode standby et les désactive après avoir migré leurs machines virtuelles vers
d'autres hôtes.
À l'inverse, quand la capacité est considérée insuffisante, DRS met fin au mode
veille des hôtes (les active) et emploie vMotion pour migrer des machines
virtuelles vers eux.
www.eni-ecole.fr n° 113
DPM: Distributed Power Management
Ici, un des 3 hôtes n’héberge qu’une seule VM.
Un des autres hôtes n’est pas surchargé et possède les ressources nécessaires pour
accueillir cette VM supplémentaire
La VM est déplacée et l’hôte qui l’hébergeait est mis en standby
VM 2 VM 5
VM 1 VM 3 VM 4
Cluster
Serveur vCenter
www.eni-ecole.fr n° 114
DPM: Distributed Power Management
Si un hôte est surchargé, DPM va rallumer un hôte en standby pour décharger
l’hôte et mieux répartir la charge.
VM 5
VM 2 VM 4
VM 1 VM 3
Cluster
Serveur vCenter
www.eni-ecole.fr n° 115
Comment DPM allume et éteint-il les hôtes ?
Pour que vSphere DPM puissent gérer l’alimentation des hôtes, il sera
indispensable que ces hôtes disposent de « cartes de management ».
Selon le constructeur, elles portent des noms différents
DELL : Carte iDRAC
HP : Carte ILO
IBM : Carte RSA
…
Ces cartes permettent de gérer les hôtes même si ils sont éteints.
www.eni-ecole.fr n° 116
DPM : Activation
www.eni-ecole.fr n° 117
MSP : Pools de ressources et de DRS
Validation du mode DRS partiellement automatisé
Déplacez les 2 VM sur un seul hôte
Arrêtez une des VM
Mettez en place DRS en mode partiellement automatisé
Démarrer la VM éteinte
Validation du mode DRS totalement automatisé
Déplacez les 2 VM allumées sur un seul hôte
Installez l’outil Loadstorm sur une des VM (disponible en ISO sur « Distrib »)
Mettez en place DRS en mode totalement automatisé
Générez de la charge CPU via Loadstorm sur la VM
www.eni-ecole.fr n° 118