Recherche de site Web

Configuration du niveau RAID 6 (striping avec double parité distribuée) sous Linux - Partie 5


RAID 6 est une version améliorée de RAID 5, où il a deux parités distribuées qui offrent une tolérance aux pannes même après la panne de deux disques. Système critique à la mission toujours opérationnel en cas de pannes simultanées de deux disques. Il est similaire au RAID 5, mais il est plus robuste car il utilise un disque supplémentaire pour la parité.

Dans notre article précédent, nous avons vu la parité distribuée dans RAID 5, mais dans cet article, nous verrons RAID 6 avec une double parité distribuée. Ne vous attendez pas à des performances supérieures à celles de tout autre RAID, si tel est le cas, nous devons également installer un contrôleur RAID dédié. Ici, en RAID 6, même si nous perdons nos 2 disques, nous pouvons récupérer les données en remplaçant un disque de rechange et en le reconstruisant à partir de la parité.

Pour configurer un RAID 6, un nombre minimum de 4 disques ou plus dans un ensemble est requis. RAID 6 a plusieurs disques, même dans certains ensembles, il peut y avoir un groupe de disques, lors de la lecture, il lira à partir de tous les disques, donc la lecture serait plus rapide alors que l'écriture serait médiocre car elle doit répartir sur plusieurs disques.

Maintenant, beaucoup d'entre nous arrivent à la conclusion pourquoi nous devons utiliser RAID 6, alors qu'il ne fonctionne pas comme n'importe quel autre RAID. Hmm… ceux qui soulèvent cette question doivent savoir que s'ils ont besoin d'une tolérance aux pannes élevée, choisissez RAID 6. Dans tous les environnements supérieurs avec une haute disponibilité pour la base de données, ils utilisent RAID 6 car la base de données est la plus importante et doit être sûr à tout prix, il peut également être utile pour les environnements de streaming vidéo.

Avantages et inconvénients du RAID 6

  1. Les performances sont bonnes.
  2. RAID 6 est coûteux, car il nécessite l'utilisation de deux disques indépendants pour les fonctions de parité.
  3. Perdra une capacité de deux disques pour utiliser les informations de parité (double parité).
  4. Aucune perte de données, même après deux pannes de disque. Nous pouvons reconstruire à partir de la parité après avoir remplacé le disque défaillant.
  5. La lecture sera meilleure que RAID 5, car elle lit à partir de plusieurs disques, mais les performances d'écriture seront très médiocres sans contrôleur RAID dédié.

Exigences

Un minimum de 4 disques sont requis pour créer un RAID 6. Si vous souhaitez ajouter plus de disques, vous le pouvez, mais vous devez disposer d'un contrôleur RAID dédié. En RAID logiciel, nous n’obtiendrons pas de meilleures performances en RAID 6. Nous avons donc besoin d’un contrôleur RAID physique.

Pour ceux qui débutent dans la configuration RAID, nous recommandons de consulter les articles RAID ci-dessous.

  1. Concepts de base du RAID sous Linux – Partie 1
  2. Création d'un logiciel RAID 0 (Stripe) sous Linux – Partie 2
  3. Configuration de RAID 1 (Mirroring) sous Linux – Partie 3
Configuration de mon serveur
Operating System :	CentOS 6.5 Final
IP Address	 :	192.168.0.228
Hostname	 :	rd6.tecmintlocal.com
Disk 1 [20GB]	 :	/dev/sdb
Disk 2 [20GB]	 :	/dev/sdc
Disk 3 [20GB]	 :	/dev/sdd
Disk 4 [20GB]	 : 	/dev/sde

Cet article est la Partie 5 d'une série de 9 tutoriels RAID. Nous allons voir ici comment créer et configurer le logiciel RAID 6 ou le Striping avec double parité distribuée dans Systèmes ou serveurs Linux utilisant quatre disques de 20 Go nommés /dev/sdb, /dev/sdc, /dev/sdd et /dev/sde.

Étape 1 : Installation de l'outil mdadm et examen des lecteurs

1. Si vous suivez nos deux derniers articles sur Raid (Partie 2 et art 3), dans lesquels nous avons déjà montré comment installez l'outil 'mdadm'. Si vous êtes nouveau dans cet article, laissez-moi vous expliquer que « mdadm » est un outil pour créer et gérer Raid sur les systèmes Linux, installons l'outil à l'aide de la commande suivante en fonction de votre distribution Linux.

yum install mdadm		[on RedHat systems]
apt-get install mdadm 	[on Debain systems]

2. Après avoir installé l'outil, il est maintenant temps de vérifier les quatre lecteurs connectés que nous allons utiliser pour la création de raid à l'aide de la commande suivante « fdisk ».

fdisk -l | grep sd

3. Avant de créer des disques RAID, examinez toujours nos lecteurs de disque pour savoir si un RAID est déjà créé sur les disques.

mdadm -E /dev/sd[b-e]
mdadm --examine /dev/sdb /dev/sdc /dev/sdd /dev/sde

Remarque : Dans l'image ci-dessus, aucun super-bloc n'est détecté ou aucun RAID n'est défini sur quatre lecteurs de disque. Nous pouvons aller plus loin pour commencer à créer RAID 6.

Étape 2 : Partitionnement du disque pour RAID 6

4. Créez maintenant des partitions pour le raid sur '/dev/sdb', '/dev/sdc', '/dev/ sdd' et '/dev/sde' à l'aide de la commande fdisk suivante. Ici, nous montrerons comment créer une partition sur le lecteur sdb et plus tard, les mêmes étapes à suivre pour le reste des lecteurs.

Créer une partition /dev/sdb
fdisk /dev/sdb

Veuillez suivre les instructions indiquées ci-dessous pour créer une partition.

  1. Appuyez sur « n » pour créer une nouvelle partition.
  2. Choisissez ensuite « P » pour la partition principale.
  3. Choisissez ensuite le numéro de partition comme 1.
  4. Définissez la valeur par défaut en appuyant simplement deux fois sur la touche Entrée.
  5. Appuyez ensuite sur « P » pour imprimer la partition définie.
  6. Appuyez sur « L » pour répertorier tous les types disponibles.
  7. Tapez « t » pour choisir les partitions.
  8. Choisissez « fd » pour Linux Raid Auto et appuyez sur Entrée pour appliquer.
  9. Ensuite, utilisez à nouveau « P » pour imprimer les modifications que nous avons apportées.
  10. Utilisez « w » pour écrire les modifications.

Créer une partition /dev/sdb
fdisk /dev/sdc

Créer une partition /dev/sdd
fdisk /dev/sdd

Créer une partition /dev/sde
fdisk /dev/sde

5. Après avoir créé des partitions, c'est toujours une bonne habitude d'examiner les disques à la recherche de super-blocs. Si les super-blocs n’existent pas, nous pouvons créer une nouvelle configuration RAID.

mdadm -E /dev/sd[b-e]1


or

mdadm --examine /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1

Étape 3 : Création d'un périphérique md (RAID)

6. Il est maintenant temps de créer le périphérique Raid 'md0' (c'est-à-dire /dev/md0) et d'appliquer le niveau de raid sur toutes les partitions nouvellement créées et confirmez le raid en utilisant les commandes suivantes.

mdadm --create /dev/md0 --level=6 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
cat /proc/mdstat

7. Vous pouvez également vérifier le processus actuel du raid à l'aide de la commande watch, comme indiqué dans la capture d'écran ci-dessous.

watch -n1 cat /proc/mdstat

8. Vérifiez les périphériques RAID à l'aide de la commande suivante.

mdadm -E /dev/sd[b-e]1

Remarque : : La commande ci-dessus affichera les informations des quatre disques, ce qui est assez long, il n'est donc pas possible de publier le résultat ou la capture d'écran ici.

9. Ensuite, vérifiez la matrice RAID pour confirmer que la resynchronisation a démarré.

mdadm --detail /dev/md0

Étape 4 : Création d'un système de fichiers sur un périphérique Raid

10. Créez un système de fichiers en utilisant ext4 pour « /dev/md0 » et montez-le sous /mnt/raid6. Ici, nous avons utilisé ext4, mais vous pouvez utiliser n'importe quel type de système de fichiers selon votre choix.

mkfs.ext4 /dev/md0

11. Montez le système de fichiers créé sous /mnt/raid6 et vérifiez les fichiers sous le point de montage, nous pouvons voir le répertoire perdu+trouvé.

mkdir /mnt/raid6
mount /dev/md0 /mnt/raid6/
ls -l /mnt/raid6/

12. Créez des fichiers sous le point de montage et ajoutez du texte dans l'un des fichiers pour vérifier le contenu.

touch /mnt/raid6/raid6_test.txt
ls -l /mnt/raid6/
echo "tecmint raid setups" > /mnt/raid6/raid6_test.txt
cat /mnt/raid6/raid6_test.txt

13. Ajoutez une entrée dans /etc/fstab pour monter automatiquement le périphérique au démarrage du système et ajoutez l'entrée ci-dessous, le point de montage peut différer en fonction de votre environnement.

vim /etc/fstab

/dev/md0                /mnt/raid6              ext4    defaults        0 0

14. Ensuite, exécutez la commande « mount -a » pour vérifier s'il y a une erreur dans l'entrée fstab.

mount -av

Étape 5 : Enregistrer la configuration RAID 6

15. Veuillez noter que par défaut, RAID n'a pas de fichier de configuration. Nous devons l'enregistrer manuellement à l'aide de la commande ci-dessous, puis vérifier l'état du périphérique « /dev/md0 ».

mdadm --detail --scan --verbose >> /etc/mdadm.conf
mdadm --detail /dev/md0

Étape 6 : Ajout d'un disque de rechange

16. Il dispose désormais de4 disques et deux informations de parité sont disponibles. Dans certains cas, si l'un des disques tombe en panne, nous pouvons récupérer les données, car il existe une double parité dans RAID 6.

Peut-être que si le deuxième disque tombe en panne, nous pouvons en ajouter un nouveau avant de perdre le troisième disque. Il est possible d'ajouter un disque de rechange lors de la création de notre ensemble RAID, mais je n'ai pas défini le disque de rechange lors de la création de notre ensemble RAID. Mais nous pouvons ajouter un disque de rechange après toute panne de disque ou lors de la création de l'ensemble RAID. Maintenant que nous avons déjà créé l'ensemble RAID, permettez-moi d'ajouter un disque de rechange pour la démonstration.

À des fins de démonstration, j'ai branché à chaud un nouveau disque dur (c'est-à-dire /dev/sdf), vérifions le disque connecté.

ls -l /dev/ | grep sd

17. Maintenant, confirmez à nouveau que le nouveau disque connecté pour tout raid est déjà configuré ou n'utilise pas la même commande mdadm.

mdadm --examine /dev/sdf

Remarque : Comme d'habitude, comme nous avons créé des partitions pour quatre disques plus tôt, nous devons également créer une nouvelle partition sur le nouveau disque branché en utilisant fdisk<. commande.

fdisk /dev/sdf

18. Encore une fois après avoir créé une nouvelle partition sur /dev/sdf, confirmez le raid sur la partition, incluez le disque de rechange dans /dev/md0 raid sur le périphérique et vérifiez le périphérique ajouté.

mdadm --examine /dev/sdf
mdadm --examine /dev/sdf1
mdadm --add /dev/md0 /dev/sdf1
mdadm --detail /dev/md0

Étape 7 : Vérifiez la tolérance aux pannes du Raid 6

19. Maintenant, vérifions si le disque de rechange fonctionne automatiquement, si l'un des disques tombe en panne dans notre tableau. Pour les tests, j’ai personnellement marqué que l’un des disques était en panne.

Ici, nous allons marquer /dev/sdd1 comme lecteur défaillant.

mdadm --manage --fail /dev/md0 /dev/sdd1

20. Permettez-moi d'obtenir les détails de l'ensemble RAID maintenant et de vérifier si notre disque de secours a commencé à se synchroniser.

mdadm --detail /dev/md0

Hourra ! Ici, nous pouvons voir que la pièce de rechange a été activée et a commencé le processus de reconstruction. En bas, nous pouvons voir le lecteur défectueux /dev/sdd1 répertorié comme défectueux. Nous pouvons surveiller le processus de construction à l'aide de la commande suivante.

cat /proc/mdstat

Conclusion:

Ici, nous avons vu comment configurer le RAID 6 en utilisant quatre disques. Ce niveau RAID fait partie des configurations coûteuses avec une redondance élevée. Nous verrons comment mettre en place un Nested RAID 10 et bien plus encore dans les prochains articles. D'ici là, restez connecté avec TECMINT.