RAID - Réassembler une grappe avec mdadm

Suite à une réinstallation d'un système linux sur un disque dédié, comment reconfigurer une grappe RAID de données, sans l'effacer !

Soit le plan de partition suivant :

 1$ lsblk
 2NAME        MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
 3sda           8:0    0   3.6T  0 disk
 4└─sda1        8:1    0   3.6T  0 part
 5sdb           8:16   0 447.1G  0 disk
 6├─sdb1        8:17   0    16M  0 part
 7└─sdb2        8:18   0 447.1G  0 part
 8sdc           8:32   0   3.6T  0 disk
 9└─sdc1        8:33   0   3.6T  0 part
10nvme0n1     259:0    0 931.5G  0 disk
11├─nvme0n1p1 259:1    0   128M  0 part /boot/efi
12├─nvme0n1p2 259:2    0     1G  0 part /boot
13├─nvme0n1p3 259:3    0    10G  0 part [SWAP]
14└─nvme0n1p4 259:4    0 920.4G  0 part /

L'OS a été nouvellement réinstallé sur nvme0n1.

On souhaite remonter la partition de données, grappe RAID 1 logicielle, composée des partitions /dev/sda1 et /dev/sdc1, sur /data.

Créeons déjà le point de montage

1sudo mkdir /data
2chown gus:gus /data

La commande mdadm sera nécessaire, elle n'est pas toujours disponible en cas d'installation minimale, exécutons :

1sudo dnf install mdadm

Le réassemblage de la grappe proprement dit :

1$ sudo mdadm --assemble /dev/md0 /dev/sda1 /dev/sdc1
2mdadm: /dev/md0 has been started with 2 drives.

Quelques commandes pour vérifier

1$ cat /proc/mdstat
2Personalities : [raid1]
3md0 : active raid1 sda1[0] sdc1[1]
4      3906884608 blocks super 1.2 [2/2] [UU]
5      bitmap: 0/30 pages [0KB], 65536KB chunk
6
7unused devices: <none>
1$ lsblk /dev/md0
2NAME MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINTS
3md0    9:0    0  3.6T  0 raid1
 1$ lsblk
 2NAME        MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINTS
 3sda           8:0    0   3.6T  0 disk
 4└─sda1        8:1    0   3.6T  0 part
 5  └─md0       9:0    0   3.6T  0 raid1
 6sdb           8:16   0 447.1G  0 disk
 7├─sdb1        8:17   0    16M  0 part
 8└─sdb2        8:18   0 447.1G  0 part
 9sdc           8:32   0   3.6T  0 disk
10└─sdc1        8:33   0   3.6T  0 part
11  └─md0       9:0    0   3.6T  0 raid1
12nvme0n1     259:0    0 931.5G  0 disk
13├─nvme0n1p1 259:1    0   128M  0 part  /boot/efi
14├─nvme0n1p2 259:2    0     1G  0 part  /boot
15├─nvme0n1p3 259:3    0    10G  0 part  [SWAP]
16└─nvme0n1p4 259:4    0 920.4G  0 part  /
 1$ sudo mdadm --detail /dev/md0
 2/dev/md0:
 3           Version : 1.2
 4     Creation Time : Fri Dec  5 16:16:39 2025
 5        Raid Level : raid1
 6        Array Size : 3906884608 (3.64 TiB 4.00 TB)
 7     Used Dev Size : 3906884608 (3.64 TiB 4.00 TB)
 8      Raid Devices : 2
 9     Total Devices : 2
10       Persistence : Superblock is persistent
11
12     Intent Bitmap : Internal
13
14       Update Time : Sat Jan 17 16:45:49 2026
15             State : clean
16    Active Devices : 2
17   Working Devices : 2
18    Failed Devices : 0
19     Spare Devices : 0
20
21Consistency Policy : bitmap
22
23              Name : E-CAP-RTV-041:0  (local to host E-CAP-RTV-041)
24              UUID : d2df4c79:ddd06f10:c61939fc:6cea00af
25            Events : 51982
26
27    Number   Major   Minor   RaidDevice State
28       0       8        1        0      active sync   /dev/sda1
29       1       8       33        1      active sync   /dev/sdc1

Récupéreron l'uuid de /dev/md0

1$ ls -l /dev/disk/by-uuid/ | grep md0
2lrwxrwxrwx. 1 root root  9 Jan 17 17:16 c901497f-aeea-4ea8-b693-190b5ed84136 -> ../../md0

Ajouter cette ligne au /etc/fstab

1UUID=c901497f-aeea-4ea8-b693-190b5ed84136 /data	xfs	defaults	0	0

Si l'OS utilise systemd, pour la prise en compte de la modification il faut lancer :

1sudo systemctl daemon-reload

Puis montons le volume

1$ sudo mount /data
2$ df -h | grep /data
3/dev/md0        3.7T  2.5T  1.3T  67% /data

Mes fichiers sont bien accessibles à nouveau, immédiatement et après reboot.

Références

comments powered by Disqus