RAID - Réassembler une grappe avec mdadm
Suite à une réinstallation d'un système linux sur un disque dédié, comment reconfigurer une grappe RAID de données, sans l'effacer !
Soit le plan de partition suivant :
1$ lsblk
2NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
3sda 8:0 0 3.6T 0 disk
4└─sda1 8:1 0 3.6T 0 part
5sdb 8:16 0 447.1G 0 disk
6├─sdb1 8:17 0 16M 0 part
7└─sdb2 8:18 0 447.1G 0 part
8sdc 8:32 0 3.6T 0 disk
9└─sdc1 8:33 0 3.6T 0 part
10nvme0n1 259:0 0 931.5G 0 disk
11├─nvme0n1p1 259:1 0 128M 0 part /boot/efi
12├─nvme0n1p2 259:2 0 1G 0 part /boot
13├─nvme0n1p3 259:3 0 10G 0 part [SWAP]
14└─nvme0n1p4 259:4 0 920.4G 0 part /
L'OS a été nouvellement réinstallé sur nvme0n1.
On souhaite remonter la partition de données, grappe RAID 1 logicielle, composée des partitions /dev/sda1 et /dev/sdc1, sur /data.
Créeons déjà le point de montage
1sudo mkdir /data
2chown gus:gus /data
La commande mdadm sera nécessaire, elle n'est pas toujours disponible en cas d'installation minimale, exécutons :
1sudo dnf install mdadm
Le réassemblage de la grappe proprement dit :
1$ sudo mdadm --assemble /dev/md0 /dev/sda1 /dev/sdc1
2mdadm: /dev/md0 has been started with 2 drives.
Quelques commandes pour vérifier
1$ cat /proc/mdstat
2Personalities : [raid1]
3md0 : active raid1 sda1[0] sdc1[1]
4 3906884608 blocks super 1.2 [2/2] [UU]
5 bitmap: 0/30 pages [0KB], 65536KB chunk
6
7unused devices: <none>
1$ lsblk /dev/md0
2NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
3md0 9:0 0 3.6T 0 raid1
1$ lsblk
2NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
3sda 8:0 0 3.6T 0 disk
4└─sda1 8:1 0 3.6T 0 part
5 └─md0 9:0 0 3.6T 0 raid1
6sdb 8:16 0 447.1G 0 disk
7├─sdb1 8:17 0 16M 0 part
8└─sdb2 8:18 0 447.1G 0 part
9sdc 8:32 0 3.6T 0 disk
10└─sdc1 8:33 0 3.6T 0 part
11 └─md0 9:0 0 3.6T 0 raid1
12nvme0n1 259:0 0 931.5G 0 disk
13├─nvme0n1p1 259:1 0 128M 0 part /boot/efi
14├─nvme0n1p2 259:2 0 1G 0 part /boot
15├─nvme0n1p3 259:3 0 10G 0 part [SWAP]
16└─nvme0n1p4 259:4 0 920.4G 0 part /
1$ sudo mdadm --detail /dev/md0
2/dev/md0:
3 Version : 1.2
4 Creation Time : Fri Dec 5 16:16:39 2025
5 Raid Level : raid1
6 Array Size : 3906884608 (3.64 TiB 4.00 TB)
7 Used Dev Size : 3906884608 (3.64 TiB 4.00 TB)
8 Raid Devices : 2
9 Total Devices : 2
10 Persistence : Superblock is persistent
11
12 Intent Bitmap : Internal
13
14 Update Time : Sat Jan 17 16:45:49 2026
15 State : clean
16 Active Devices : 2
17 Working Devices : 2
18 Failed Devices : 0
19 Spare Devices : 0
20
21Consistency Policy : bitmap
22
23 Name : E-CAP-RTV-041:0 (local to host E-CAP-RTV-041)
24 UUID : d2df4c79:ddd06f10:c61939fc:6cea00af
25 Events : 51982
26
27 Number Major Minor RaidDevice State
28 0 8 1 0 active sync /dev/sda1
29 1 8 33 1 active sync /dev/sdc1
Récupéreron l'uuid de /dev/md0
1$ ls -l /dev/disk/by-uuid/ | grep md0
2lrwxrwxrwx. 1 root root 9 Jan 17 17:16 c901497f-aeea-4ea8-b693-190b5ed84136 -> ../../md0
Ajouter cette ligne au /etc/fstab
1UUID=c901497f-aeea-4ea8-b693-190b5ed84136 /data xfs defaults 0 0
Si l'OS utilise systemd, pour la prise en compte de la modification il faut lancer :
1sudo systemctl daemon-reload
Puis montons le volume
1$ sudo mount /data
2$ df -h | grep /data
3/dev/md0 3.7T 2.5T 1.3T 67% /data
Mes fichiers sont bien accessibles à nouveau, immédiatement et après reboot.