Ho creato un Raid5 con 5 dischi con mdadm, e qui tutto ok. Ha resyncato tutto, e lo vedo come clean, funzionante.
> mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sat Oct 29 16:24:10 2016
Raid Level : raid5
Array Size : 1953013760 (1862.54 GiB 1999.89 GB)
Used Dev Size : 488253440 (465.63 GiB 499.97 GB)
Raid Devices : 5
Total Devices : 5
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Sun Oct 30 11:29:58 2016
State : clean
Active Devices : 5
Working Devices : 5
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 2048K
Name : NASPROLIANT:0 (local to host NASPROLIANT)
UUID : 83687fe2:a722d478:70ee2951:e5349ead
Events : 1284
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
2 8 65 2 active sync /dev/sde1
3 8 81 3 active sync /dev/sdf1
4 8 97 4 active sync /dev/sdg1
Poi ho provato a fare delle prove, ho spento il nas, e ho staccato fisicamente un disco, e l'ho riacceso, per simulare un disk failure
Mi aspettavo di trovare il raid 5 funzionante ma in degraded, invece è inactive e me lo segna come raid 0 ![]()
> cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : inactive sdd1[2](S) sdf1[4](S) sde1[3](S) sdb1[0](S)
1953017856 blocks super 1.2
unused devices: <none>
> mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Raid Level : raid0
Total Devices : 4
Persistence : Superblock is persistent
State : inactive
Name : NASPROLIANT:0 (local to host NASPROLIANT)
UUID : 83687fe2:a722d478:70ee2951:e5349ead
Events : 1284
Number Major Minor RaidDevice
- 8 17 - /dev/sdb1
- 8 49 - /dev/sdd1
- 8 65 - /dev/sde1
- 8 81 - /dev/sdf1
mi sarei aspettato di vedere un disco come removed, ma nulla. Il raid5 non deve funzionare anche se un disco faila? Cioè, staccando il disco volevo simulare un malfunzionamento totale di esso, eppure l'array non si monta e rimane inactive.
E' normale? ![]()












