Ho creato un Raid5 con 5 dischi con mdadm, e qui tutto ok. Ha resyncato tutto, e lo vedo come clean, funzionante.
> mdadm --detail /dev/md0 /dev/md0: Version : 1.2 Creation Time : Sat Oct 29 16:24:10 2016 Raid Level : raid5 Array Size : 1953013760 (1862.54 GiB 1999.89 GB) Used Dev Size : 488253440 (465.63 GiB 499.97 GB) Raid Devices : 5 Total Devices : 5 Persistence : Superblock is persistent Intent Bitmap : Internal Update Time : Sun Oct 30 11:29:58 2016 State : clean Active Devices : 5 Working Devices : 5 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 2048K Name : NASPROLIANT:0 (local to host NASPROLIANT) UUID : 83687fe2:a722d478:70ee2951:e5349ead Events : 1284 Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 8 33 1 active sync /dev/sdc1 2 8 65 2 active sync /dev/sde1 3 8 81 3 active sync /dev/sdf1 4 8 97 4 active sync /dev/sdg1
Poi ho provato a fare delle prove, ho spento il nas, e ho staccato fisicamente un disco, e l'ho riacceso, per simulare un disk failure
Mi aspettavo di trovare il raid 5 funzionante ma in degraded, invece è inactive e me lo segna come raid 0
> cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : inactive sdd1[2](S) sdf1[4](S) sde1[3](S) sdb1[0](S) 1953017856 blocks super 1.2 unused devices: <none> > mdadm --detail /dev/md0 /dev/md0: Version : 1.2 Raid Level : raid0 Total Devices : 4 Persistence : Superblock is persistent State : inactive Name : NASPROLIANT:0 (local to host NASPROLIANT) UUID : 83687fe2:a722d478:70ee2951:e5349ead Events : 1284 Number Major Minor RaidDevice - 8 17 - /dev/sdb1 - 8 49 - /dev/sdd1 - 8 65 - /dev/sde1 - 8 81 - /dev/sdf1
mi sarei aspettato di vedere un disco come removed, ma nulla. Il raid5 non deve funzionare anche se un disco faila? Cioè, staccando il disco volevo simulare un malfunzionamento totale di esso, eppure l'array non si monta e rimane inactive.
E' normale?