RAID5(2台稼働)に3台目を追加。
# mdadm --detail /dev/md127
/dev/md127: Version : 1.2 Creation Time : Sun Feb 5 00:22:35 2017 Raid Level : raid5 Array Size : 3906764800 (3725.78 GiB 4000.53 GB) Used Dev Size : 1953382400 (1862.89 GiB 2000.26 GB) Raid Devices : 3 Total Devices : 2 Persistence : Superblock is persistent Intent Bitmap : Internal Update Time : Mon Feb 6 22:03:17 2017 State : clean, degraded Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 512K Name : serv3:127 (local to host serv3) UUID : 59eb6cbf:57782701:f034a4f7:b9427151 Events : 55820 Number Major Minor RaidDevice State - 0 0 0 removed 1 8 33 1 active sync /dev/sdc1 2 8 65 2 active sync /dev/sde1
これから追加するドライブ↓
# parted --script /dev/sdd print
モデル: ATA WDC WD25EZRX-00M (scsi) ディスク /dev/sdd: 2500GB セクタサイズ (論理/物理): 512B/4096B パーティションテーブル: gpt ディスクフラグ: 番号 開始 終了 サイズ ファイルシステム 名前 フラグ 1 1049kB 2500GB 2500GB lvm
# lvremove /dev/VG_TS/vol01
Do you really want to remove active logical volume VG_TS/vol01? [y/n]: y Logical volume "vol01" successfully removed
# lvscan
# vgremove VG_TS
Volume group "VG_TS" successfully removed
# vgscan
Reading volume groups from cache.
# parted /dev/sdd
(parted) mklabel 新しいディスクラベル? gpt 警告: いま存在している /dev/sdd のディスクラベルは破壊され、このディスクの全データが失われます。続行しますか? はい(Y)/Yes/いいえ(N)/No? y (parted) mkpart パーティションの名前? []? ファイルシステムの種類? [ext2]? 開始? 0% 終了? 100% (parted) set 1 raid on (parted) print モデル: ATA WDC WD25EZRX-00M (scsi) ディスク /dev/sdd: 2500GB セクタサイズ (論理/物理): 512B/4096B パーティションテーブル: gpt ディスクフラグ: 番号 開始 終了 サイズ ファイルシステム 名前 フラグ 1 1049kB 2500GB 2500GB raid (parted) q 通知: 必要であれば /etc/fstab を更新するのを忘れないようにしてください。
# mdadm --add /dev/md127 /dev/sdd1
mdadm: added /dev/sdd1
# mdadm --detail /dev/md127
/dev/md127: Version : 1.2 Creation Time : Sun Feb 5 00:22:35 2017 Raid Level : raid5 Array Size : 3906764800 (3725.78 GiB 4000.53 GB) Used Dev Size : 1953382400 (1862.89 GiB 2000.26 GB) Raid Devices : 3 Total Devices : 3 Persistence : Superblock is persistent Intent Bitmap : Internal Update Time : Mon Feb 6 22:19:45 2017 State : clean, degraded, recovering Active Devices : 2 Working Devices : 3 Failed Devices : 0 Spare Devices : 1 Layout : left-symmetric Chunk Size : 512K Rebuild Status : 0% complete Name : serv3:127 (local to host serv3) UUID : 59eb6cbf:57782701:f034a4f7:b9427151 Events : 55824 Number Major Minor RaidDevice State 3 8 49 0 spare rebuilding /dev/sdd1 1 8 33 1 active sync /dev/sdc1 2 8 65 2 active sync /dev/sde1
# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4] md127 : active raid5 sdd1[3] sde1[2] sdc1[1] 3906764800 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [_UU] [>....................] recovery = 1.5% (29678252/1953382400) finish=301.3min speed=106380K/sec bitmap: 15/15 pages [60KB], 65536KB chunk md126 : active raid1 sdb1[2] sda1[0] 2930134016 blocks super 1.2 [2/2] [UU] bitmap: 0/22 pages [0KB], 65536KB chunk unused devices: