RAID5(2台稼働)に3台目を追加。

# mdadm --detail /dev/md127
/dev/md127:
        Version : 1.2
  Creation Time : Sun Feb  5 00:22:35 2017
     Raid Level : raid5
     Array Size : 3906764800 (3725.78 GiB 4000.53 GB)
  Used Dev Size : 1953382400 (1862.89 GiB 2000.26 GB)
   Raid Devices : 3
  Total Devices : 2
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Mon Feb  6 22:03:17 2017
          State : clean, degraded
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

           Name : serv3:127  (local to host serv3)
           UUID : 59eb6cbf:57782701:f034a4f7:b9427151
         Events : 55820

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       1       8       33        1      active sync   /dev/sdc1
       2       8       65        2      active sync   /dev/sde1

これから追加するドライブ↓

# parted --script /dev/sdd print
モデル: ATA WDC WD25EZRX-00M (scsi)
ディスク /dev/sdd: 2500GB
セクタサイズ (論理/物理): 512B/4096B
パーティションテーブル: gpt
ディスクフラグ:

番号  開始    終了    サイズ  ファイルシステム  名前  フラグ
 1    1049kB  2500GB  2500GB                          lvm
# lvremove /dev/VG_TS/vol01
Do you really want to remove active logical volume VG_TS/vol01? [y/n]: y
  Logical volume "vol01" successfully removed
# lvscan

# vgremove VG_TS
  Volume group "VG_TS" successfully removed
# vgscan
  Reading volume groups from cache.
# parted /dev/sdd
(parted) mklabel
新しいディスクラベル? gpt
警告: いま存在している /dev/sdd のディスクラベルは破壊され、このディスクの全データが失われます。続行しますか?
はい(Y)/Yes/いいえ(N)/No? y
(parted) mkpart
パーティションの名前?  []?
ファイルシステムの種類?  [ext2]?
開始? 0%
終了? 100%
(parted) set 1 raid on
(parted) print
モデル: ATA WDC WD25EZRX-00M (scsi)
ディスク /dev/sdd: 2500GB
セクタサイズ (論理/物理): 512B/4096B
パーティションテーブル: gpt
ディスクフラグ:

番号  開始    終了    サイズ  ファイルシステム  名前  フラグ
 1    1049kB  2500GB  2500GB                          raid

(parted) q
通知: 必要であれば /etc/fstab を更新するのを忘れないようにしてください。

# mdadm --add /dev/md127 /dev/sdd1
mdadm: added /dev/sdd1
# mdadm --detail /dev/md127
/dev/md127:
        Version : 1.2
  Creation Time : Sun Feb  5 00:22:35 2017
     Raid Level : raid5
     Array Size : 3906764800 (3725.78 GiB 4000.53 GB)
  Used Dev Size : 1953382400 (1862.89 GiB 2000.26 GB)
   Raid Devices : 3
  Total Devices : 3
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Mon Feb  6 22:19:45 2017
          State : clean, degraded, recovering
 Active Devices : 2
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 512K

 Rebuild Status : 0% complete

           Name : serv3:127  (local to host serv3)
           UUID : 59eb6cbf:57782701:f034a4f7:b9427151
         Events : 55824

    Number   Major   Minor   RaidDevice State
       3       8       49        0      spare rebuilding   /dev/sdd1
       1       8       33        1      active sync   /dev/sdc1
       2       8       65        2      active sync   /dev/sde1
# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]
md127 : active raid5 sdd1[3] sde1[2] sdc1[1]
      3906764800 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [_UU]
      [>....................]  recovery =  1.5% (29678252/1953382400) finish=301.3min speed=106380K/sec
      bitmap: 15/15 pages [60KB], 65536KB chunk

md126 : active raid1 sdb1[2] sda1[0]
      2930134016 blocks super 1.2 [2/2] [UU]
      bitmap: 0/22 pages [0KB], 65536KB chunk

unused devices: