ffmpeg高負荷時のCPU温度

# cat /proc/cpuinfo
processor       : 0 << 3まである
vendor_id       : GenuineIntel
cpu family      : 6
model           : 58
model name      : Intel(R) Core(TM) i3-3240 CPU @ 3.40GHz
stepping        : 9
microcode       : 0x1c
cpu MHz         : 3399.867
cache size      : 3072 KB
physical id     : 0
siblings        : 4
core id         : 0
cpu cores       : 2
apicid          : 0
initial apicid  : 0
fpu             : yes
fpu_exception   : yes
cpuid level     : 13
wp              : yes
flags           : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopo
logy nonstop_tsc aperfmperf eagerfpu pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 popcnt tsc_deadline_timer xsave avx f16c lahf_lm arat epb pln pts dtherm tpr_shadow vnmi
 flexpriority ept vpid fsgsbase smep erms xsaveopt
bogomips        : 6784.50
clflush size    : 64
cache_alignment : 64
address sizes   : 36 bits physical, 48 bits virtual
power management:
# uptime
 17:08:54 up 6 days, 20:29,  5 users,  load average: 11.19, 9.80, 7.82
# sensors
coretemp-isa-0000
Adapter: ISA adapter
Physical id 0:  +49.0°C  (high = +85.0°C, crit = +105.0°C)
Core 0:         +44.0°C  (high = +85.0°C, crit = +105.0°C)
Core 1:         +49.0°C  (high = +85.0°C, crit = +105.0°C)

RAID5(2台稼働)に3台目を追加。

# mdadm --detail /dev/md127
/dev/md127:
        Version : 1.2
  Creation Time : Sun Feb  5 00:22:35 2017
     Raid Level : raid5
     Array Size : 3906764800 (3725.78 GiB 4000.53 GB)
  Used Dev Size : 1953382400 (1862.89 GiB 2000.26 GB)
   Raid Devices : 3
  Total Devices : 2
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Mon Feb  6 22:03:17 2017
          State : clean, degraded
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

           Name : serv3:127  (local to host serv3)
           UUID : 59eb6cbf:57782701:f034a4f7:b9427151
         Events : 55820

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       1       8       33        1      active sync   /dev/sdc1
       2       8       65        2      active sync   /dev/sde1

これから追加するドライブ↓

# parted --script /dev/sdd print
モデル: ATA WDC WD25EZRX-00M (scsi)
ディスク /dev/sdd: 2500GB
セクタサイズ (論理/物理): 512B/4096B
パーティションテーブル: gpt
ディスクフラグ:

番号  開始    終了    サイズ  ファイルシステム  名前  フラグ
 1    1049kB  2500GB  2500GB                          lvm
# lvremove /dev/VG_TS/vol01
Do you really want to remove active logical volume VG_TS/vol01? [y/n]: y
  Logical volume "vol01" successfully removed
# lvscan

# vgremove VG_TS
  Volume group "VG_TS" successfully removed
# vgscan
  Reading volume groups from cache.
# parted /dev/sdd
(parted) mklabel
新しいディスクラベル? gpt
警告: いま存在している /dev/sdd のディスクラベルは破壊され、このディスクの全データが失われます。続行しますか?
はい(Y)/Yes/いいえ(N)/No? y
(parted) mkpart
パーティションの名前?  []?
ファイルシステムの種類?  [ext2]?
開始? 0%
終了? 100%
(parted) set 1 raid on
(parted) print
モデル: ATA WDC WD25EZRX-00M (scsi)
ディスク /dev/sdd: 2500GB
セクタサイズ (論理/物理): 512B/4096B
パーティションテーブル: gpt
ディスクフラグ:

番号  開始    終了    サイズ  ファイルシステム  名前  フラグ
 1    1049kB  2500GB  2500GB                          raid

(parted) q
通知: 必要であれば /etc/fstab を更新するのを忘れないようにしてください。

# mdadm --add /dev/md127 /dev/sdd1
mdadm: added /dev/sdd1
# mdadm --detail /dev/md127
/dev/md127:
        Version : 1.2
  Creation Time : Sun Feb  5 00:22:35 2017
     Raid Level : raid5
     Array Size : 3906764800 (3725.78 GiB 4000.53 GB)
  Used Dev Size : 1953382400 (1862.89 GiB 2000.26 GB)
   Raid Devices : 3
  Total Devices : 3
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Mon Feb  6 22:19:45 2017
          State : clean, degraded, recovering
 Active Devices : 2
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 512K

 Rebuild Status : 0% complete

           Name : serv3:127  (local to host serv3)
           UUID : 59eb6cbf:57782701:f034a4f7:b9427151
         Events : 55824

    Number   Major   Minor   RaidDevice State
       3       8       49        0      spare rebuilding   /dev/sdd1
       1       8       33        1      active sync   /dev/sdc1
       2       8       65        2      active sync   /dev/sde1
# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]
md127 : active raid5 sdd1[3] sde1[2] sdc1[1]
      3906764800 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [_UU]
      [>....................]  recovery =  1.5% (29678252/1953382400) finish=301.3min speed=106380K/sec
      bitmap: 15/15 pages [60KB], 65536KB chunk

md126 : active raid1 sdb1[2] sda1[0]
      2930134016 blocks super 1.2 [2/2] [UU]
      bitmap: 0/22 pages [0KB], 65536KB chunk

unused devices: 

RAID5パーティション作成

# blkid
/dev/sda1: UUID="fa562ab6-0dd0-8e78-c4d6-d5c6e8032619" UUID_SUB="4365450c-a526-4d4a-3cfa-27ea4e956bad" LABEL="serv3:0" TYPE="linux_raid_member" PARTUUID="01c447b7-80d1-47d7-87fc-4cfe3464da61"
/dev/sdd1: UUID="vbfc87-fuR1-8E2k-pPZh-x8qW-yksx-rI9e3G" TYPE="LVM2_member" PARTUUID="550a6592-ee93-4be0-8a90-2fffc0632aab"
/dev/sdc1: UUID="59eb6cbf-5778-2701-f034-a4f7b9427151" UUID_SUB="e3732893-5b11-3195-ced5-5cc410d58cb6" LABEL="serv3:127" TYPE="linux_raid_member" PARTUUID="80e69fb4-cb0e-498c-a5ae-897b39aa0504"
/dev/sdb1: UUID="fa562ab6-0dd0-8e78-c4d6-d5c6e8032619" UUID_SUB="70f0e2dd-665a-edb2-bd22-3d07a952ee40" LABEL="serv3:0" TYPE="linux_raid_member" PARTUUID="afdb203c-4938-471d-bd03-7c40a320b692"
/dev/sde1: UUID="59eb6cbf-5778-2701-f034-a4f7b9427151" UUID_SUB="5675c12f-f6d2-92b2-8d94-386993137fb3" LABEL="serv3:127" TYPE="linux_raid_member" PARTUUID="3cafadf9-73fd-4503-ba67-7844463defcb"
/dev/sdf1: UUID="b65bdf81-8f06-4671-841b-6455d46e95d8" TYPE="ext4"
/dev/sdf2: UUID="ad25b17a-e74d-4b80-a7d5-10b128d0658e" TYPE="ext4"
/dev/sdf3: UUID="a0ff3e04-c335-4f36-9ee2-a6765009e488" TYPE="swap"
/dev/md126: UUID="886a6e47-84b8-422b-9598-ac39d488a612" TYPE="ext4"
/dev/mapper/VG_TS-vol01: UUID="e18c4b73-2b21-4598-acfc-954e307b7f10" TYPE="ext4"
/dev/md127: UUID="f64b1122-ec77-45b0-b37a-8d50aa413726" TYPE="ext4"

CentOS7.3 1661 入れ直し後

# blkid
/dev/sda1: UUID="b65bdf81-8f06-4671-841b-6455d46e95d8" TYPE="ext4"
/dev/sda2: UUID="ad25b17a-e74d-4b80-a7d5-10b128d0658e" TYPE="ext4"
/dev/sda3: UUID="a0ff3e04-c335-4f36-9ee2-a6765009e488" TYPE="swap"
# cat /etc/fstab
UUID=ad25b17a-e74d-4b80-a7d5-10b128d0658e /                       ext4    defaults        1 1
UUID=b65bdf81-8f06-4671-841b-6455d46e95d8 /boot                   ext4    defaults        1 2
UUID=a0ff3e04-c335-4f36-9ee2-a6765009e488 swap                    swap    defaults        0 0

KVMから

# usermod -u 500 hoge
# groupmod -g 500 hoge
# shutdown -h now

HDDつなぎ直して起動。

# blkid
/dev/sdb1: UUID="fa562ab6-0dd0-8e78-c4d6-d5c6e8032619" UUID_SUB="70f0e2dd-665a-edb2-bd22-3d07a952ee40" LABEL="serv3:0" TYPE="linux_raid_m                                                         ember" PARTUUID="afdb203c-4938-471d-bd03-7c40a320b692"
/dev/sda1: UUID="fa562ab6-0dd0-8e78-c4d6-d5c6e8032619" UUID_SUB="4365450c-a526-4d4a-3cfa-27ea4e956bad" LABEL="serv3:0" TYPE="linux_raid_m                                                         ember" PARTUUID="01c447b7-80d1-47d7-87fc-4cfe3464da61"
/dev/sdc1: UUID="46979f3a-dda2-49af-a140-722c415de195" TYPE="ext4" PARTUUID="8834bb3f-7e9d-42e6-8aab-7c30f2757c5a"
/dev/sdd1: UUID="vbfc87-fuR1-8E2k-pPZh-x8qW-yksx-rI9e3G" TYPE="LVM2_member" PARTUUID="550a6592-ee93-4be0-8a90-2fffc0632aab"
/dev/sde1: UUID="f627bbdc-8ae9-4926-8d49-7a005b3fd8fa" TYPE="ext3"
/dev/sdf1: UUID="b65bdf81-8f06-4671-841b-6455d46e95d8" TYPE="ext4"
/dev/sdf2: UUID="ad25b17a-e74d-4b80-a7d5-10b128d0658e" TYPE="ext4"
/dev/sdf3: UUID="a0ff3e04-c335-4f36-9ee2-a6765009e488" TYPE="swap"
/dev/md127: UUID="886a6e47-84b8-422b-9598-ac39d488a612" TYPE="ext4"
/dev/mapper/VG_TS-vol01: UUID="e18c4b73-2b21-4598-acfc-954e307b7f10" TYPE="ext4"
# cat /proc/mdstat
Personalities : [raid1]
md127 : active (auto-read-only) raid1 sda1[0]
      2930134016 blocks super 1.2 [2/1] [U_]
      bitmap: 7/22 pages [28KB], 65536KB chunk

unused devices: 

再起動後に/homeをRAIDドライブでマウントするように変更。

# vi /etc/fstab
以下1行追加
UUID=886a6e47-84b8-422b-9598-ac39d488a612 /home                   ext4    defaults        1 2
# reboot
$ df -h
ファイルシス   サイズ  使用  残り 使用% マウント位置
/dev/sdf2        908G  3.6G  859G    1% /
devtmpfs         3.8G     0  3.8G    0% /dev
tmpfs            3.8G   84K  3.8G    1% /dev/shm
tmpfs            3.8G  9.1M  3.8G    1% /run
tmpfs            3.8G     0  3.8G    0% /sys/fs/cgroup
/dev/md127       2.7T  1.5T  1.1T   58% /home
/dev/sdf1        976M  123M  786M   14% /boot
tmpfs            770M   12K  770M    1% /run/user/42
tmpfs            770M     0  770M    0% /run/user/500
# mount /dev/sdc1 /mnt/sdc1
# mount /dev/sde1 /mnr/sde1
# mount /dev/VG_TS-vol01 /mnt/VG_TS-vol01
# rsync -av /mnt/sde1/source_rd /mnt/VG_TS-vol01/
sent 72513545598 bytes  received 3136 bytes  67360472.58 bytes/sec
total size is 72504680350  speedup is 1.00

# rsync -av /mnt/sde1/movie /mnt/VG_TS-vol01/
sent 1329021673460 bytes  received 61599 bytes  45452956.96 bytes/sec
total size is 1327422146797  speedup is 1.00
rsync error: some files/attrs were not transferred (see previous errors) (code 23) at main.c(1052) [sender=3.0.9]

CentOS入れ直し前HDD構成控え

# blkid
/dev/sdb1: UUID="fa562ab6-0dd0-8e78-c4d6-d5c6e8032619" UUID_SUB="70f0e2dd-665a-edb2-bd22-3d07a952ee40" LABEL="serv3:0" TYPE="linux_raid_member"
/dev/sda1: UUID="fa562ab6-0dd0-8e78-c4d6-d5c6e8032619" UUID_SUB="4365450c-a526-4d4a-3cfa-27ea4e956bad" LABEL="serv3:0" TYPE="linux_raid_member"
/dev/sdd1: UUID="vbfc87-fuR1-8E2k-pPZh-x8qW-yksx-rI9e3G" TYPE="LVM2_member"
/dev/sde1: UUID="1ac649ad-3a54-4c1c-98bb-3eb93b26e71c" TYPE="ext3"
/dev/sde2: UUID="21e3245b-9e26-4fd3-9133-a74eba29eef1" TYPE="swap"
/dev/sde3: UUID="7b4af296-3c78-49f2-bf1f-10196863e408" TYPE="ext4"
/dev/md126: UUID="886a6e47-84b8-422b-9598-ac39d488a612" TYPE="ext4"
/dev/mapper/VG_TS-vol01: UUID="e18c4b73-2b21-4598-acfc-954e307b7f10" TYPE="ext4"
/dev/sdc1: UUID="46979f3a-dda2-49af-a140-722c415de195" TYPE="ext4"
# parted --list
モデル: ATA WDC WD30EZRZ-00Z (scsi)
ディスク /dev/sda: 3001GB
セクタサイズ (論理/物理): 512B/4096B
パーティションテーブル: gpt

番号  開始    終了    サイズ  ファイルシステム  名前  フラグ
 1    1049kB  3001GB  3001GB                          raid


モデル: ATA WDC WD30EZRZ-00Z (scsi)
ディスク /dev/sdb: 3001GB
セクタサイズ (論理/物理): 512B/4096B
パーティションテーブル: gpt

番号  開始    終了    サイズ  ファイルシステム  名前  フラグ
 1    1049kB  3001GB  3001GB                          raid


モデル: ATA WDC WD20EZRX-00D (scsi)
ディスク /dev/sdc: 2000GB
セクタサイズ (論理/物理): 512B/4096B
パーティションテーブル: gpt

番号  開始    終了    サイズ  ファイルシステム  名前  フラグ
 1    1049kB  2000GB  2000GB  ext4


モデル: ATA WDC WD25EZRX-00M (scsi)
ディスク /dev/sdd: 2500GB
セクタサイズ (論理/物理): 512B/4096B
パーティションテーブル: gpt

番号  開始    終了    サイズ  ファイルシステム  名前  フラグ
 1    1049kB  2500GB  2500GB                          lvm


モデル: ATA Hitachi HDT72101 (scsi)
ディスク /dev/sde: 1000GB
セクタサイズ (論理/物理): 512B/512B
パーティションテーブル: gpt

番号  開始    終了    サイズ  ファイルシステム  名前  フラグ
 1    1049kB  1050MB  1049MB  ext3                    boot
 2    1050MB  9438MB  8389MB  linux-swap(v1)
 3    9438MB  1000GB  991GB   ext4


モデル: Linux device-mapper (linear) (dm)
ディスク /dev/mapper/VG_TS-vol01: 2496GB
セクタサイズ (論理/物理): 512B/4096B
パーティションテーブル: loop

番号  開始   終了    サイズ  ファイルシステム  フラグ
 1    0.00B  2496GB  2496GB  ext4


モデル: 不明 (unknown)
ディスク /dev/md126: 3000GB
セクタサイズ (論理/物理): 512B/4096B
パーティションテーブル: loop

番号  開始   終了    サイズ  ファイルシステム  フラグ
 1    0.00B  3000GB  3000GB  ext4

/homeを2TBから3TBに移行

# blkid
/dev/sdc1: UUID="dfb79b3e-ae17-4b43-0bea-35ab1bfc7b58" UUID_SUB="0fba4f31-5236-482d-d01e-24f377d7ffe7" LABEL="serv3:0" TYPE="linux_raid_member"
/dev/sdd1: UUID="vbfc87-fuR1-8E2k-pPZh-x8qW-yksx-rI9e3G" TYPE="LVM2_member"
/dev/sde1: UUID="1ac649ad-3a54-4c1c-98bb-3eb93b26e71c" TYPE="ext3"
/dev/md127: UUID="65d162f1-7996-4bab-a813-14fd3a786890" TYPE="ext4"
/dev/mapper/VG_TS-vol01: UUID="e18c4b73-2b21-4598-acfc-954e307b7f10" TYPE="ext4"
/dev/sde2: UUID="21e3245b-9e26-4fd3-9133-a74eba29eef1" TYPE="swap"
/dev/sde3: UUID="7b4af296-3c78-49f2-bf1f-10196863e408" TYPE="ext4"
/dev/sdb1: UUID="fa562ab6-0dd0-8e78-c4d6-d5c6e8032619" UUID_SUB="70f0e2dd-665a-edb2-bd22-3d07a952ee40" LABEL="serv3:0" TYPE="linux_raid_member"
/dev/sda1: UUID="fa562ab6-0dd0-8e78-c4d6-d5c6e8032619" UUID_SUB="4365450c-a526-4d4a-3cfa-27ea4e956bad" LABEL="serv3:0" TYPE="linux_raid_member"
/dev/md0: UUID="886a6e47-84b8-422b-9598-ac39d488a612" TYPE="ext4"

md127(旧/home)とmd0(新/home)のUUIDを確認。

# vi /etc/fstab
(変更前)
UUID=65d162f1-7996-4bab-a813-14fd3a786890 /home                   ext4    defaults        0 3
↓
(変更後)
#UUID=65d162f1-7996-4bab-a813-14fd3a786890 /home                   ext4    defaults        0 3
UUID=886a6e47-84b8-422b-9598-ac39d488a612 /home                   ext4    defaults        0 3

シングルユーザーモードでやるのが王道?

# shutdown -h now

ここでわざと3TB(sda or sdb)の片方(ポートからしてたぶんsdb)の
ケーブルを外してシングルユーザーモードで起動。
PCにKBとVGAをつけて起動して起動シークエンスを中断してeをヒット、
kernel〜の行をフォーカスしてeをヒット、
プロンプトにスぺースを開けて「single」と打ってenter,起動。
強制的にrootでログインしているので

# blkid
予想通り、sda1のUUID_SUBだけが表示されました。
# cat /proc/mdstat
md126とmd127が片肺運転だそうです。
# shutdown -h now

UUID_SUBをマスキングテープに記入し実ドライブに貼っておきます。
旧/homeのsdaを外し(万が一のバックアップ)、変わりに旧/homeのsdbを
つなぐ。ケーブル類を戻し再起動。

# df -h
# df -h
Filesystem      Size  Used Avail Use% Mounted on
/dev/sde3       909G  740G  123G  86% /
tmpfs           3.8G     0  3.8G   0% /dev/shm
/dev/sde1       985M   74M  861M   8% /boot
/dev/md126      2.7T  1.5T  1.2T  56% /home

無事移行成功。自分のhomeもlsした感じでは問題なさそう。

# /etc/init.d/smb start
SMB サービスを起動中:                                      [  OK  ]
# chkconfig smb on

3TB×2台でRAID1を構成。

# cat /proc/mdstat
Personalities : [raid1]
md127 : active raid1 sdc1[0]
      1953512316 blocks super 1.1 [2/1] [U_]
      bitmap: 15/15 pages [60KB], 65536KB chunk

unused devices: 
# fdisk -l
ディスク /dev/sdc: 2000.4 GB, 2000398934016 バイト
ヘッド 255, セクタ 63, シリンダ 243201
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
セクタサイズ (論理 / 物理): 512 バイト / 4096 バイト
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
ディスク識別子: 0x0003625a

デバイス ブート      始点        終点     ブロック   Id  システム
/dev/sdc1               1      243202  1953513472   fd  Linux raid 自動検出

ディスク /dev/sdb: 3000.6 GB, 3000592982016 バイト
ヘッド 255, セクタ 63, シリンダ 364801
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
セクタサイズ (論理 / 物理): 512 バイト / 4096 バイト
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
ディスク識別子: 0x00000000


ディスク /dev/sda: 3000.6 GB, 3000592982016 バイト
ヘッド 255, セクタ 63, シリンダ 364801
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
セクタサイズ (論理 / 物理): 512 バイト / 4096 バイト
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
ディスク識別子: 0x00000000


警告: GPT (GUID パーティションテーブル) が '/dev/sdd' に検出されました! この fdisk ユーティリティは GPT をサポートしません。GNU Parted を使ってください。


ディスク /dev/sdd: 2500.5 GB, 2500495958016 バイト
ヘッド 255, セクタ 63, シリンダ 304001
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
セクタサイズ (論理 / 物理): 512 バイト / 4096 バイト
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
ディスク識別子: 0x00000000

デバイス ブート      始点        終点     ブロック   Id  システム
/dev/sdd1               1      267350  2147483647+  ee  GPT
Partition 1 does not start on physical sector boundary.

警告: GPT (GUID パーティションテーブル) が '/dev/sde' に検出されました! この fdisk ユーティリティは GPT をサポートしません。GNU Parted を使ってください。


ディスク /dev/sde: 1000.2 GB, 1000204886016 バイト
ヘッド 255, セクタ 63, シリンダ 121601
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
セクタサイズ (論理 / 物理): 512 バイト / 512 バイト
I/O size (minimum/optimal): 512 bytes / 512 bytes
ディスク識別子: 0xfeb020c4

デバイス ブート      始点        終点     ブロック   Id  システム
/dev/sde1               1      121602   976762583+  ee  GPT

ディスク /dev/md127: 2000.4 GB, 2000396611584 バイト
ヘッド 2, セクタ 4, シリンダ 488378079
Units = シリンダ数 of 8 * 512 = 4096 バイト
セクタサイズ (論理 / 物理): 512 バイト / 4096 バイト
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
ディスク識別子: 0x00000000


ディスク /dev/mapper/VG_TS-vol01: 2495.9 GB, 2495912869888 バイト
ヘッド 255, セクタ 63, シリンダ 303444
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
セクタサイズ (論理 / 物理): 512 バイト / 4096 バイト
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
ディスク識別子: 0x00000000
# blkid
/dev/sdc1: UUID="dfb79b3e-ae17-4b43-0bea-35ab1bfc7b58" UUID_SUB="0fba4f31-5236-482d-d01e-24f377d7ffe7" LABEL="serv3:0" TYPE="linux_raid_member"
/dev/sdd1: UUID="vbfc87-fuR1-8E2k-pPZh-x8qW-yksx-rI9e3G" TYPE="LVM2_member"
/dev/sde1: UUID="1ac649ad-3a54-4c1c-98bb-3eb93b26e71c" TYPE="ext3"
/dev/md127: UUID="65d162f1-7996-4bab-a813-14fd3a786890" TYPE="ext4"
/dev/mapper/VG_TS-vol01: UUID="e18c4b73-2b21-4598-acfc-954e307b7f10" TYPE="ext4"
/dev/sde2: UUID="21e3245b-9e26-4fd3-9133-a74eba29eef1" TYPE="swap"
/dev/sde3: UUID="7b4af296-3c78-49f2-bf1f-10196863e408" TYPE="ext4"

パーティションを作成(sda,sdb)。

# parted /dev/sda
GNU Parted 2.1
/dev/sda を使用
GNU Parted へようこそ! コマンド一覧を見るには 'help' と入力してください。
(parted) print
モデル: ATA WDC WD30EZRZ-00Z (scsi)
ディスク /dev/sda: 3001GB
セクタサイズ (論理/物理): 512B/4096B
パーティションテーブル: msdos

番号  開始  終了  サイズ  タイプ  ファイルシステム  フラグ

(parted) mklabel
新しいディスクラベル? gpt
警告: いま存在している /dev/sda のディスクラベルは破壊され、このディスクの全データが失われます。続行しますか?
はい(Y)/Yes/いいえ(N)/No? y
(parted) mkpart
パーティションの名前?  []?
ファイルシステムの種類?  [ext2]?
開始? 0%
終了? 100%
(parted) set 1 raid on
(parted) print
モデル: ATA WDC WD30EZRZ-00Z (scsi)
ディスク /dev/sda: 3001GB
セクタサイズ (論理/物理): 512B/4096B
パーティションテーブル: gpt

番号  開始    終了    サイズ  ファイルシステム  名前  フラグ
 1    1049kB  3001GB  3001GB                          raid

(parted)quit

/dev/sdbの結果のみ以下。

(parted) print
モデル: ATA WDC WD30EZRZ-00Z (scsi)
ディスク /dev/sdb: 3001GB
セクタサイズ (論理/物理): 512B/4096B
パーティションテーブル: gpt

番号  開始    終了    サイズ  ファイルシステム  名前  フラグ
 1    1049kB  3001GB  3001GB                          raid


なんとなく片肺でRAID1を作成してみる。

# mdadm --create /dev/md0 --auto=yes --level=raid1 --raid-devices=2 /dev/sda1 missing
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sda1[0]
      2147349696 blocks super 1.2 [2/1] [U_]
      bitmap: 0/16 pages [0KB], 65536KB chunk

md127 : active raid1 sdc1[0]
      1953512316 blocks super 1.1 [2/1] [U_]
      bitmap: 15/15 pages [60KB], 65536KB chunk

unused devices: 
#mkfs -t ext4 /dev/md0
mke2fs 1.41.12 (17-May-2010)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=1 blocks, Stripe width=0 blocks
183140352 inodes, 732533504 blocks
36626675 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=4294967296
22356 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
        32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
        4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,
        102400000, 214990848, 512000000, 550731776, 644972544

Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done

This filesystem will be automatically checked every 30 mounts or
180 days, whichever comes first.  Use tune2fs -c or -i to override.
# mkdir /mnt/md0
# mount /dev/md0 /mnt/md0/
# df -h
Filesystem      Size  Used Avail Use% Mounted on
/dev/sde3       909G  740G  123G  86% /
tmpfs           3.8G  152K  3.8G   1% /dev/shm
/dev/sde1       985M   74M  861M   8% /boot
/dev/md127      1.8T  1.6T  192G  90% /home
/dev/md0        2.7T   73M  2.6T   1% /mnt/md0
# blkid
/dev/sdc1: UUID="dfb79b3e-ae17-4b43-0bea-35ab1bfc7b58" UUID_SUB="0fba4f31-5236-482d-d01e-24f377d7ffe7" LABEL="serv3:0" TYPE="linux_raid_member"
/dev/sdd1: UUID="vbfc87-fuR1-8E2k-pPZh-x8qW-yksx-rI9e3G" TYPE="LVM2_member"
/dev/sde1: UUID="1ac649ad-3a54-4c1c-98bb-3eb93b26e71c" TYPE="ext3"
/dev/md127: UUID="65d162f1-7996-4bab-a813-14fd3a786890" TYPE="ext4"
/dev/mapper/VG_TS-vol01: UUID="e18c4b73-2b21-4598-acfc-954e307b7f10" TYPE="ext4"
/dev/sde2: UUID="21e3245b-9e26-4fd3-9133-a74eba29eef1" TYPE="swap"
/dev/sde3: UUID="7b4af296-3c78-49f2-bf1f-10196863e408" TYPE="ext4"
/dev/sdb1: UUID="fa562ab6-0dd0-8e78-c4d6-d5c6e8032619" UUID_SUB="70f0e2dd-665a-edb2-bd22-3d07a952ee40" LABEL="serv3:0" TYPE="linux_raid_member"
/dev/sda1: UUID="fa562ab6-0dd0-8e78-c4d6-d5c6e8032619" UUID_SUB="4365450c-a526-4d4a-3cfa-27ea4e956bad" LABEL="serv3:0" TYPE="linux_raid_member"
/dev/md0: UUID="886a6e47-84b8-422b-9598-ac39d488a612" TYPE="ext4"
# time rsync -av --log-file=/root/rsync.log /home/ /mnt/md0/
sent 1781118825979 bytes  received 13323602 bytes  54641821.96 bytes/sec
total size is 1674238802844  speedup is 0.94
rsync error: some files/attrs were not transferred (see previous errors) (code 23) at main.c(1039) [sender=3.0.6]

real    543m15.995s
user    181m36.747s
sys     108m47.474s

1,781/543/60*8=0.43Gbps

# mdadm --manage --add /dev/md0 /dev/sdb1
mdadm: added /dev/sdb1
# cat /proc/mdstat (11:00 AM)
Personalities : [raid1]
md0 : active raid1 sdb1[2] sda1[0]
      2930134016 blocks super 1.2 [2/1] [U_]
      [>....................]  recovery =  0.0% (511616/2930134016) finish=858.9
      bitmap: 22/22 pages [88KB], 65536KB chunk

md127 : active raid1 sdc1[0]
      1953512316 blocks super 1.1 [2/1] [U_]
      bitmap: 15/15 pages [60KB], 65536KB chunk

unused devices: 
# cat /proc/mdstat (11:10 AM)
Personalities : [raid1]
md0 : active raid1 sdb1[2] sda1[0]
      2930134016 blocks super 1.2 [2/1] [U_]
      [>....................]  recovery =  2.5% (75549312/2930134016) finish=538
      bitmap: 22/22 pages [88KB], 65536KB chunk

md127 : active raid1 sdc1[0]
      1953512316 blocks super 1.1 [2/1] [U_]
      bitmap: 15/15 pages [60KB], 65536KB chunk

unused devices: 

単純計算で400分掛かるとしたらRAID1構築完了は17時40分?