在线时间:8:00-16:00
迪恩网络APP
随时随地掌握行业动态
扫描二维码
关注迪恩网络微信公众号
mdadm是linux下用于创建和管理软件RAID的命令,是一个模式化命令。但由于现在服务器一般都带有RAID阵列卡,并且RAID阵列卡也很廉价,且由于软件RAID的自身缺陷(不能用作启动分区、使用CPU实现,降低CPU利用率),因此在生产环境下并不适用。但为了学习和了解RAID原理和管理,因此仍然进行一个详细的讲解: mdadm 主要命令说明模式(7种): -C 创建Raid (/dev/md0是我的raid名称) Options that are valid with management mode are: 下面来看一下实例: 一、创建模式 复制代码 代码如下:mdadm -C /dev/md0 -a yes -l 0 -n 2 /dev/sdb{1,2} 注意:用于创建raid的磁盘分区类型需为fd 1.2 格式化: mkfs.ext4 /dev/md0 注意:在格式化时,可以指定-E选项下的stride参数指定条带是块大小的多少倍,有在一定程度上提高软RAID性能,如块默认大小为4k,而条带大小默认为64k,则stride为16,这样就避免了RAID每次存取数据时都去计算条带大小,如: mkfs.ext4 -E stride=16 -b 4096 /dev/md0 其中stride=chunk/block,为2的n次方 2、创建raid1: 2.1 创建raid 复制代码 代码如下:[root@localhost ~]# mdadm -C /dev/md1 -a yes -n 2 -l 1 /dev/sdb{5,6} mdadm: Note: this array has metadata at the start and may not be suitable as a boot device. If you plan to store '/boot' on this device please ensure that your boot-loader understands md/v1.x metadata, or use --metadata=0.90 Continue creating array? y mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md1 started. 注意:这个提示是说软raid不能用作启动分区。 2.2 格式化: 复制代码 代码如下:[root@localhost ~]# mkfs.ext4 /dev/md1 3、创建raid5: 由于没有磁盘空间,我将原来做raid1的测试磁盘全部删除后重新建立四个分区用于raid5测试,分别为sdb5-8 3.1 创建raid5 复制代码 代码如下:[root@localhost ~]# mdadm -C /dev/md2 -a yes -l 5 -n 3 /dev/sdb{5,6,7} mdadm: /dev/sdb5 appears to be part of a raid array: level=raid1 devices=2 ctime=Sun Jul 14 09:14:25 2013 mdadm: /dev/sdb6 appears to be part of a raid array: level=raid1 devices=2 ctime=Sun Jul 14 09:14:25 2013 mdadm: /dev/sdb7 appears to be part of a raid array: level=raid1 devices=2 ctime=Sun Jul 14 09:14:25 2013 Continue creating array? y mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md2 started. 注意:由于我的分区刚才在raid1上使用过,因此有此提示。 3.2 格式化: [root@localhost ~]# mkfs.ext4 /dev/md2 3.3 增加热备磁盘: [root@localhost ~]# mdadm /dev/md2 -a /dev/sdb8 4、查看md状态: 4.1 查看RAID阵列的详细信息: 复制代码 代码如下:选项: -D = --detail mdadm -D /dev/md# 查看指定RAID设备的详细信息 4.2 查看raid状态 复制代码 代码如下:[root@localhost ~]# cat /proc/mdstat Personalities : [raid0] [raid1] md0 : active raid0 sdb2[1] sdb1[0] 4206592 blocks super 1.2 512k chunks md1 : active raid1 sdb6[1] sdb5[0] 2103447 blocks super 1.2 [2/2] [UU] unused devices: <none> 注意:在创建raid前,应该先查看磁盘是否被识别,如果内核还为识别,创建Raid时会报错: 复制代码 代码如下:cat /proc/partitions 如果没有被识别,可以执行命令: 复制代码 代码如下:kpartx /dev/sdb 或者复制代码 代码如下:partprobe/dev/sdb
复制代码 代码如下:mdadm /dev/md1 -f /dev/sdb5 2、移除损坏的磁盘: 复制代码 代码如下:mdadm /dev/md1 -r /dev/sdb5 3、添加新的硬盘到已有阵列: 复制代码 代码如下:mdadm /dev/md1 -a /dev/sdb7 注意: 3.1、新增加的硬盘需要与原硬盘大小一致 3.2、如果原有阵列缺少工作磁盘(如raid1只有一块在工作,raid5只有2块在工作),这时新增加的磁盘直接变为工作磁盘,如果原有阵列工作正常,则新增加的磁盘为热备磁盘。 4、停止阵列: 选项:-S = --stop 复制代码 代码如下:mdadm -S /dev/md1
复制代码 代码如下:[root@localhost ~]# mdadm -G /dev/md2 -n 4 注意:-n 4 表示使用四块工作磁盘 再次使用-D选项查看阵列详细信息如下: 复制代码 代码如下:[root@localhost ~]# mdadm -D /dev/md2 ……此处略掉部分信息…… Number Major Minor RaidDevice State 0 8 21 0 active sync /dev/sdb5 1 8 22 1 active sync /dev/sdb6 3 8 23 2 active sync /dev/sdb7 4 8 24 3 active sync /dev/sdb8
复制代码 代码如下:mdadm -A /dev/md1 /dev/sdb5 /dev/sdb6 实现自动装配: mdadm运行时会自动检查/etc/mdadm.conf 文件并尝试自动装配,因此第一次配置raid后可以将信息导入到/etc/mdadm.conf 中,命令如下: 复制代码 代码如下:[root@localhost ~]# mdadm -Ds >/etc/mdadm.conf |
请发表评论