目录
引言
一、RAID磁盘阵列介绍
1、概念
2、阵列分类
3、RAID 0
4、RAID 1
5、RAID 5
6、RAID 6
7、 RAID 1+0
二、创建RAID 5(至少3个磁盘)
第一步:查询mdadm软件包是否存在,不存在进行安装,使用fdisk根据,划分分区,设备ID标记为“fd”
第二步:创建RAID设备
第三步:创建并挂载文件系统和查看磁盘详细信息
模拟故障
1、更换磁盘和查看安装
2、创建/etc/mdadm.conf 配置文件,方便管理软RAID的配置
三、创建RAID 10(至少4块磁盘)
第一步:查询mdadm软件包是否存在,不存在进行安装,使用fdisk根据,划分分区,设备ID标记为“fd”
第二步: 创建RAID设备
第三步:创建并挂载文件系统和查看磁盘详细信息
模拟故障
创建/etc/mdadm.conf 配置文件,方便管理软RAID的配置
总结
引言
很多小伙伴对raid其实很陌生,他们会说,不就是多搞几个硬盘吗,是的,我们就是多搞几个磁盘,然后把他以某种形式排列起来,那我们为什么要这样做呢?首先,我们知道磁盘很脆弱,但是我们存储的数据却很重要,而且非常的多,这个时候,我们就需要把进行有效的保护,同时我们需要使用时候,也要可以快速的读取,那我们今天就来看一看那种方式能够很好的起到这样的作用
一、RAID磁盘阵列介绍
1、概念
RAID中文简称为独立冗余磁盘阵列
把多块独立的物理硬盘按不同的方式组合起来形成一个硬盘组(逻辑硬盘),从而提供比单个硬盘更高的存储性能和提供数据备份技术
2、阵列分类
组成磁盘阵列的不同方式称为RAID级别(RAID Levels)
常用的RAID级别:RAIDO,RAID1,RAID5,RAID6,RAID1+0等
3、RAID 0
RAID 0连续以位或字节为单位分割数据,并行读/写于多个磁盘上,因此具有很高的数据传输率,但它没有数据冗余
RAID0只是单纯地提高性能,并没有为数据的可靠性提供保证,而且其中的一个磁盘失效将影响到所有数据
RAID O不能应用于数据安全性要求高的场合
4、RAID 1
通过磁盘数据镜像实现数据冗余,在成对的独立磁盘上产生互为备份的数据 通过磁盘数据镜像实现数据冗余,在成对的独立磁盘上产生互为备份的数据
当原始数据繁忙,可直接从镜像拷贝中读取数据,因此RAID 1可以提高读取性能
RAID1是磁盘阵列中单位成本最高的,但提供了很高的数据安全性和可用性。当一个磁盘失效时,系统可以自动切换到镜像磁盘上读写,而不需要重组失效的数据
5、RAID 5
N(N>=3)块盘组成阵列,一份数据产生N-1个条带,同时还有1份校验数据,共N份数据在N块盘上循环均衡存储
N块盘同时读写,读性能很高,但由于有校验机制的问题,写性能相对不高
(N-1)/N磁盘利用率、可靠性高,允许坏1块盘,不影响所有数据
6、RAID 6
N(N>=4)块盘组成阵列,(N-2)/N磁盘利用率
与RAID 5相比,RAID 6增加了第二个独立的奇偶校验信息块
两个独立的奇偶系统使用不同的算法,即使两块磁盘同时失效也不会影响数据的使用
相对于RAID 5有更大的“写损失”,因此写性能较差
7、 RAID 1+0
N(偶数,N>=4)块盘两两镜像后,再组合成一个RAID 0
N/2磁盘利用率
N/2块盘同时写入,N块盘同时读取
性能高,可靠性高
二、创建RAID 5(至少3个磁盘)
第一步:查询mdadm软件包是否存在,不存在进行安装,使用fdisk根据,划分分区,设备ID标记为“fd”
rpm -q mdadm #查询mdadm安装包是否存在
yum install -y mdadm #安装mdadm
fdisk /dev/sdb #划分分区
fdisk /dev/sdc
fdisk /dev/sdd
fdisk /dev/sde
第二步:创建RAID设备
[root@localhost ~]# mdadm -C -v /dev/md5 -l5 -n3 /dev/sd[bcd]1 -x1 /dev/sde1
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 512K
mdadm: size set to 20954112K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md5 started.
-C:表示新建;
-v:显示创建过程中的详细信息。
/dev/md5: 创建RAID5的名称。
-ayes:--auto,表示如果有什么设备文件没有存在的话就自动创建,可省略。
-l: 指定RAID 的级别,l5表示创建RAID5。.
-n:指定使用几块硬盘创建RAID, n3表示使用3块硬盘创建RAID。
/dev/sd [bcd]1: 指定使用这3块磁盘分区去创建RAID。
-x:指定使用几块硬盘做RAID的热备用盘,x1表示保留1块空闲的硬盘作备用
/dev/sde1: 指定用作于备用的磁盘
第三步:创建并挂载文件系统和查看磁盘详细信息
[root@localhost ~]# mkfs -t xfs /dev/md5 #格式化
meta-data=/dev/md5 isize=512 agcount=16, agsize=654720 blks
= sectsz=512 attr=2, projid32bit=1
= crc=1 finobt=0, sparse=0
data = bsize=4096 blocks=10475520, imaxpct=25
= sunit=128 swidth=256 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal log bsize=4096 blocks=5120, version=2
= sectsz=512 sunit=8 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
[root@localhost ~]# mount /dev/md5 /2 #挂载查看挂载
[root@localhost ~]# df -Th
文件系统 类型 容量 已用 可用 已用% 挂载点
/dev/sda3 xfs 33G 3.7G 30G 12% /
devtmpfs devtmpfs 898M 0 898M 0% /dev
tmpfs tmpfs 912M 0 912M 0% /dev/shm
tmpfs tmpfs 912M 9.1M 903M 1% /run
tmpfs tmpfs 912M 0 912M 0% /sys/fs/cgroup
/dev/sda1 xfs 2.0G 174M 1.9G 9% /boot
tmpfs tmpfs 183M 48K 183M 1% /run/user/1000
tmpfs tmpfs 183M 0 183M 0% /run/user/0
/dev/sr0 iso9660 4.3G 4.3G 0 100% /run/media/ly/CentOS 7 x86_64
/dev/md5 xfs 40G 33M 40G 1% /2
[root@localhost ~]# mdadm -D /dev/md5 #查看raid磁盘详细信息
模拟故障
mdadm /dev/md5 -f /dev/sdb1 #模拟/dev/sdb1故障
mdadm -D /dev/md5 #查看发现sde1已顶替sdb1
1、更换磁盘和查看安装
mdadm /dev/md5 -r /dev/sdb1 #移除sdb1
mdadm /dev/md5 -a /dev/sdb1 #添加sdb1
watch -n 10 ' cat /proc/mdstat ' #每隔一段时间刷新/proc/mdstat的输出
mdadm -E /dev/sd[b-e]1 #检查磁盘是否做RAID
2、创建/etc/mdadm.conf 配置文件,方便管理软RAID的配置
[root@localhost ~]# echo ' DEVICE /dev/sdc1 /dev/sdb1 /dev/sdd1 /dev/sde1' >
/etc/mdadm.conf #把资源写入配置文件
[root@localhost ~]# mdadm --detail --scan >> /etc/mdadm.conf #扫描更新
[root@localhost ~]# umount /dev/md5 #取消挂载
[root@localhost ~]# mdadm -S /dev/md5 #停止RAID
mdadm: stopped /dev/md5
[root@localhost ~]# mdadm -As /dev/md5 #开启RAID
mdadm: /dev/md5 has been started with 3 drives and 1 spare.
三、创建RAID 10(至少4块磁盘)
第一步:查询mdadm软件包是否存在,不存在进行安装,使用fdisk根据,划分分区,设备ID标记为“fd”
rpm -q mdadm #查询mdadm安装包是否存在
yum install -y mdadm #安装mdadm
fdisk /dev/sdb #划分分区
fdisk /dev/sdc
fdisk /dev/sdd
fdisk /dev/sde
第二步: 创建RAID设备
[root@localhost ~]# mdadm -Cv /dev/md0 -l1 -n2 /dev/sd[bc]1 #创建raid1
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
mdadm: size set to 20954112K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[root@localhost ~]# mdadm -Cv /dev/md1 -l1 -n2 /dev/sd[de]1 #创建raid1
[root@localhost ~]# mdadm -Cv /dev/md10 -l0 -n2 /dev/md[01] #把2个raid1,做raid0
mdadm: chunk size defaults to 512K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md10 started.
#raid 10 就是把两个raid 1 再做raid 0 ,如果先做raid 0 效果不一样,有可能丢失数据
第三步:创建并挂载文件系统和查看磁盘详细信息
[root@localhost ~]# mkfs -t xfs /dev/md10 #这边只要格式化md10即可
[root@localhost ~]# mkdir /1
[root@localhost ~]# mount /dev/md10 /1 #挂载和查询挂载
[root@localhost ~]# df -Th
[root@localhost ~]# mdadm -D /dev/md10 #查看磁盘信息
模拟故障
[root@localhost ~]# mdadm /dev/md0 -f /dev/sdb1 #这边我们只能在md1两个组里实行故障
mdadm: set /dev/sdb1 faulty in /dev/md0
[root@localhost ~]# mdadm /dev/md0 -r /dev/sdb1
[root@localhost ~]# mdadm /dev/md0 -a /dev/sdb1
[root@localhost ~]# mdadm -D /dev/md10 #这边我们容量是md1的两倍
创建/etc/mdadm.conf 配置文件,方便管理软RAID的配置
[root@localhost ~]# echo ' DEVICE /dev/md1 /dev/md0' > /etc/mdadm.conf #注意配置文件的资源
[root@localhost ~]# mdadm --detail --scan >> /etc/mdadm.conf
[root@localhost ~]# umount /dev/md10
[root@localhost ~]# mdadm -S /dev/md10
mdadm: stopped /dev/md10
[root@localhost ~]# mdadm -As /dev/md10
mdadm: /dev/md10 has been started with 2 drives.
总结
创建raid是非常的简单的,最后给大家总结了一个表,可以非常清晰的看出各等级的优劣势
RAID级别 | 硬盘数量 | 磁盘利用率 | 是否有校验 | 保护能力 | 写性能 |
RAID0 | N | N | 无 | 无 | 单个硬盘的N倍 |
RAID1 | N(偶数) | N/2 | 无 | 允许一个设备故障 | 需写两对存储设备,互为准备 |
RAID5 | N>3 | (N-1)/N | 有 | 允许一个设备故障 | 需写计算校验 |
RAID6 | N>4 | (N-2)/N | 有 | 允许两个设备故障 | 需双重写计算校验 |
RAID1+0 | N>=4(偶数) | N/2 | 无 | 允许各基组中各坏一个 | N/2块盘同时写入 |