RBD 基础使用clienta:umount /mntserverc:rados -p pool01 ls扩容时同时发起读写操作:vim /etc/fstab mount -a
Ceph 用户认证与授权ceph -sceph auth list注意:不可以通过直接修改keyring 文件来获得权限,否则ceph 集群就变得很不安全了,真正记录权限的位置在mon 组件中,而非客户端。当user8 读rhca_01.txt 单个对象是可以的,但要列出test1 存储池中的所有对象就会被拒绝了。没有任何权限,所以不能看集群状态。
Ceph 集群配置改为:这样就造成了配置文件与实际操作的效果不一致;这个实验说明了:如果针对单个节点修改配置,只能在当前节点生效,如果访问集群的入口不同,就不能得到相同的效果了。这种配置方式临时有效,如果守护进程一重启,就会失效。mon 节点都挂了,ceph -s 查看不到集群状态。如果在生产环境上,ceph 命令没有响应,首先应该怀疑mon 节点是否正常。mon 是有仲裁机制的,必须要满足半数以
Ceph 存储池如果PG 太多,对象太少,会造成大量的空间浪费;如果PG 太少,对象太多,寻找对象的时间过长,影响性能。ceph osd pool create --helpusage 那一行显示的是存储池内所有pg 的容量之和。这里提出一个问题:pg_num 是32 个,那么osd 上有多少个pg?这是一个replicated(副本)池,size 是3,表示是3 副本,那么osd 上有32*3=
Ceph 的安装与扩容开源pacific版Ceph部署部署手册:https://min2000.lanzoul.com/iJHRg2a7rlmf密码:CL260如果没有安装ceph-common,可以通过yum -y install ceph-common 安装,或通过下面这种方法,进入到容器,输入ceph 相关的命令,例如ceph -s 查看ceph 集群的状态:这是开机的时候自动执行的脚本,其
RHCA 课程须知Ceph 原理及架构
防止单点故障大概过一下,具体内容看教材。
集群级逻辑卷如果你在一个节点上使用共享存储创建了lvm,并对lvm 划了分区,那么在其他节点上使用partprobe 同步分区,也是看不到这个逻辑卷和分区的。我们希望逻辑卷的状态可以通告给其他节点,这就需要使用集群级逻辑卷技术来实现。一定要使用逻辑卷来做集群文件系统资源吗?使用普通分区可不可以?当然可以,但这就没办法做分区空间的拉伸了。nodeb 虽然能挂载,但这也面临脑裂的问题。HA LVMHA
管理两节点集群重新搭建一个两节点集群。这个参数是默认开启的。因为是两节点集群,不是用50%+1 的方式仲裁的,1 票就能存活,waitforall 参数默认开启。为避免fence loop 现象,可以设置延迟fence,时间应略大于节点启动时间。RHEL8.3 及之后的版本:配置和管理仲裁设备这是写磁盘的方式,在共享存储上划分一片空间,自定义一个试探程序,把节点的状态写入到磁盘,先写入的节点为优胜
集群资源管理constraint这样可以清空票数:下面这条命令可以看到每一个资源缺省的票数:这些规则是永久生效的,需要手动删除;如果是通过move 或 ban 等命令产生的constraint 规则,则临时生效,集群重启就失效了。Trouble Shootinglog这个日志文件可以配置每个节点不一样;改完配置文件以后重启集群生效。Notificationpostfix 默认是监听本地环回接口,一
创建和配置资源LSB 资源在RHEL6 版本用的可能比较多,现在几乎没有了。创建IP资源创建文件系统资源接下来去集群的每一个节点上安装httpdyum -y install httpd配置selinux,每个节点都要做:创建服务资源现在文件系统、httpd、ip 资源都运行在nodea上面,其他节点上是没有的。集群的ip 资源用ifconfig 命令是查看不到的,需要用ip 命令来查看:ip ad
集群管理standby 状态用于停机维护。仲裁机制当集群达到2 个节点或以上,需要仲裁机制跨地域机房之间做HA集群,通常情况下,距离小于100km,延迟小于2ms,可以双活,同时提供业务;距离大于100km,延迟大于2ms,只能做主备,用于容灾。如上图,这是一个双活集群,当北京数据中心其中一个节点故障时,集群是能够继续提供业务的;当北京数据中心两个节点都故障的时候,廊坊数据中心是不能够继续提供业务
集群分类安装pacemaker安装pacemaker,所有主机都安装:yum -y install pcsHA 集群心跳网络通常写host 文件来解析主机名,不用DNS,或直接使用ip 地址进行通讯。这样机器在重启之后,会自动把节点拉活。fence机制实验二:配置fence脑裂现象:解决方案:有一些厂商的集群软件使用的解决方案是仲裁:在存储上划分一块空间当做仲裁节点,这里不展开。以前RHEL 7
Linux 跟踪工具常用选项:-c 统计数量 -e 后面跟系统调用名称,列出打开的文件在遇到执行命令卡顿时,strace 可以帮助排查在哪个步骤出了问题。
网络调优延迟越大,缓存越大;为什么延迟大呢?因为距离远;为什么距离远延迟要大呢?因为一次可以传输更多的数据,这样可以更快地把数据传输完整。延迟越大,思念越深;为什么延迟大呢?因为距离远;为什么距离远延迟要大呢?因为一次可以表达更多的爱,这样可以更快地把爱意表达完整。所以,越爱越不爱,越不爱越爱;万物负阴而抱阳;距离产生美。为什么通讯延迟越低,我们越没有爱了呢?因为网络,进一步言之,因为科技;所以科
CPU 缓存及磁盘调度算法cache hit:应用程序访问的数据在CPU cache 中命中的比率叫cache 命中率;cache miss:cache 丢失率;cache line fill:如果CPU 要调取的数据在缓存中没有,就从内存中读取,这叫cache 的填充;当数据在CPU 中已经被处理完,将移动到内存中,由内存写入到硬盘,永久保存;从CPU 移动数据到内存,有两种方式:透写式:一对一
内存管理及调优32 位系统最大内存寻址空间为2^32=4GiB,64 位系统原则上最大内存寻址空间为2^64=64EiB,几乎没有内存空间限制,然后根据操作系统内核版本的不同,在RHEL 8 中,最大内存寻址空间是8TiB,其他64 位操作系统版本可能有支持最大寻址空间是256TiB 的,目前 257TiB - 16EiB 这段空间预留未开发。ps aux 命令显示的列中,有两个参数,一个是VSS
CPU资源调优IRQ 叫中断号,操作系统之所以能够跟设备打交道,其实就是依赖于中断号实现,每个设备都有中断号。在以前还在使用拨号上网的时代,那么时候经常使用计算机的人可能遇到的一个经典的案例就是,当你正在拨号上网的时候,同时再使用打印机,打印出来的文件乱码, 或者已经拨号连接上了, 这个时候使用打印机就会造成断网。这通常是由于硬件的中断号冲突导致的,解决方案是开机进入BIOS 手动调整其中一个设备
文件系统管理及调优目录的索引记录了该目录下包含的文件名。通常,我们删除一个文件只是删除了这个文件的inode 索引,并不会删除block 区域的内容,当有新的数据需要写入时则覆盖。在同一个文件系统中移动文件本质上是移动inode 数据,它指向的block 区域数据并没有产生变化。如果是跨分区、跨磁盘、或跨文件系统移动数据,就会移动inode 和block 数据。对于应用程序而言,只要有对应文件系统
进程管理常用命令:ps aux ps -efUSER:运行该进程的用户PID:进程ID%CPU:CPU的占用率%MEM:内存的占用率VSZ:虚拟内存申请的大小RSS:物理内存占用大小TTY:运行该进程的终端,?表示该进程不是从终端运行的STAT:进程的状态,S 就是sleep(休眠状态),I<(可中断的进程)man psSTART:该进程的启动时间TIME:持续运行的时间,处于休眠状态的进程
资源限制在Linux 系统中,有一个非常古老的资源限制功能——limits在系统中,有一个模块叫做limits.so,这个模块有一个配置文件:vim /etc/security/limits.conf这个模块也是PAM 认证模块里面的一个机制。如果你早期有安装过类似于oracle 这种大型数据库,通常会接触到limits 这个功能,它能帮助你限制一个用户最多打开多少个文件、最多使用多大的磁盘空间、
Linux 模块管理列出系统中所有的模块:# lsmod那么存放模块文件的目录在哪儿?根目录的文件系统是xfs,那么在系统中一定存在xfs 相关的模块:左边是模块的名字,然后模块的大小,模块使用的次数,模块的描述信息。如果有两个xfs 文件系统的挂载,那么这个模块使用的次数应为2,如果你想知道这个模块的详细信息:# modinfo xfs注意:模块必须匹配当前的内核版本,如果在一个内核版本中编译了
前面提到一种新的调优方法,通过写tuned profile 方案,调优参数随服务启动生效,按照启动顺序是先读取 /etc/sysctl.conf 然后再读取tuned.conf ,所以后者会覆盖前者,/etc/sysctl.conf 相当于是全局调优方案。硬件监控及内核模块调优四大核心子系统:CPU内存磁盘网络从cpu 开始,来看这台机器:# lscpucpu的架构是x86_64,数量64,编号是
CE 阶段调优方法回顾在以前的课程中,/proc、/sys 目录是几乎没有接触和用到的,在CE 阶段,其实就已经接触过一部分性能调优了,我们在/etc/sysctl.conf 配置文件中写入的内核参数,例如:net.ipv4.ip_forward = 1,加入这样一行参数,那么系统在开机的时候就会读取这个配置文件里,从而使这个参数生效,其实这个参数对应的文件就在/proc/sys/net/ipv4
简介vmstat是Virtual Meomory Statistics(虚拟内存统计)的缩写,可对操作系统的虚拟内存、进程、IO读写、CPU活动等进行监视。它是对系统的整体情况进行统计,不足之处是无法对某个进程进行深入分析。指令所在路径:/usr/bin/vmstat输出字段意义Procs:r: The number of processes waiting for run time.等待运行的进
1. mpstat的基本用法:mpstat的全称为Multiprocessor Statistics,是一款常用的多核CPU性能分析工具,用来实时查询每个CPU的性能指标,以及所有CPU的平均指标。它是Linux性能工具集sysstat中的一个工具mpstat [-P {|ALL}] [internal [count]]参数解释:-P: 指定要监控哪个CPU,范围是[0 ~ n
在Linux操作系统中,top是使用最频繁,也是比较全的一个命令。Top命令类似于Windows系统的任务管理器工具。它对于所有正在运行的进行和系统负荷提供不断更新的概览信息,包括系统负载、CPU利用分布情况、内存使用、每个进程的内容使用情况等信息。下面主要介绍一下top命令。程的内容使用情况等信息。下面主要介绍一下top命令。1、系统状态【提示】:top给出的系统运行时间,反应了当前系统存活多久
free命令free命令用于查看系统内存信息常用选项:-m:以MB为单位显示-g:以GB为单位显示-h:以人类易读的方式显示运行示例:运行结果的前面3 个字段很容易理解,但是used + free 的值显然不等于total,这就要看后面两个字段了,shared 为共享内存,进程间通讯使用,buff/cache 叫缓存,从红帽7 开始,buff 和 cache 这两个值合并为一个字段显示,以前是分开
Linux用cache/buffer缓存数据,且会定期或者根据某种条件将内存中的脏数据刷新到磁盘。Linux内核控制脏数据刷新到磁盘的内核参数主要如下几个:vm.dirty_background_bytes = 0 vm.dirty_bytes = 0 vm.dirty_background_ratio = 10 vm.dirty_ratio = 30 vm.dirty_expire_cent
一、sar工具介绍sar(System Activity Reporter)是一个优秀的性能分析工具,用于收集、报告和分析系统活动。它可以输出Linux所完成的几乎所有工作的数据。sar命令在sysetat rpm中提供。示例中使用sysstat版本10.1.5。 sar可以显示CPU、运行队列、磁盘I/O、分页(交换区)、内存、CPU中断、网络等性能数据。sar可以访问https://sysst
Copyright © 2005-2025 51CTO.COM 版权所有 京ICP证060544号