今天简单研究了下weight和reweight对pg的影响通过cephosdtree可以查看到weight和reweight的值weight的权重和磁盘的容量有关系一般定义1TB为1.0500G为0.5也不会因为容量的减少而变化是个恒定的值可以通过cephosdcrushreweight修改在这种状态下如果直接stop掉148节点会影响到pg的数据重新分配所以gp的分配取决于weigh值rewei
背景ceph的整体读写性能下降经查看cephosdperf有一块osd延迟较大在200多ms以上决定剔除后整体性能恢复说明osd的一个节点问题有时会影响整体ceph的性能ceph--admin-daemon/var/run/ceph/ceph-osd.135.asokperfdump|more"WBThrottle":{"bytes_dirtied":133
背景环境是我们开始在我们的云平台上开始集成SLB测试发现在现有的两个网卡上不同网段不能让其它网段正常访问查其原因后是路由反向检测默认开启需要关闭就可以正常通讯echo0>/proc/sys/net/ipv4/conf/bond0.20/rp_filterecho0>/proc/sys/net/ipv4/conf/all/rp_filter
(服务器用的阿里云主机,CentOS7.3,似乎不管内存多少阿里云都把conntrack_max设成65536)症状CentOS服务器,负载正常,但请求大量超时,服务器/应用访问日志看不到相关请求记录。在dmesg或/var/log/messages看到大量以下记录:kernel:nf_conntrack:tablefull,droppingpacket.原因服务器访问量大,内核netfilter
ceph状态突然error[root@ceph-6-11~]#cephhealthdetailHEALTH_ERR1pgsinconsistent;1scruberrors;pg2.37cisactive+clean+inconsistent,acting[75,6,35]1scruberrors报错信息总结:问题PG:2.37cOSD编号:75,6,35执行常规修复:cephpgrepair2.
批量启动composemariadb:image:"mariadb:v0.3"container_name:mariadbhostname:mariadbports:"3306:3306"environment:init=truecommand:/opt/entrypoint.shvolumes:/var/log/:/var/log//data/mysql/
51CTO博客开发红帽成长足迹宗军网络工程师
在Ceph集群日常运维中,管理员可能会遇到有的p_w_picpath删除不了的情况,有一种情况是由于p_w_picpath下有快照信息,只需要先将快照信息清除,然后再删除该p_w_picpath即可,还有一种情况是因为该p_w_picpath仍旧被一个客户端在访问,具体表现为该p_w_picpath中有watcher,如果该客户端异常了,那么就会出现无法删除该p_w_picpath的情况。watc
可以直接缩小 p_w_picpath的大小rbd resize k8s/monitor-grafana-data --size 100G --allow-shrink
从crushmap中删除操作调整osd的crush weightceph osd crush reweight osd.0 0.1说明:这个地方如果想慢慢的调整就分几次将crush 的weight 减低到0 ,这个过程实际上是让数据不分布在这个节点上,让数据慢慢的分布到其他节点上,直到最终为没有分布在这个osd,并且迁移完成这个地方不光调整了osd 的crush weight ,实际上同时调整了h
一、创建相应的pool ceph osd pool create k8s 4096 4096二、创建ceph的对k8s pool的用户ceph auth get-or-create client.k8s mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=k8s' -o /
此map为我生成环境 故障域为rackrack rack-05 { id -26 # do not change unnecessarily # weight 78.336  
openstack mitaka版本需要用到自己的基础组件 需要预留ip通过network port 但port的ip不在dhcp池里 需要手动创建1、在控制节点neutron进入命令行后net-list查看网段的id2、port-list查看网段对应的port id3、创建port port-create --name=test --fixed-ip subnet_id=通过步骤2获得
有时候,ceph宿主机需要重启,由于ceph自带数据恢复平衡功能,所以需要手动临时禁用禁用命令如下:ceph osd set nooutceph osd set nobackfillceph osd set norecover启用命令如下:ceph osd unset nooutceph osd unset nobackfillceph osd unset norecover
globallog 127.0.0.1 local3chroot /var/lib/haproxydaemonnbproc 16group nobodyuser nobodypidfile /var/run/haproxy.pid########默认配置############defaultsmode tcp &n
1、在主节点上/etc/my.cnfservice-id=1在主库mysql授权backup用户的权限grant replication slave on *.* to backup@'%' identified by 'password';在终端导出全库 为保证数据库的偏移量一致性 加入--master-data=2mysqldump -u root --master-data=2 --all-
rabbitmqctl cluster_status11.2 Run the followingcommands on each node except the first one:rabbitmqctl stop_apprabbitmqctl join_cluster rabbit@Controller1rabbitmqctl start_app11.3 first node exec:rabb
block读写顺序读写数据线程数IOPS带宽速度运行时间 s4K Rados随机读174M161556360.7961MB/s2顺序读174M161319951.5621MB/s2随机写174M1614865.80794MB/s304K RBD随机读17.6G16104000587.7MB/s30顺序读2.2G162380074MB/s30随机写571M1623521
先是rados -p vms ls 查看 map的id然后通过map的ID 去查看所在pg的位置ceph osd map vms rbd_object_map.25f24a3c4e2d通过ceph osd tree | grep -A 10 osd.216查看所在设备远程登录所在设备进入相应的目录cd /var/lib/ceph/osd/ceph-216/current过滤pg组ls -l|gre
镜像转换qemu-img convert -O raw cirros-0.3.5-x86_64-disk.img cirros-0.3.5-x86_64-disk.raw先上传镜像openstack p_w_picpath create cirros-0.3.5-x86_64-disk.raw --file cirros-0.3.5-x86_64-disk.img.raw --disk
删除osd的正确方式有如下(对比分析) 在ceph的集群当中关于节点的替换的问题,一直按照以前的方式进行的处理,处理的步骤如下:停止osd进程/etc/init.d/ceph stop osd.0这一步是停止osd的进程,让其他的osd知道这个节点不提供服务了将节点状态标记为outceph osd out osd.0这个一步是告诉mon,
以下操作在要添加monitor的节点上执行一、导出monitor的密钥ceph auth get mon. -o /tmp/keyring二、监视图ceph mon getmap -o /tmp/mapfile三、导入密钥和监视图ceph-mon -i ceph-p-online-1 --mkfs --monmap /tmp/mapfile --keyring /tmp/keyring四、声明地址
vim /etc/iproute2/rt_tables200 dstroute #添加/etc/rc.local/sbin/ip route add 0.0.0.0/0.0.0.0 via 10.203.3.254 dev bond0 table dstroute/sbin/ip rule add from 10.203.3.0/24 table
cat /etc/sysconfig/dockerother_args='-g /rc/local/docker'OPTIONS='--selinux-enabled --log-driver=journald -g /rc/docker'INSECURE_REGISTRY='--insecure-registry registry.docker.com'ADD_REGISTRY='--add-r
Nginx最近有漏洞爆出,于是把原来的nginx-1.6.2平滑升级至nginx-1.12.1稳定版。并记录这一过程,参照这一过程也适用其他版本的升级。1. 开始之前先查看一下当前使用的版本。# /usr/local/webserver/nginx/sbin/nginx -Vnginx: nginx version: nginx/1.0.5nginx: built by gcc 4.1.2 200
目前手动部署openstack都很繁琐 so all of people 都在研究怎么能快速 简单的部署openstack 最近也在研究在官网看到了 kolla的这东东 经过调研 好多人在用 也就义无反顾的 跟随了 开始kolla的时代一、系统环境centos7.2 两块网卡 4c 8G 40G二、kolla是做openstack容器化的镜像 而kolla-ansible是用来部署openstac
好多人现在都在搞CI-CD 但一直没有一个完善的解决方案 如果你有兴趣 可以一起探讨 以下是我淌过坑的 部署 也能为感兴趣的小伙伴 后续会研究Distribute架构 节省宝贵的时间 废话不多少 直接上干货Spinnaker使用halyard工具管理 极其方便 简单一、系统使用ubuntu14.04 来安装halyardcurl -O https://raw.githubusercontent.c
一、设备kube-apiserver的CA正式相关的文件和启动参数openssl genrsa -out ca.key 2048openssl req x509 -new nodes -key ca.key -subj "/CN=yourcompany.com" -days 5000 -out ca.crtopensll genrsa -out server.key 2048二、准备master_
#add hostNew-vm -Name frmtempplate-192.168.0.1 -VM temp -VMHost 192.168.0.2 -Datastore 0.2$myServer = Connect-VIServer -Server 192.168.0.1#datacentorAdd-VMHost -Server $myServer -Name 192.168.0.2 -Loc
选择bond4模式 纯属为了扩大服务器的带宽 但前提是接入交换是单点或堆叠我们使用cisco交换3850只需连接好线就行 最主要就是交换机上的配置 废话不多说 两个接入口绑定一个channel 就ok 然后服务器上设置好bond 就okinterface port-channel number(global)#interface fastethernet4/1(interface)#ch
Copyright © 2005-2025 51CTO.COM 版权所有 京ICP证060544号