部署 AWS Load Balancer Controller 这里使用helm的方式部署 步骤 1:创建 IAM 策略 直接在 AWS 控制台上,创建一个名为AWSLoadBalancerControllerIAMPolicy的 IAM 策略,内容如下: { "Version": "2012-10-17", "Statemen
Sentinel 控制台 Sentinel 控制台是流量控制、熔断降级规则统一配置和管理的入口,它为用户提供了机器自发现、簇点链路自发现、监控、规则配置等功能。在 Sentinel 控制台上,我们可以配置规则并实时查看流量控制效果。 Sentinel Dashboard 部署 使用alibaba开源出来的sentinel-dashboard,版本是1.8.6 制作镜像 Dockerfile 文
官网 Amazon EFS CSI 驱动程序 创建 IAM 策略和角色 创建 IAM 策略并将其分配给 IAM 角色。该策略将允许 Amazon EFS 驱动程序与你的文件系统交互。 将 Amazon EFS CSI 驱动程序部署到 Amazon EKS 集群。 # 从 GitHub 下载 IAM 策略文档 curl -o iam-policy-example.json https://raw.g
部署架构 说明: (1)Producer:生产者 (2)Consumer:消费者 (3)NameServer:RockerMQ的注册中心,多个实例组成集群,但相互独立,没有信息交换。每个Broker都向所有NameServer实例注册。 (4)Broker:负责存储消息、转发消息。 部署模式 RocketMQ作为消息中间件,其主要功能为消息的Publish/Subscribe。而Broker担任
背景需求 一台EC2机器上使用Docker部署两个单实例的RocketMQ服务。 部署流程 第一个 RocketMQ 服务 创建 Docker 网络: docker network create rocketmq-dev 创建日志目录: mkdir -p /root/rocketmq520/dev/logs chmod 777 /root/rocketmq520/dev/logs 创建数据目录
环境 运行在CentOS-8上,使用docker-compose部署的elasticsearch:7.14.2,四节点集群。 故障现象 打开kibana管理台--> Stack Monitoring--> Nodes,发现监控信息报错,如下图所示(原图忘记截图了): 点击Index Management管理界面上索引均是正常的,使用docker-compose ps看到容器也是正常r
故障现象 运行在 k8s 里的nacos-mysql突然无法正常连接,日志报错如下: [Note] InnoDB: Check that you do not already have another mysqld process using the same InnoDB data or log files. [ERROR] InnoDB: Unable to lock ./ibdata1, e
当前现状 mongodb数据盘/dev/vdb1,分区格式是MBR,目前数据盘总量是3T,已使用2T,剩余1T。 现在情况是,后期无法继续扩容/dev/vdb1分区,百度云官网文档中说明如下: 若您的磁盘容量小于 2TB,您可以使用 MBR 或者 GPT 方式完成分区和文件系统扩展;若您的磁盘在扩容后容量大于 2TB 但既有分区方式为 MBR,您需要切换分区方式至 GPT。此时,如果您需要保留数
速率对比 当前主流数据传输工具:cp、rsync、dd 测试流程 准备两个相同大小的目录和文件,这是因为dd主要用来拷贝文件、分区和磁盘,一般不用来拷贝目录。 安装可视化工具: ## centos 扩展包 yum -y install epel-release yum install -y pv ## ubuntu apt install pv -y ## cp 同步命令 time cp -
可视化界面 这里提供两个可视化dashboard,大家可以按需选择适合自己的。 (1)lxdui (2)lxd dashboard 说明:我这里选择的是Installing the LXD dashboard on Ubuntu 22.04。 lxdui 部署 这里使用虚拟环境的方式部署。 当前系统使用的是Ubuntu22.04,其默认的python是3.10。建议使用python3.8,
LXD 使用 创建容器基本用法 ## 使用Ubuntu 22.04镜像启动一个名为ceshi的容器 lxc launch ubuntu:22.04 ceshi ## 检查启动的实例列表 lxc list ## 使用命令查询每个实例的更多信息 lxc info ceshi ## 停止容器 lxc stop ceshi ## 删除容器 lxc delete ceshi ## 强制删除容器 lxc de
升级内核 操作系统使用的是Ubuntu Server 22.04.3 LTS (Jammy Jellyfish),系统内核版本是5.15.0-91-generic。由于安装的CUDA版本是当前最新版12.3,对系统内核版本有要求,如下: 内核升级步骤: (1)查看当前内核版本 uname -r (2)查看可用的内核版本 apt-get update ## 查看可用内核 apt-cache se
准备工作 安装 Golang (1)使用snap安装 snap install go --classic (2)二进制包安装 下载链接和步骤可参考传送门,主要步骤: rm -rf /usr/local/go && tar -C /usr/local -xzf go1.21.6.linux-amd64.tar.gz ## ~/.bashrc export PATH=$PATH:/u
系统信息 ## 操作系统 CentOS Linux release 7.9.2009 (Core) ## k8s 版本 v1.22.10 ## zadig 版本 v1.15.0 故障背景 最近zadig发布时,时不时出现连接我们内网服务gitlab和harbor超时timeout问题,看了下 k8s etcd 的监控信息,确实延时挺高(200~500ms),正常延时应该在10ms左右。 机房服务
故障背景 大数据集群中新增三台虚拟机(配置与老一批服务器配置一样),运行相同的服务,老一批虚拟机运行正常,新加的这三台运行异常,报错内容:watchdog: Bug: soft lockup – CPU……” (CPU 软锁)。 故障排查 一开始以为是虚拟机模板的问题,新老服务器不是使用同一个模板部署,询问IT后得知,虚拟机模板一样。谷歌下发现有类似的问题,详见解决 Linux 运行时报错 “wa
Copyright © 2005-2025 51CTO.COM 版权所有 京ICP证060544号