![](https://s4.51cto.com/images/blog/202007/26/220fd9cc92550c7a765fab4f2ca91e9c.png?x-oss-process=image/watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3p
1.重新构建jnlp-slave#lsconfigdocker-18.06.1-ce.tgzDockerfilekubectlA.创建config#vimconfigapiVersion:v1clusters:-cluster:certificate-authority:/etc/kubernetes/ssl/ca.pemserver:https://192.168.100.180:8443nam
kubernetes部署Jenkins
1.下载相应文件#mkdirgitlab&&cdgitlab#vimurl.txthttps://raw.githubusercontent.com/zhijiansd/ansible-k8s/master/addons/gitlab/gitlab-ns.yamlhttps://raw.githubusercontent.com/zhijiansd/ansible-k8s/master/addon
1.问题:# ceph health HEALTH_WARN application not enabled on 1 pool(s)解决:# ceph health detail HEALTH_WARN application not enabled&nbs
开始我打算更新“部署mimic版本的Ceph分布式存储系统”,但是发觉不好布局,所以新续写了这篇文章。如下配置、部署依然是在ceph01节点完成,部署的新节点为ceph04。1.配置ansible# cat /etc/ansible/hosts | grep -v ^# | gr
一、依然简介Kubernetes支持的卷类型详见:https://kubernetes.io/docs/concepts/storage/volumes/Kubernetes使用PersistentVolume和PersistentVolumeClaim两种API资源来管理存储。PersistentVolume(简称PV):由管理员设置的存储,它是集群的一部分。就像节点(Node)是集群中的资源一
1.简介Ceph:开源的分布式存储系统。主要分为对象存储、块设备存储、文件系统服务。Ceph核心组件包括:CephOSDs、Monitors、Managers、MDSs。Ceph存储集群至少需要一个CephMonitor,CephManager和CephOSD(对象存储守护进程)。运行CephFilesystem客户端时也需要Ceph元数据服务器(MetadataServer)。CephOSDs:
https://github.com/zhijiansd/ansible-k8s
一、简介Træfik是一个为了让部署微服务更加便捷而诞生的现代HTTP反向代理、负载均衡工具。它支持多种后台(Docker,Swarmmode,Kubernetes,Marathon,Consul,Etcd,Rancher,...)来自动化、动态的应用它的配置文件设置。Træfɪk可以监听你的服务发现、管理API,并且每当你的微服务被添加、移除、杀死或更新都会被感知,并且可以自动生成它们的配置文件
一、安装zabbix#rpm-ivhhttp://repo.zabbix.com/zabbix/3.4/rhel/7/x86_64/zabbix-release-3.4-1.el7.noarch.rpm#yum-yinstallzabbix-server-mysqlzabbix-web-mysql#yum-yinstallmariadb-servermariadb#systemctlstartma
一、Prometheus概述Prometheus是一个开源系统监测和警报工具箱。主要特征:多维数据模型(时间序列由metri和key/value定义)灵活的查询语言不依赖分布式存储采用http协议,使用pull拉取数据可以通过pushgateway进行时序列数据推送可通过服务发现或静态配置发现目标多种可视化图表及仪表盘支持Prometheus架构如下:Prometheus组件包括:Promethe
一、环境准备#yum-yinstallredismariadb-server#yuminstall-ypython-virtualenvpython-develmariadb-developenldap-devel#yumgroupinstall"Developmenttools"#systemctlstartredis#systemctlstatusredis#systemctlstartmar
1.点击安装VMwaretool,之后选择挂载进行挂载2.挂载Tools并解压#mkdir/mnt/cdrom#mount-tauto/dev/cdrom/mnt/cdrom#cd/mnt/cdrom/#cpVMwareTools-10.1.7-5541682.tar.gz/root#cd#tar-zxvfVMwareTools-10.1.7-5541682.tar.gz3.安装tools#cdv
一、克隆模板并运用1.在该虚拟机上右键克隆,将虚拟机克隆为模板2.为模板命名并选择位置3.选择计算资源4.选择存储5.显示配置概要,确认后点击“完成”即可6.克隆完成后即可用模板部署虚拟机7.为该虚拟机命名并选择安装位置8.选择计算资源9.选择存储10.选择克隆选项11.显示配置概要,确认后点击“完成”即可二、迁移虚拟机1.点击“迁移”进行迁移2.选择迁移类型3.选择要要迁移至的主机4.选择用于虚
一、创建内容库1.VCSA主页清单如下2.创建内容库3.指定内容库的名称和位置4.配置内容库,这里配置为本地内容库5.添加存储6.确认内容库设置7.导入项目8.导入库项目,这里导入本地文件二、创建虚拟机1.创建虚拟机2.选择创建类型3.为虚拟机命名并选择虚拟机安装的所在位置4.选择计算资源5.选择存储6.选择兼容性7.选择虚拟机操作系统8.配置虚拟机硬件9.在新CD/DVD驱动器项选择内容库ISO
声明:由于是在VMwareWorkstation中进行的,所以并无相关网络规划,存储、ESXi主机、VCSA以及虚拟机都在同一网段内,但是并不影响相关操作。1.安装完VCSA后在浏览器输入之前规划配置的VCSA的IP进行访问2.选择vSphereWebClient(Flash),在登陆页输入之前在安装阶段配置的administrator@[SSO域名]和密码进行登陆3.开始创建数据中心4.创建数据
vcsa安装
由于之前已经写过vSphere 6.0,但是既然试用了,还是想写下来以做记录。这里就不写如何安装ESXi了,如想了解请移步我前面的文章查看。 vSphere 6.5已经停用了vSphere Client,只支持Web进行管理。1.使用ESXi的IP地址登陆(帐号root,密码为安装ESXi时自行设置之密码) 2.
在访问VCSA间突然卡死,无法刷新,但是能ping通VCSA,过了好会儿,刷新浏览器,显示如下错误:503ServiceUnavailable(Failedtoconnecttoendpoint:[N7Vmacore4Http20NamedPipeServiceSpecE:0x0000558181b429e0]_serverNamespace=/action=Allow_pipeName=/var
Jenkins在配置全局安全配置中忘记配置帐号admin权限致使所有帐号都只有普通权限,解决方法如下,将如下几行删除,然后重启再登陆就恢复到了默认状态。# vim /var/lib/jenkins/config.xml <useSecurity>true</useSecurity> <authoriz
这里是admin的密码丢失,id=1,其他用户以此类推。#mysqlMariaDB[(none)]>showdatabases;+--------------------+|Database+--------------------+|cacti|information_schema|mysql|performance_schema|test+--------------------+5rowsi
1.下载、安装并运行Teamviewer# wget https://dl.tvcdn.de/download/version_12x/teamviewer_12.0.85001.i686.rpm # yum install teamviewer_12.0.85001.i686.rpm # service start
1.部署KubeDNS插件官方的配置文件中包含以下镜像:kube-dns----监听service、pod等资源,动态更新DNS记录sidecar----用于监控和健康检查dnsmasq----用于缓存,并可从dns服务器获取dns监控指标地址:https://github.com/kubernetes/dns官方的yaml文件目录:kubernetes/cluster/addons/dnshtt
1.配置并启用etcd集群A.配置启动项并将启动项分发至其他节点#vim/usr/lib/systemd/system/etcd.service[Unit]Description=etcdAfter=network.targetAfter=network-online.targetWants=network-online.targetDocumentation=[Service]Type=noti
1.规划192.168.100.102---->Master[kube-apiserver、kube-controller-manager、kube-scheduler]、Node[kubelet、kube-proxy]192.168.100.103---->Node1[kubelet、kube-proxy]192.168.100.104---->Node2[kubelet、kube-proxy]
一、简介 Harbor是VMware中国研发团队开发并开源企业级Registry,对中文支持很友好。 Harbor是一个用于存储和分发Docker镜像的企业级Registry服务器。 Harbor具有如下特点: 1.基于角色的访问控制 - 用户与Docker镜像仓库通过“项目
注:这里就不科普了,直接开始部署。[这里使用HTTP来部署]1. 关闭 SeLinux 和 FireWall# sed -i "s/SELINUX=enforcing/SELINUX=disabled/g" /etc/selinux/config # systemctl stop firewalld # systemc
一、规划①swarm01作为manager节点,swarm02和swarm03作为worker节点。# cat /etc/hosts 127.0.0.1 localhost 192.168.139.175 swarm01 192.168.139.176 swarm02 192.
一、安装Xtrabackup# wget --no-check-certificate http://www.percona.com/downloads/percona-release/redhat/0.1-4/percona-release-0.1-4.noarch.rpm # rpm -ivh percona-release-0.1-
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号