1.部署NPSdocker run -d --name nps --net=host -v /data/nps/conf:/conf ffdfgdfg/nps:v0.26.10服务端配置文件nps.conf 主要配置项##bridge bridge_type=tcp bridge_port=15081 bridge_ip=0.0.0.0 #web web_host=xxx.xxx.xxx we
一、第三层配置示例1.基于Label的策略使用busybox启动三个pod:box-a,box-b,box-c,测试a->b,c->b联通性入口策略配置基于label的策略:只允许a->bapiVersion:"cilium.io/v2"kind:CiliumNetworkPolicymetadata:name:"a-to-b-allow"spec:endpointSelecto
一、Rook部署Rook是一个开源的cloud-nativestorageorchestrator,为各种存储解决方案提供平台、框架和支持,以便与云原生环境本地集成。Rook将存储软件转变为自我管理、自我扩展和自我修复的存储服务,它通过自动化部署、引导、配置、置备、扩展、升级、迁移、灾难恢复、监控和资源管理来实现此目的。Rook使用底层云本机容器管理、调度和编排平台提供的工具来实现它自身的功能。1
一、Helm概述1.Helm简介helm类似于Linxu系统下的包管理工具,如yum、apt等,主要用于Kubernetes应用程序Chart的创建、打包、发布以及创建和管理本地和远程的Chart仓库。2.Helm组件helm:本地客户端工具,主要用于kubernetes应用chart的创建/打包/发布以及创建和管理和远程Chart仓库。Tiller:helm的服务端,部署于kubernetes内
一、PrometheusOperator介绍PrometheusOperator是CoreOS开源的一套用于管理在Kubernetes集群上的Prometheus的控制器,简化在Kubernetes上部署、管理和运行Prometheus和Alertmanager集群的操作。二、部署1.从官方下载部署文件gitclonehttps://github.com/coreos/kube-prometheu
一、环境准备1.集群规划主机名IP角色VIP20.0.20.200master-VIPk8s-master0120.0.20.201masterk8s-master0220.0.20.202masterk8s-master0320.0.20.203masterk8s-node0120.0.20.204nodek8s-node0220.0.20.205nodek8s-node0320.0.20.20
一、User-->Rolebinding-->Role一个Role对象只能用于授予对某一单一命名空间中资源的访问权限1.创建命名空间#catnamespace-dev.yamlapiVersion:v1kind:Namespacemetadata:name:development#kubectlgetnsdevelopmentActive56s2.在该命名空间是创建一个实例kubect
一、EmptyDir使用emptyDir,当Pod分配到Node上时,将会创建emptyDir,并且只要Node上的Pod一直运行,Volume就会一直存在。当Pod从Node上被删除时,emptyDir也同时会删除,存储的数据也将永久删除。1.创建一个实例#catpod-emptydir.yamlapiVersion:v1kind:Podmetadata:name:my-demonamespac
一、部署IngressController1.从k8s官方下载ingress相关的yamlwgethttps://raw.githubusercontent.com/kubernetes/ingress-nginx/master/deploy/static/mandatory.yaml2.创建相关的资源#kubectlcreate-fmandatory.yamlnamespace/ingress-
一、Service概念通过创建service可以为一组具有相同功能的容器应用提供一个统一的入口地址,并将请求负载分发到后端的各个容器应用上。二、Service基本用法1.定义一个web服务的RC,由两个tomcat容器副本组成#catwebapp-rc.yamlapiVersion:v1kind:ReplicationControllermetadata:name:webappspec:repli
一、DeploymentDeployment的主要功能就是自动部署一个容器应用的多份副本,以及持续监控副本的数量,在集群内始终维持用户指定的副本数量1.配置参数Selector(选择器): .spec.selector是可选字段,用来指定labelselector,圈定Deployment管理的pod范围。如果被指定,.spec.selector必须匹配.spec.template.metada
一、StaticPod静态Pod是由kubectl进行管理的仅存于特定Node上的Pod。其不能通过APIServer进行管理,无法与ReplicationController、Deployment或者DaemonSet进行关联,并且kubelet也无法对他们进行健康检查。静态Pod总是由kubectl进行创建,并且总是在kubelet所在的Node上运行。创建静态Pod有两种方式:配置文件和HT
一、环境准备1.关闭防火墙2.关闭selinux3.配置hosts二、docker安装1.安装yum管理软件yuminstall-yyum-utilsdevice-mapper-persistent-datalvm22.添加yum源yum-config-manager--add-repohttps://download.docker.com/linux/centos/docker-ce.repo3
一、Grafana安装1.直接使用官方源安装yuminstallhttps://dl.grafana.com/oss/release/grafana-5.4.2-1.x86_64.rpm2.启动相关服务systemctldaemon-reloadsystemctlstartgrafana-server.servicesystemctlenablegrafana-server.service3.安装
一、环境1.在DNS服务器中配置VDP的域名解析2.EXSI及vCenter环境已部署二、部署1.登陆vCenter部署OVF模板2.开启虚拟机电源3.登陆配置用户名:root密码:changeme①系统版本②配置IP③设置网关④设置DNS⑤设置主机名⑥重启网卡⑦测试DNS是否正常⑧重启4.使用浏览器登陆配置https://IP:8543/vdp-configure默认密码:changeme输入v
Ⅰ、配置dashboard1.在controller上安装dashboard[root@controller~]#yuminstallopenstack-dashboard-y2.配置①修改local_settings文件[root@controller~]#vim/etc/openstack-dashboard/local_settingsOPENSTACK_HOST="controller"O
## Ⅰ、在controller节点上配置neutron #### 1.创建neutron服务凭据 ``` [root@controller ~]# . admin-openstack.sh ``` ①创建neutron user > openstack user create --domain default --password=neutron neutron ![](http://i2.5
Ⅰ、在controller节点上配置nova1.创建nova服务凭据#先使用脚本登陆admin[root@controller~]#.admin-openstack.sh①创建novauseropenstackusercreate--domaindefault--password-promptnova②关联openstackroleadd--projectservice--usernovaadmi
1.创建服务凭据#先使用脚本登陆admin[root@controller~]#.admin-openstack.sh①创建glanceuseropenstackusercreate--domaindefault--password-promptglance②关联openstackroleadd--projectservice--userglanceadmin③创建glanceserviceope
1.在controller节点上安装keystoneroot@controller~]#yuminstallopenstack-keystonehttpdmod_wsgi-y2.配置[root@controller~]#vim/etc/keystone/keystone.conf[database]connection=mysql+pymysql://keystone:keystone@contr
1.关闭防火墙和selinux2.配置hosts[root@compute~]#cat/etc/hosts127.0.0.1localhostlocalhost.localdomainlocalhost4localhost4.localdomain4::1localhostlocalhost.localdomainlocalhost6localhost6.localdomain620.0.20.2
二、zabbix自动发现并添加到主机群组1.创建主机群组并选择模板2.添加后查看群组3.创建自动发现规则4.创建自动发现动作5.启用相应的自动发现规则和动作6.查看自动发现的设备
一、zabbix安装1.系统环境[root@zabbix~]#cat/etc/redhat-releaseCentOSLinuxrelease7.4.1708(Core)#关闭selinux和防火墙2.安装数据库[root@zabbix~]#yuminstallmariadb-servermariadb-y[root@zabbix~]#systemctlenablemariadb[root@zab
一、环境准备1.安装配置dockerv1.11.0版本推荐使用dockerv17.03,v1.11,v1.12,v1.13,也可以使用,再高版本的docker可能无法正常使用。#移除以前安装的docker,并安装指定的版本[root@Docker-5~]#yumremove-ydocker-cedocker-ce-selinuxcontainer-selinux[root@Docker-5~]#r
一、kubernetes组件和角色分布组件功能: -etcd一个高可用的K/V键值对存储和服务发现系统 -flannel实现夸主机的容器网络的通信 -kube-apiserver提供kubernetes集群的API调用 -kube-controller-manager确保集群服务 -kube-scheduler调度容器,分配到Node -kubelet在Node节点上按照配置文件中定义
七、DockerCompose 八、Docker Machine 九、Docker Swarm
四、仓库管理 五、数据管理 六、网络配置
一、docker的安装 二、使用镜像 三、容器的操作
一、主机规划[root@NK01 ~]# cat /etc/centos-release CentOS Linux release 7.4.1708 (Core)角色IP地址主机名软件服务端20.0.20.101NK1glusterfsglusterfs-fuse glusterfs-server20.0.20.102
一、集群规划;二、安装配置Tomcat;三、配置Nginx;四、配置keepalived;
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号