1、概述小于8T,使用ext4分区,大于8T建议使用xfs分区。fio进行磁盘读写测试。2、分区(前置条件)#1.yum yum install parted xfsprogs -y #2.查看数据盘(或新加的盘) fdisk -l 或 lsblk #3.定义盘符变量 export d_disk=/dev/vdb #根据第二步查出的数据盘名称对应修改/dev/vdb #4.分区 fdi
-h显示帮助信息! -v显示mtr的版本信息! -r:以报告模式显示! -s:指定ping数据包的大小! -n:不对IP地址做域名解析! -i:设置ICMP返回时间,默认是1s! -4:只检测ipv4,-6是ipv6! -c:指定每秒发送送数据包的数量,默认未10! -a:指定发送数据的IP地址!针对一个主机多IP使用! 第一
常用子网掩码与位数对应表 128.0.0.0=1 192.0.0.0=2 224.0.0.0=3 240.0.0.0=4 248.0.0.0=5 252.0.0.0=6 254.0.0.0=7 255.0.0.0=8 255.128.0.0=9 255.192.0.0=10 2
0. shell 调试复制代码 代码如下:sh -x somefile.sh在somefile.sh 文件里加上set+x set-x 1. 用 && || 简化if else复制代码 代码如下:gzip -t a.tar.gz if [[ 0 == $? ]]; then echo "good zip" else &n
两端都要有 yum -y install rsyncrsync -avzP -e 'ssh -p 22' xf.tar.gz xf@ip:~
yum -y install nmap首先,简单列举一个扫描端口的运用:nmap –sT –sV –p80,443,8080 –P0 –n IP说明:-sT,说明是TCP协议;-sV,说明是显示详情-p后面跟指定的扫描端口;-n 后面对应的IP 一,简介nmap是一个网络连接端扫描软件,用来扫描网上电脑开放的网络连接端。确定哪些服务运行在哪些连接端,并且推断计算机运行哪个操作
系统是centos6.5执行yum install php php-fpm php-bcmatch php-gd php-mbstring php-mcrypt php-mysql –yyum install -y php-*yum install -y curl curl-devel net-snmp net-snmp-devel perl-DBI vim /etc/php.inida
vim rsys.shcat >> /etc/profile <<EOF HISTFILESIZE=2000 HISTSIZE=2000 HISTTIMEFORMAT="%Y%m%d-%H%M%S: " export HISTTIMEFORMAT export PROMPT_COMMAND='{ comm
/etc/sysconfig/network-scripts目录下,修改对应ip文件类似ifcfg-bond0、ifcfg-bond1、ifcfg-eth0、ifcfg-eth1修改某个文件的ip后,单独重启命令ifdown bond0ifup bond0应为如果重启服务器整体网络的话有可能会失去连接/etc/init.d/network restart
服务器A,创建zzz用户su - rootuseradd zzzsu zzzcd /home/zzz/usr/bin/ssh-keygen -t rsacd .ssh/vim authorized_keys将证书公钥贴入:wq!chmod 600 authorized_keys备注:如果希望ssh公钥生效需满足至少下面两个条件:1) .ssh目录的权限必须是700 2) .ss
系统日志/var/log/messages出现以下内容Jan 31 16:46:41 ahmobileblivemedia02 kernel: nf_conntrack: table full, dropping packet.Jan 31 16:46:41 ahmobileblivemedia02 kernel: nf_conntrack: table full, dropping packet
更加直观的 可用IP段查 询http://www.ctohome.com/linux-vps-pack/ip.php用IP查询,IP段对应表 IP总数 子网掩码 Amount of a Class C/30 4 255.255.255.252 1/64/29 8 255.255.255.248 1/32/28 16 255.255.255.240 1/16/27 32 255
环境:节点AIP:192.168.0.100节点BIP:192.168.0.101JDK:1.8linux:centos7连接工具:CRT准备:两个节点各安装Elasticsearchwgethttps://download.elastic.co/elasticsearch/release/org/elasticsearch/distribution/tar/elasticsearch/2.3.1
ElasticSearch
概述 本文描述的twemproxy基于nutcracker-0.2.4版本。 twemproxy是memcached 和redis的协议层面的代理,其提供的features如下: 注:twemproxy不会增加redis的性能指标数据,据业界测算,使用twemproxy相比直接使用redis会带来~10%的性能下降。 但是单个redis进程的内存管理能力有限
一、ssdb http://ssdb.io/zh_cn/安装wget --no-check-certificate https://github.com/ideawu/ssdb/archive/master.zipunzip mastercd ssdb-mastermake 安装中遇到故障 问题解决 如果出现如下错误: g++ ...deps/snappy-1.1.0/.libs
yum install libaio-devel fio -y rm -rf /data/data/testmkdir -p /data/data/testnohup挂后台跑#顺序写fio -directory=/data/data/test -direct=1 -iodepth
centosyum -y install xfsprogs=========xfs分区==============fdisk -lyum install parted -yparted /dev/sdb(parted) mklabel gpt (parted) print(parted) mkpart primary 0% 100%(parted) print(parted) quitm
1.Mtr介绍:Mtr是 Linux中有一个非常棒的网络连通性判断工具,它结合了ping, traceroute,nslookup 的相关特性。apt-get install mtr -y安装mtr工具2.Mtr的相关参数:mtr -s用来指定ping数据包的大小mtr -nno-dns不对IP地址做域名解析mtr -a来设置发送数据包的IP地址 这个对一个主机由多个IP地址是有用的mtr -i使
1. # parted /dev/sdbGNU Parted 1.8.1Using /dev/sdbWelcome to GNU Parted! Type ‘help’ to view a list of commands.2. 将MBR磁盘格式化为GPT(parted) mklabel gpt3. 划分所有空间到一个分区(parted) mkpart primary 0 -1这一步也可以这样设置
参考http://www.blogjava.net/hello-yun/archive/2012/05/03/377250.htmlZooKeeper是一个分布式开源框架,提供了协调分布式应用的基本服务,它向外部应用暴露一组通用服务——分布式同步(Distributed Synchronization)、命名服务(Naming Service)、集群维护(Group Maintenance)等,简
scribe配置文件详解1.全局配置项(1)port:指示scribe服务器在哪一个端口上监听,默认是0,通过命令行参数选项-P可以指定端口,也能够通过配置文件指定。在源代码中就赋值给变量port。(2)max_msg_per_second:默认值是0,如果这个参数值是0将被忽略。随着最近的改变这个参数很少被关联使用到,max_queue_size参数将被应用到限制每秒最大的消息数。在scribe
cd /data/toolswget http://www.python.org/ftp/python/2.7.6/Python-2.7.6.tgz# tar xvzf Python-2.7.6.tgz# cd Python-2.7.6# ./configure --prefix=/usr/local --enable-shared# make && make i
一、fail2ban简介fail2ban可以监视你的系统日志,然后匹配日志的错误信息(正则式匹配)执行相应的屏蔽动作(一般情况下是防火墙),而且可以发送e-mail通知系统管理员,是不是很好、很实用、很强大!二、简单来介绍一下fail2ban的功能和特性1、支持大量服务。如sshd,apache,qmail,proftpd,sasl等等2、支持多种动作。如iptables,tcp-wrapper,
$ df -li查找占用iNode最高的文件(一般是大量 文件大小为0的文件),进行处理。进入磁盘根分区,执行以下命令cd /du -cks * | sort -nr | head -n 20cd到inode数量最高的目录,重复执行以上命令, 直到找到目标。进行删除操作。ls |xargs -i -t rm -f {}处理完成后,确认一下iNode占用$ d
kibana在ELK阵营中用来查询展示数据elasticsearch构建在Lucene之上,过滤器语法和Lucene相同全文搜索在搜索栏输入login,会返回所有字段值中包含login的文档使用双引号包起来作为一个短语搜索"like Gecko"字段也可以按页面左侧显示的字段搜索限定字段全文搜索:field:value精确搜索:关键字加上双引号 filed:"value"http.cod
wget http://www.ex-parrot.com/pdw/iftop/download/iftop-0.17.tar.gzyum install libpcap-devel ncurses-develtar zxvf iftop-0.17.tar.gzcd iftop-0.17./configure --pr
三台服务器 h1,h2,h3三台服务器都执行root用户执行:ssh-keygen -t rsacp id_rsa.pub authorized_keys然后将三台的authorized_keys文件追加到一起,形成新的authorized_keys文件分别传到三台的.ssh/目录下chmod 600 .ssh/authorized_keysauthorized_keys的权限
一、环境介绍与安装准备 1、环境说明 2台虚拟机,OS为ubuntu13.04,ip分别为xxx.xxx.xxx.140和xxx.xxx.xxx.145。 2、安装准备 &nbs
简介Logstash是一个接收,处理,转发日志的工具。支持系统日志,webserver日志,错误日志,应用日志,总之包括所有可以抛出来的日志类型。怎么样听起来挺厉害的吧?在一个典型的使用场景下(ELK):用Elasticsearch作为后台数据的存储,kibana用来前端的报表展示。Logstash在其过程中担任搬运工的角色,它为数据存储,报表查询和日志解析创建了一个功能强大的管道链。Logsta
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号