51CTO博客开发陈玖玲-无辜de心碎yanzi
zabbix中的IT service可以是树状结构。这就要求脚本要有这个功能点:能收集到一个节点的所有子节点信息。(这是典型的递归循环的使用场景)。接着上篇博客,我们已经可以获取到zabbix的auth信息。使用zbxapi_login.pl脚本获取认证串这里是2080444abc88afe37b59456d4b7ee0a1打开页面的IT service,点击某个你关心的节点。之你可以在地址栏看到
之前的模板没有考虑到不同设备的trigger级别的区分。现在模板太多了。所以写个批量脚本修改级别。zabbix的trigger组织形式确实复杂(详见下面的sql)。。。。。。。。。回到zabbix api。首先需要调用user.login方法获得一个session id(貌似session id获得之后是不会变的。反正我一个id用了好久)。cat zbxapi_login.pl use JSON:
SELECT TABLE_NAME,TABLE_ROWS FROM INFORMATION_SCHEMA.TABLES WHERE TABLE_SCHEMA = '{your_db}';
http://www.grumpyolddba.co.uk/monitoring/Performance%20Counter%20Guidance%20-%20Windows%20Server.htm首先Memory Pages/Sec是windows Server - Performance Counter中的一个。描述是这样的:系统为了解决hard page faults每秒从硬盘读写的pag
需求, 要统计某人收到的不同trigger告警的数量。首先,在users表里查到他的userid,这里是35.用命令换算时间(zabbix里面的时间是用从1970-01-01 00:00:00到现在的秒数计算的)date -d "2013-09-02 14:00:00" +%s这里是1385830800和1387126800把他们带入sql中(写得丑,别笑)select eventid , tri
I hate snmptrap!!!##################snmptrap server端的配置snmptrap server运行在zabbix server或proxy上mkdir -p /home/zabbix/bin; chown zabbix /home/zabbixcp misc/snmptrap/snmptrap.sh /home/zabbix/binvim /home/
首先去官网下载个IPAM freewarehttp://www.infoblox.com/downloads/software/ip-address-management-freeware我的版本是6.5.9在vmware里打开压缩包里的ovf文件,这会自动生成nios虚拟机。默认密码是admin/infoblox进去之后先set remote_console true。这样就可以ssh了。再生成
之前就看过perl的dancer框架,但是一直没有真正用过。这次部门里面有需求,就自己试着做来玩玩。这次的作业的内容是change requesrts的管理。(做之前感觉很简单,但是做的时候还是碰到了许多问题。)现在也大概完成了,传上来分享一下,顺便留个档。附件改名,解压之后,导入mysql。执行bin/app.pl之后,你就可以通过localhost:3000访问了。
确保zabbix前台上的Host name与主机的hostname一致即可。
原文见:http://www.jules.fm/Logbook/files/add_cron_job_vmware.html 1.先打开ssh服务,登录.2.编辑/var/spool/cron/crontabs/root 添加如下一行(是只读文件,通过wq!保存) */5 * * * * /test.sh >&
基本与单机时相同,只是要注意,不需要填写item的host,如单机时如果是 last("host1:sda.wps")+last("host1:sda.rps")模板里只要写成last("sda.wps")+last("sda.rps")另外,像HOST.HOST之类的宏,也可以直接用.翻了好多官方文档都找不到相关的说明,结果是自己试出来的........
这几天配nginx,遇到一些跳转和ssl的问题,跳转方面这篇博客帮到很多http://www.netingcn.com/nginx-rewrite-flag.html这里记录一下ssl的配置在server标签中注意这几行listen 443 ssl; ssl_certifica
本想在图形化的vsphere打开snmp,但是总是报错。。。先到官网下载VMware-vSphere-CLI-5.1.0安装之后,打开cli命令行 vicfg-snmp --server esxiHost -c public #设置community为public,我在这里输入了root的用户和密码,就是ssh登录esxi主机的密码vicfg-snmp --server es
zabbix2.0 安装http://www.zabbix.com/documentation/2.0/manual/installation/installgroupadd zabbixuseradd -g zabbix zabbix##mysqlyum install mysql-server mysql vim /etc/my.cnfdatadir=/data/mysql &nbs
zabbix2.0.3没有现成的centos可用的service脚本,但是2.0.0有,下载2.0.0的脚本。在源码包的zabbix-1.8.15\misc\init.d 路径下的redhat里。复制到/etc/init.d目录下。修改脚本里的变量:BASEDIR和PIDFILE 的值。可以在zabbix/etc/zabbix_agentd.conf和zabbix_server.conf里找到并且
先把$HBASE_HOME/lib下的hbase-0.92.1.jar,zookeeper-3.4.3.jar,guava-r09.jar复制到$HADOOP_HOME/lib下把zookeeper的配置写入core-site.xml中,把hbase-site.xml复制到hadoop/conf下。首先,把数据打包成hfilehadoop jar ~/hbase-0.92.1/hbase-0.92
首先,hadoop的WebHDFS支持通过REST API用http的方式访问HDFS。 原文链接: http://hadoop.apache.org/common/docs/current/hadoop-yarn/hadoop-yarn-site/WebHDFS.html 通过REST API能完成很多,如上传下载,查看文件,创建目录等操作. 本地的hadoop版本是hadoop2.
在hive查询时报了这个错误:java.lang.NoClassDefFoundError: org/apache/hadoop/mapreduce/util/HostUtil 环境是CDH4使用MRv1的hadoop2.0。hive是cloudera定制的hive-0.8.1+61-1.cdh4.0.1 貌似cloudera把yarn的东西加进hive了~~~ 解决方法:cp&
今天把CDH4的yarn降到MRv1以后,启动pig的job时候报了这个错, INFO mapreduce.Cluster: Failed to use org.apache.hadoop.mapred.LocalClientProtocolProvider due to error: Invalid "mapreduce.jobtracker.address" config
公司公网环境的hbase出了问题,现象是hbase查询时卡住。打印出的错误是连不上regionserver。查出了原因是公网机器启动regionserver时绑定的ip是根据conf/regionservers文件来确定的。而公网环境做的dns解析出的是公网ip(吐血,你内部dns走啥公网啊)。手工改了hosts,重启。
hbasejava api学习。网上下载的,但是找不到原作者了。如果谁能找到原著的话,请告诉我。我一定会加上他的链接。import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.hbase.HBaseConfiguration;import org.apache.hadoop.hbase.HColumnDescripto
被忽悠的装了centos简化版。。。自己又是离不开setup的人,,,。这里整理一下yum安装的包名。#################yum -y install setuptool ntsysv iptables system-config-securitylevel-tui system-config-networ
最近看了看fastdfs,想测试一下各分组的存储。但是仔细一看,却没有现成的按group上传文件的工具。自己动手,丰衣足食了。FastDFS/client/Makefile.in 的ALL_PRGS变量加上fdfs_upload_file_with_group cp fd
走了一些弯路,这里把配置总结一下。先是 /etc/fdfs/storage.conf里的store_path_count和store_path[x]。程序根据store_path_count读取store_path[x]的配置。即,如果store_path_count=n。那么只会读取前n个store_path。store_path[x]就是挂载点的路径了。其次,在/etc/fdfs/m
公司封办公网qq了,,,,连web的qq也不放过。。。不过当我发现测试服务器网段不受限制的时候,心里那个开心哟~~~~装个nginx。修改配置:给加上句话httpresolver 8.8.8.8;然后改server,很迷信的出现了很多8.。。。 server { listen
原来nfs mount的时候是按照远程主机的uid mount的。。。,,每次都想不起来,这次记一下。################################################修改方法:usermod -u UID usergroupmod -g GID group(两个用户对换时,用老三步哦)
Access time:atime 是在读取文件或者执行文件时更改的任何对inode的访问都会使此处改变。在文件系统下加上noatime和nodiratime可以消除读文件时的写操作。提升文件的读取性能。在hadoop下磁盘常有使用JBOD的形式(或是别的。。。)。所以只需要在挂载的时候加上参数noatime和nodiratime就行了。手工挂载使用命令如下,mount -o noatime -o
在hadoop的文档里明确提出了不需要使用RAID(见http://wiki.apache.org/hadoop/DiskSetup)。hadoop本身的冗余机制使得RAID的冗余机制变得多余了。 并且根据一篇文章《why not use RAID?》的描述:在Yahoo Hadoop Cluster的Benchmark中,测试Gridmix显示使用JBOD相比RAID能提高写性能10%以上。
收到一个接收get请求的压力测试的需求,require LWP::UserAgent;##LWP是perl的http请求模块use strict;use POSIX qw(strftime);##输出时间use threads; ##threads~~~my $addr = "http://192.168.244.128/";my @threads; sub &
Copyright © 2005-2025 51CTO.COM 版权所有 京ICP证060544号