温馨提示:要看高清无码套图,请使用手机打开并单击图片放大查看。


Fayson的github:https://github.com/fayson/cdhproject


提示:代码块部分可以左右滑动查看噢


1.文档编写目的




HiBench是一个大数据基准套件,可以帮助您评测不同大数据平台的性能、吞吐量和系统资源利用率。它包含一组Hadoop、Spark和Streaming测试模式,包含Sort、WordCount、TeraSort、Sleep、SQL、PageRank、Nutch index、Bayes、Kmeans、NWeight和增强型的DFSIO等。本篇文章主要介绍如何使用HiBench对CDH集群进行基准测试


内容概述

1.编译环境准备

2.HiBench编译、配置说明及数据规模指定

3.HiBench使用


  • 测试环境

1.CM和CDH版本为5.13.1

2.采用root用户操作

3.操作系统RedHat7.2


2.编译环境准备




HiBench编译依赖Java和Maven环境,首先需要配置Java和Maven的环境变量及准备HiBench的源码包,如果为配置环境变量可参考如下配置:

1.JAVA环境检查及配置

检查是否配置JDK环境变量


[root@ip-172-31-30-69 ~]# java -version
java version "1.8.0_131"
Java(TM) SE Runtime Environment (build 1.8.0_131-b11)
Java HotSpot(TM) 64-Bit Server VM (build 25.131-b11, mixed mode)
[root@ip-172-31-30-69 ~]#

(可左右滑动)


如何使用HiBench进行基准测试_配置文件


如果未配置则参考参考如下步骤配置JDK,配置java环境变量,在/etc/profile文件末尾添加如下配置:


export JAVA_HOME=/usr/java/jdk1.8.0_131/
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tool.jar:$CLASSPATH

(可左右滑动)


如何使用HiBench进行基准测试_hadoop_02


执行如下命令是JAVA环境变量立即生效


[root@ip-172-31-30-69 ~]# source /etc/profile
[root@ip-172-31-30-69 ~]# java -version

(可左右滑动)


如何使用HiBench进行基准测试_hadoop_03


2.MAVEN环境检查及配置

Maven下载地址:


http://maven.apache.org/download.cgi

(可左右滑动)


将下载的Maven安装包解压到/usr/local/maven目录下


tar -zxvf apache-maven-3.5.0-bin.tar.gz -C /usr/local/maven/

(可左右滑动)


如何使用HiBench进行基准测试_配置文件_04


配置Maven环境变量,在/etc/profile文件末尾追加如下配置


export MVN_HOME=/usr/local/apache-maven-3.5.2
export PATH=$MVN_HOME/bin:$PATH

(可左右滑动)


如何使用HiBench进行基准测试_配置文件_05


执行如下命令使其环境变量立即生效


[root@ip-172-31-30-69 ~]# source /etc/profile

(可左右滑动)


验证Maven环境变量是否配置成功


[root@ip-172-31-30-69 ~]# mvn -v
Apache Maven 3.5.2 (138edd61fd100ec658bfa2d307c43b76940a5d7d; 2017-10-18T03:58:13-04:00)
Maven home: /usr/local/apache-maven-3.5.2
Java version: 1.8.0_131, vendor: Oracle Corporation
Java home: /usr/java/jdk1.8.0_131/jre
Default locale: en_US, platform encoding: UTF-8
OS name: "linux", version: "3.10.0-514.el7.x86_64", arch: "amd64", family: "unix"
[root@ip-172-31-30-69 ~]#

(可左右滑动)


如何使用HiBench进行基准测试_hadoop_06


3.下载HiBench源码,此处下载的为最新的版本


[root@ip-172-31-30-69 ~]# git clone https://github.com/intel-hadoop/HiBench.git

(可左右滑动)


如何使用HiBench进行基准测试_spark_07


3.HiBench编译




HiBench编译支持如下几种方式:

  • Build All
  • Build a specific framework benchmark
  • Build a single module
  • Build Structured Streaming

在进行Hibench的时候可以指定Spark和Scala的版本,通过如下参数指定

  • 查看集群Spark和Scala使用的版本


如何使用HiBench进行基准测试_配置文件_08


  • 指定Scala版本

可以通过参数-Dscala=xxx来指定Scala的版本,版本有(2.10或者2.11),默认使用2.11版本进行编译,使用方式如下:


[root@ip-172-31-30-69 ~]# cd HiBench/
[root@ip-172-31-30-69 HiBench]# mvn -Dscala=2.10 clean package

(可左右滑动)


  • 指定Spark版本

可以通过参数-Dspark=xxx来指定Spark的版本,版本有(1.6,2.0或者2.1),默认使用2.1版本进行编译,使用方式如下:


[root@ip-172-31-30-69 HiBench]# mvn -Dspark=1.6 clean package

(可左右滑动)


以下构建均是在root用户下操作:

1.进入HiBench-6.0目录进行编译


[root@ip-172-31-30-69 ~]# cd HiBench/
[root@ip-172-31-30-69 HiBench]# ll

(可左右滑动)


如何使用HiBench进行基准测试_hadoop_09


2.Build All

编译所有框架及模块


[root@ip-172-31-30-69 HiBench]# mvn -Dspark=1.6 -Dscala=2.10 clean package

(可左右滑动)


如何使用HiBench进行基准测试_hadoop_10


3.Build a specific framework benchmark

如下指令为之构建一个Hadoop框架的benchmarks


[root@ip-172-31-30-69 HiBench]# mvn -Phadoopbench -Dspark=1.6 -Dscala=2.10 clean package

(可左右滑动)


如下指令构建Spark和Hadoop框架的benchmarks


[root@ip-172-31-30-69 HiBench]# mvn –Phadoopbench -Psparkbench -Dspark=1.6 -Dscala=2.10 clean package

(可左右滑动)


如何使用HiBench进行基准测试_hadoop_11

如何使用HiBench进行基准测试_配置文件_12


目前支持的框架有:hadoopbench, sparkbench, flinkbench, stormbench,gearpumpbench.


4.Build a single module

编译spark框架的sql模块:


mvn -Psparkbench -Dmodules -Psql -Dspark=1.6 -Dscala=2.10 clean package

(可左右滑动)


如何使用HiBench进行基准测试_配置文件_13

如何使用HiBench进行基准测试_spark_14


支持的模块有:micro, ml(机器学习), sql, websearch, graph, streaming, structuredStreaming(spark 2.0 or2.1).


5.Build Structured Streaming

对于Spark2.0和Spark2.1,HiBench添加了对Structured Streaming的支持,这个新的模块不能在Spark1.6中编译,即使您指定了Spark版本为2.0或者2.1,默认情况下也不会被编译,您必须明确指定如下:


mvn -Psparkbench -Dmodules -PstructuredStreaming clean package

(可左右滑动)


如何使用HiBench进行基准测试_hadoop_15

如何使用HiBench进行基准测试_配置文件_16


如上介绍了几种编译HiBench的方式,根据自己测试的需求可以选择不同的编译方式。



4.Hibench目录说明




如何使用HiBench进行基准测试_hadoop_17


autogen:主要用于生成测试数据的源码目录

bin:测试脚本放置目录

common:公共依赖源码目录

conf:配置文件目录(Hibench/Hadoop/Spark等配置文件存放目录)

docker:

flinkbench:Flink框架源码目录

gearpumpbench:gearpumpbench框架源码目录

hadoopbench:hadoop框架源码目录

sparkbench:spark框架的源码目录

stormbench:storm框架的源码目录


5.HiBench配置




1.配置文件说明


如何使用HiBench进行基准测试_配置文件_18


文件名

主要用途

benchmarks.lst

主要用于配置benchmarks的模块

flink.conf.template

Flink测试的配置参数

frameworks.lst

主要用于配置HiBench支持的测试框架

gearpump.conf.template

gearpump测试相关配置文件

hadoop.conf.template

Hadoop测试相关配置文件

hibench.conf

HiBench配置文件

spark.conf.template

Spark配置文件

storm.conf.template

Strom配置文件


2.benchmarks.lst配置文件

主要用于配置benchmarks列表,配置如下,可以对不需要测试的模块进行屏蔽或者删除,在需要屏蔽在前面加“#”如下:


[root@ip-172-31-30-69 conf]# vim benchmarks.lst 
micro.sleep
micro.sort
micro.terasort
micro.wordcount
micro.dfsioe
sql.aggregation
sql.join
sql.scan
websearch.nutchindexing
websearch.pagerank
ml.bayes
ml.kmeans
ml.lr
ml.als
ml.pca
ml.gbt
ml.rf
ml.svd
ml.linear
ml.lda
ml.svm
graph.nweight

(可左右滑动)


如何使用HiBench进行基准测试_spark_19


3.hadoop.conf.template配置文件

该配置文件主要用于配置Hadoop的环境,如果需要对Hadoop做benchmark测试则需要将该文件重命名为hadoop.conf


[root@ip-172-31-30-69 conf]# cp hadoop.conf.template hadoop.conf
[root@ip-172-31-30-69 conf]# ll hadoop.conf
-rw-r--r-- 1 root root 448 Apr 21 10:58 hadoop.conf
[root@ip-172-31-30-69 conf]#

(可左右滑动)


如何使用HiBench进行基准测试_spark_20


编辑hadoop.conf文件,配置Hadoop环境,此处以CDH的目录配置为例,配置如下:


[root@ip-172-31-30-69 conf]# vim hadoop.conf
# Hadoop home
hibench.hadoop.home /opt/cloudera/parcels/CDH/lib/hadoop
# The path of hadoop executable
hibench.hadoop.executable ${hibench.hadoop.home}/bin/hadoop
# Hadoop configraution directory
hibench.hadoop.configure.dir ${hibench.hadoop.home}/etc/hadoop
# The root HDFS path to store HiBench data
hibench.hdfs.master hdfs://nameservice1:8020
# Hadoop release provider. Supported value: apache, cdh5, hdp
hibench.hadoop.release cdh5

(可左右滑动)


如何使用HiBench进行基准测试_hadoop_21


以上表中部分则为需要修改的配置。

注意:如果集群启用HA,则hibench.hdfs.master的配置需要修改为如下截图


如何使用HiBench进行基准测试_spark_22


hibench.hdfs.master       hdfs://nameservice1:8020

(可左右滑动)


4.spark.conf.template配置文件

主要用于配置Spark的环境及运行参数,如果需要测试Saprk框架则需要将该配置文件重命名为spark.conf


[root@ip-172-31-30-69 conf]# cp spark.conf.template spark.conf
[root@ip-172-31-30-69 conf]# ll spark.conf
-rw-r--r-- 1 root root 1655 Apr 21 11:05 spark.conf
[root@ip-172-31-30-69 conf]#

(可左右滑动)


如何使用HiBench进行基准测试_配置文件_23


编辑spark.conf文件,配置Spark的环境,此处以CDH的目录配置为例,配置如下:


[root@ip-172-31-30-69 conf]# vim spark.conf
# Spark home
hibench.spark.home /opt/cloudera/parcels/CDH/lib/spark
# Spark master
# standalone mode: spark://xxx:7077
# YARN mode: yarn-client
hibench.spark.master yarn-client
# executor number and cores when running on Yarn
hibench.yarn.executor.num 2
hibench.yarn.executor.cores 4
# executor and driver memory in standalone & YARN mode
spark.executor.memory 4g
spark.driver.memory 4g

(可左右滑动)


如何使用HiBench进行基准测试_配置文件_24


根据集群环境调整相应参数。


5.hibench.conf

主要配置HiBench的运行参数及HiBench各个模块的home环境配置,根据需要修改相应的配置参数:


[root@ip-172-31-30-69 conf]# vim hibench.conf 
# Data scale profile. Available value is tiny, small, large, huge, gigantic and bigdata.
# The definition of these profiles can be found in the workload's conf file i.e. conf/workloads/micro/wordc
ount.conf
hibench.scale.profile tiny
# Mapper number in hadoop, partition number in Spark
hibench.default.map.parallelism 8
# Reducer nubmer in hadoop, shuffle partition number in Spark
hibench.default.shuffle.parallelism 8
#======================================================
# Report files
#======================================================
# default report formats
hibench.report.formats "%-12s %-10s %-8s %-20s %-20s %-20s %-20s\n"
# default report dir path
hibench.report.dir ${hibench.home}/report
# default report file name
hibench.report.name hibench.report
# input/output format settings. Available formats: Text, Sequence.
sparkbench.inputformat Sequence
sparkbench.outputformat Sequence
# hibench config folder
hibench.configure.dir ${hibench.home}/conf

(可左右滑动)


如何使用HiBench进行基准测试_spark_25


主要关注参数hibench.scale.profile、hibench.default.map.parallelism和hibench.default.shuffle.parallelism配置:

hibench.scale.profile:主要配置HiBench测试的数据规模;

hibench.default.map.parallelism:主要配置MapReduce的Mapper数量;

hibench.default.shuffle.parallelism:配置Reduce数量;


6.数据规模说明




HiBench的默认数据规模有:tiny, small, large, huge, gigantic andbigdata,在这几种数据规模之外Fayson还介绍如何自己指定数据量。


1.DFSIOE数据规模介绍及自定义

配置文件:${hibench.home}/conf/workloads/micro/dfsioe.conf


如何使用HiBench进行基准测试_配置文件_26


数据规模

读文件数

读文件大小(MB)

写文件数

写文件大小(MB)

tiny

16

1

16

1

small

32

10

32

10

large

64

10

64

10

huge

256

100

256

100

gigantic

512

400

512

400

bigdata

2048

1000

2048

1000


DFSIOE测试用例通过定义读或写的文件数和文件的大小来指定测试数据量的规模,如果需要自定义测试规模则修改文件数和文件的大小即可,文件大小以MB为单位。


例如:我需要自定义一个5TB数量级的DFSIOE测试,在hibench.conf文件中hibench.scale.profile配置的是mybigdata,需要在dfsioe.conf配置文件中增加读写文件数为5120,文件大小设置为1024,具体配置如下:


hibench.dfsioe.mybigdata.read.number_of_files     5120
hibench.dfsioe.mybigdata.read.file_size 1024
hibench.dfsioe.mybigdata.write.number_of_files 5120
hibench.dfsioe.mybigdata.write.file_size 1024

(可左右滑动)


读写测试的数据量均为5TB = 5120 * 1024MB


2.WordCount数据规模介绍及自定义

配置文件:${hibench.home}/conf/workloads/micro/wordcount.conf


如何使用HiBench进行基准测试_配置文件_27


数据规模

默认配置

数据量说明

tiny

32000

数据量配置以byte为单位

small

320000000

large

3200000000

huge

32000000000

gigantic

320000000000

bigdata

1600000000000


如果需要自定义测试的数据规模,则根据hibench.conf中配置的hibench.scale.profile规模,修改wordcount.conf中对应的参数,数据量以byte为单位。例如我的hibench.conf中hibench.scale.profile配置的是mybigdata,且我想测试5TB的数据,则我需要在wordcount.conf中增加hibench.wordcount.mybigdata.datasize为5*1024*1024*1024*1024,配置如下:


hibench.wordcount.mybigdata.datasize          5497558138880

(可左右滑动)


如何使用HiBench进行基准测试_hadoop_28


3.Sort数据规模介绍及自定义

配置文件:${hibench.home}/conf/workloads/micro/sort.conf


如何使用HiBench进行基准测试_配置文件_29


数据规模

默认配置

数据量说明

tiny

32000

数据量配置以byte为单位

small

3200000

large

320000000

huge

3200000000

gigantic

32000000000

bigdata

300000000000


如果需要自定义测试的数据规模,请参照6.2章节WordCount配置说明;


4.TeraSort数据规模介绍及自定义

配置文件:${hibench.home}/conf/workloads/micro/terasort.conf


如何使用HiBench进行基准测试_hadoop_30


TeraGen源码中数据量说明注释如下:


/**
* Generate the official GraySort input data set.
* The user specifies the number of rows and the output directory and this
* class runs a map/reduce program to generate the data.
* The format of the data is:
* <ul>
* <li>(10 bytes key) (constant 2 bytes) (32 bytes rowid)
* (constant 4 bytes) (48 bytes filler) (constant 4 bytes)
* <li>The rowid is the right justified row id as a hex number.
* </ul>
* <p>
* To run the program:
* <b>bin/hadoop jar hadoop-*-examples.jar teragen 10000000000 in-dir</b>
*/

(可左右滑动)


数据规模

默认配置

数据量说明

tiny

32000

数据量配置以条数为单位,每条数据约100byte

small

3200000

large

32000000

huge

320000000

gigantic

3200000000

bigdata

6000000000


如果需要自定义测试的数据规模,则根据hibench.conf中配置的hibench.scale.profile规模,修改terasort.conf中对应的参数。例如我的hibench.conf中hibench.scale.profile配置的是mybigdata,且我想测试5TB的数据,则我需要在terasort.conf中增加hibench.terasort.mybigdata.datasize为5*1024*1024*1024*1024/100,配置如下:


hibench.terasort.mybigdata.datasize   54975581389

(可左右滑动)


如何使用HiBench进行基准测试_spark_31


5.join数据规模介绍及自定义

配置文件:${hibench.home}/conf/workloads/sql/join.conf


如何使用HiBench进行基准测试_hadoop_32


数据规模

uservisits

pages

数据说明

tiny

1000

120

每条page大小约60byte,每条uservisit大小约186byte

small

100000

12000

large

1000000

120000

huge

10000000

1200000

gigantic

100000000

12000000

bigdata

5000000000

120000000


如果需要自定义测试的数据规模,则根据hibench.conf中配置的hibench.scale.profile规模,修改terasort.conf中对应的参数。例如我的hibench.conf中hibench.scale.profile配置的是mybigdata,且我想测试3TB的数据,则我需要在terasort.conf中增加hibench.join.mybigdata.uservisits为3*1024*1024*1024*1024/186,

hibench.join.mybigdata.pages为25G*1024*1024*1024/60

配置如下:


hibench.join.bigdata.uservisits                 18000000000
hibench.join.bigdata.pages 450000000

(可左右滑动)


7.HiBench使用




在试用HiBench进行基准测试时,可以使用批量的方式运行也可以针对单个用例进行测试,可以挑选我们要测试的用例配置在${hibench_home}/conf/benchmarks.lst文件中,也可以运行单个用例的测试脚本进行测试。HiBench的测试分为两个阶段一个数据准备节点一个用例测试阶段,在用例测试阶段会使用MR和Spark的方式分别运行示例。


1.批量运行,在${hibench_home}/bin目录下执行run_all.sh脚本


如何使用HiBench进行基准测试_hadoop_33


该脚本运行的事例均是在${hibench_home}/conf/benchmarks.lst文件中配置了的示例。


如何使用HiBench进行基准测试_spark_34


2.单个实例运行,在运行单个实例的时候我们要先运行数据准备脚本

每个用例对应的脚本在${hibench_home}/bin/workloads/micro/wordcount


如何使用HiBench进行基准测试_hadoop_35


脚本目录包含了MR和Spark两种方式执行事例的脚本,prepare目录下的脚本用于生成测试数据。


3.查看运行结果

通过HDFS可以看到/HiBench目录下生成的各个用例生成的测试数据及用例结果


如何使用HiBench进行基准测试_spark_36


在{hibench_home}/report目录下生成了各个示例的运行结果


如何使用HiBench进行基准测试_hadoop_37


查看hibench.report文件可以看到每个用例的测试数据量、运行耗时及吞吐


如何使用HiBench进行基准测试_spark_38


通过测试结果结合CM的监控数据对集群进行的各项指标进行分析,同时可以在所有的节点启用nmon脚本来监控服务的性能指标进行综合分析。


8.常见问题记录




1.mvn编译时异常,异常信息如下


[INFO] ------------------------------------------------------------------------
[ERROR] Failed to execute goal net.alchim31.maven:scala-maven-plugin:3.2.0:compile (scala-compile-first) on project hibench-common: wrap: org.apache.commons.exec.ExecuteException: Process exited with an error: 1 (Exit value: 1) -> [Help 1]
[ERROR]
[ERROR] To see the full stack trace of the errors, re-run Maven with the -e switch.
[ERROR] Re-run Maven using the -X switch to enable full debug logging.
[ERROR]
[ERROR] For more information about the errors and possible solutions, please read the following articles:
[ERROR] [Help 1] http://cwiki.apache.org/confluence/display/MAVEN/MojoExecutionException
[ERROR]
[ERROR] After correcting the problems, you can resume the build with the command
[ERROR] mvn <goals> -rf :hibench-common

(可左右滑动)


如何使用HiBench进行基准测试_hadoop_39


原因:确认能使用maven正常下载、更新依赖库或编译时所属用户权限不足导致;

此处报错使用了ec2-user用户,切换至root用户后正常编译。



提示:代码块部分可以左右滑动查看噢


为天地立心,为生民立命,为往圣继绝学,为万世开太平。

温馨提示:要看高清无码套图,请使用手机打开并单击图片放大查看。



推荐关注Hadoop实操,第一时间,分享更多Hadoop干货,欢迎转发和分享。

如何使用HiBench进行基准测试_spark_40

原创文章,欢迎转载,转载请注明:转载自微信公众号Hadoop实操