前言
基于上两篇没提到的知识点的一些补充
三、Spark 内存计算框架
3.1 Spark的任务调度
- Driver端运行客户端的main方法,构建SparkContext对象,在SparkContext对象内部依次构建DAGScheduler和TaskScheduler
- 按照 RDD 的一系列操作顺序,来生成DAG有向无环图
- DAGScheduler拿到DAG有向无环图之后,按照宽依赖进行stage的划分。每一个stage内部有很多可以并行运行的task,最后封装在一个一个的taskSet集合中,然后把taskSet发送给TaskScheduler
- TaskScheduler得到taskSet集合之后,依次遍历取出每一个task提交到worker节点上的executor进程中运行。
- 所有task运行完成,任务结束
3.2 spark 分区
在对RDD数据进行分区时,默认使用的是 HashPartitioner。该函数对key进行哈希,然后对分区总数取模,取模结果相同的就会被分到同一个partition中(这一招如果是文章一直跟过来的朋友们应该见我提过无数遍了)
如果嫌HashPartitioner功能单一,可以自定义partitioner,自定义partitioner大致分为3个步骤
- 继承 org.apache.spark.Partitioner
- 重写 numPartitions 方法
- 重写 getPartition 方法
3.3 小案例(使用Scala)
我们想根据 RDD 的key的长度进行分区,相同key的长度进入到同一个分区中(代码比较简单就不展开说明了)
3.3.1 main方法
//todo:使用自己实现的自定义分区
object TestPartitionerMain {
def main(args: Array[String]): Unit = {
//1、构建SparkConf
val sparkConf: SparkConf = new SparkConf().setAppName("TestPartitionerMain").setMaster("local[2]")
//2、构建SparkContext
val sc = new SparkContext(sparkConf)
sc.setLogLevel("warn")
//3、构建数据源
val data: RDD[String] = sc.parallelize(List("hadoop","hdfs","hive","spark","flume","kafka","flink","azkaban"))
//4、获取每一个元素的长度,封装成一个元组
val wordLengthRDD: RDD[(String, Int)] = data.map(x=>(x,x.length))
//5、对应上面的rdd数据进行自定义分区
val result: RDD[(String, Int)] = wordLengthRDD.partitionBy(new MyPartitioner(3))
//6、保存结果数据到文件
result.saveAsTextFile("./data")
sc.stop()
}
}
3.3.2 自定义分区MyPartitioner
//自定义分区
class MyPartitioner(num:Int) extends Partitioner{
//指定rdd的总的分区数
override def numPartitions: Int = {
num
}
//消息按照key的某种规则进入到指定的分区号中
override def getPartition(key: Any): Int ={
//这里的key就是单词
val length: Int = key.toString.length
length match {
case 4 =>0
case 5 =>1
case 6 =>2
case _ =>0
}
}
}
3.4 spark的共享变量
3.4.1 spark的广播变量(broadcast variable)
Spark中分布式执行的代码需要传递到各个Executor的Task上运行。对于一些只读、固定的数据(比如从DB中读出的数据),每次都需要Driver广播到各个Task上,这样效率低下。
广播变量允许将变量广播给各个Executor。该Executor上的各个Task再从所在节点的BlockManager获取变量,而不是从Driver获取变量,以减少通信的成本,减少内存的占用,从而提升了效率。
3.4.2 广播变量的原理示意图
这个原理图很容易理解,其实就是这个word就是task们共同需要的数据,我们就将这个word下发到executor中,之后task获取这个word的数据的话,就直接找到内存中对应的引用即可。
3.4.3 广播变量使用
- 通过对一个类型T的对象调用 SparkContext.broadcast创建出一个Broadcast[T]对象。
任何可序列化的类型都可以这么实现 - 通过 value 属性访问该对象的值
- 变量只会被发到各个节点一次,应作为只读值处理(修改这个值不会影响到别的节点)
3,4.4 简单的代码示例
不使用广播变量代码示例
//这里的word单词为在每一个task中进行传输
val conf = new SparkConf().setMaster("local[2]").setAppName("brocast")
val rdd1=sc.textFile("/words.txt")
val word="spark"
val rdd2=rdd1.flatMap(_.split(" ")).filter(x=>x.equals(word))
rdd2.foreach(x=>println(x))
使用广播变量代码示例
val conf = new SparkConf().setMaster("local[2]").setAppName("brocast")
val sc=new SparkContext(conf)
val rdd1=sc.textFile("/words.txt")
val word="spark"
//通过调用sparkContext对象的broadcast方法把数据广播出去
val broadCast = sc.broadcast(word)
//在executor中通过调用广播变量的value属性获取广播变量的值
val rdd2=rdd1.flatMap(_.split(" ")).filter(x=>x.equals(broadCast.value))
rdd2.foreach(x=>println(x))
3.4.5 广播变量使用注意事项
- 不能将一个RDD使用广播变量广播出去
- 广播变量只能在Driver端定义,不能在Executor端定义
- 在Driver端可以修改广播变量的值,在Executor端无法修改广播变量的值
- 如果executor端用到了Driver的变量,如果不使用广播变量在Executor有多少task就有多少Driver端的变量副本
- 如果Executor端用到了Driver的变量,如果使用广播变量在每个Executor中只有一份Driver端的变量副本
3.4.6 Spark 的 accumulator
累加器(accumulator)是Spark中提供的一种分布式的变量机制,其原理类似于MapReduce,即分布式的改变,然后聚合这些改变。它一个常见用途是在调试时对作业执行过程中的事件进行计数。可以使用累加器来进行全局的计数。
使用方式
- 通过在driver中调用 ==SparkContext.accumulator(initialValue) ==方法,创建出存有初始值的累加器。返回值为 org.apache.spark.Accumulator[T] 对象,其中 T 是初始值initialValue 的类型。
- spark闭包(函数序列化)里的excutor代码可以使用累加器的 add 方法增加累加器的值。
- driver程序可以调用累加器的 value 属性来访问累加器的值。
3.5 Spark 程序的序列化问题
3.5.1 transformation操作为什么需要序列化
spark是分布式执行引擎,其核心抽象是弹性分布式数据集RDD,其代表了分布在不同节点的数据。Spark的计算是在executor上分布式执行的,故用户开发的关于RDD的map,flatMap,reduceByKey等transformation 操作(闭包)有如下执行过程:
- 代码中对象在driver本地序列化
- 对象序列化后传输到远程executor节点
- 远程executor节点反序列化对象
- 最终远程节点执行
故对象在执行中需要序列化通过网络传输,则必须经过序列化过程。
3.5.2 spark的任务序列化异常
在编写spark程序中,由于在map,foreachPartition等算子内部使用了外部定义的变量和函数,从而引发Task未序列化问题。然而spark算子在计算过程中使用外部变量在许多情形下确实在所难免,比如在filter算子根据外部指定的条件进行过滤,map根据相应的配置进行变换。
比如出现“org.apache.spark.SparkException: Task not serializable”这个错误:其原因就在于这些算子使用了外部的变量,但是这个变量不能序列化。当前类使用了“extends Serializable”声明支持序列化,但是由于某些字段不支持序列化,仍然会导致整个类序列化时出现问题,最终导致出现Task未序列化问题。
3.5.3 spark中解决序列化的办法
- 如果函数中使用了该类对象,该类要实现序列化
- 如果函数中使用了该类对象的成员变量,该类除了要实现序列化之外,所有的成员变量必须要实现序列化
- 对于不能序列化的成员变量使用“@transient”标注,告诉编译器不需要序列化
- 也可将依赖的变量独立放到一个小的class中,让这个class支持序列化,这样做可以减少网络传输量,提高效率
- 可以把对象的创建直接在该函数中构建这样避免需要序列化
3.6 Spark on Yarn
可以把spark程序提交到yarn中去运行,此时spark任务所需要的计算资源由yarn中的老大ResourceManager去分配
官网资料地址:http://spark.apache.org/docs/2.3.3/running-on-yarn.html,环境准备需要hadoop集群和Spark环境(注意这里不需要安装spark集群,只需要解压spark安装包到任意一台服务器),修改文件 spark-env.sh
按照Spark应用程序中的driver分布方式不同,Spark on YARN有两种模式: yarn-client模式、yarn-cluster模式
3.6.1 yarn-cluster模式
yarn-cluster模式下提交任务示例
spark-submit --class org.apache.spark.examples.SparkPi \
--master yarn \
--deploy-mode cluster \
--driver-memory 1g \
--executor-memory 1g \
--executor-cores 1 \
/opt/spark/examples/jars/spark-examples_2.11-2.3.3.jar \
10
此时注意如果运行出现错误,可能是虚拟内存不足,可以添加参数
<!--容器是否会执行物理内存限制默认为True-->
<property>
<name>yarn.nodemanager.pmem-check-enabled</name>
<value>false</value>
</property>
<!--容器是否会执行虚拟内存限制 默认为True-->
<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>
3.6.2 yarn-client模式
spark-submit --class org.apache.spark.examples.SparkPi
–master yarn
–deploy-mode client
–driver-memory 1g
–executor-memory 1g
–executor-cores 1
/opt/spark/examples/jars/spark-examples_2.11-2.3.3.jar
10
3.6.3 原理图
yarn-cluster:
yarn-client:
它们的区别:
yarn-cluster模式:spark程序的Driver程序在YARN中运行,运行结果不能在客户端显示,并且客户端可以在启动应用程序后消失应用的。最好运行那些将结果最终保存在外部存储介质(如HDFS、Redis、Mysql),客户端的终端显示的仅是作为YARN的job的简单运行状况。
yarn-client模式: spark程序的Driver运行在Client上,应用程序运行结果会在客户端显示,所有适合运行结果有输出的应用程序(如spark-shell)
最大的区别就是Driver端的位置不一样。
yarn-cluster: Driver端运行在yarn集群中,与ApplicationMaster进程在一起。
yarn-client: Driver端运行在提交任务的客户端,与ApplicationMaster进程没关系,经常用于测试
3.7 collect 算子操作的问题
collect算子操作的作用是作为一个action操作,会触发任务的运行,而且它会把RDD的数据进行收集之后,以数组的形式返回给Driver端
注意:
默认Driver端的内存大小为1G,由参数 spark.driver.memory 设置
如果某个rdd的数据量超过了Driver端默认的1G内存,对rdd调用collect操作,这里会出现Driver端的内存溢出,所有这个collect操作存在一定的风险,实际开发代码一般不会使用。
实际企业中一般都会把该参数调大,比如5G/10G等,使用 new SparkConf().set(“spark.driver.memory”,“5G”) 可以修改该参数
3.8 Spark任务中资源参数剖析
executor-memory:表示每一个executor进程需要的内存大小,它决定了后期操作数据的速度
total-executor-cores:表示任务运行需要总的cpu核数,它决定了任务并行运行的粒度
后期对于spark程序的优化,可以从这2个参数入手,无论你把哪一个参数调大,对程序运行的效率来说都会达到一定程度的提升
加大计算资源它是最直接、最有效果的优化手段。
在计算资源有限的情况下,可以考虑其他方面,比如说代码层面,JVM层面等
finally
···