RDD(Resilient Distributed Dataset)叫做弹性分布式数据集是Spark中最基本的数据抽象,它代表一个不可变、可分区、里面的元素可并行计算的集合。RDD具有数据流模型的特点:自动容错、位置感知性调度和可伸缩性。RDD允许用户在执行多个查询时显式地将工作集缓存在内存中,后续的查询能够重用工作集,这极大地提升了查询速度。

通俗点来讲,可以将 RDD 理解为一个分布式对象集合,本质上是一个只读的分区记录集合。每个 RDD 可以分成多个分区,每个分区就是一个数据集片段。一个 RDD 的不同分区可以保存到集群中的不同结点上,从而可以在集群中的不同结点上进行并行计算。
关于spark 的计算 下面这个word count 的demo图应该都见过太多次了

spark 分组合并 spark分片_spark 分组合并

如果要真正理解计算的话,可以结合装饰者设计模式来理解,如常见的java 的Io流结合缓冲流就是一个常见装饰者设计模式。

spark 分组合并 spark分片_设计模式_02

其实spark的多个算子 也是通过这种形式去实现的rdd的数据传递。

spark 分组合并 spark分片_设计模式_03

通过这两张图可以非常清楚的发现rdd的实现本质上是结合的装饰者设计模式,与io流及其相似。

io流单纯的new 对象的时候不会读取数据,只有read的时候也就是用的时候才会开始读取数据,这与spark的触发算子功能本质一样。

当然区别也有 比如io流会在缓冲区临时存储数据,但是rdd是不保存数据的。

 

使用seq或者list进行makeRdd时传入分区参数数据分配方式取决于以下底层核心源码:根据公式可分别计算出每个分片里存的数据位置

spark 分组合并 spark分片_spark 分组合并_04

 

 

cache persist checkpoint

cache:将数据临时存储在内存中进行数据重用,会在血缘关系中添加新的依赖。一旦出现问题,可以从头重新读取数据

persist:将数据临时存储在从磁盘文件中进行数据重用(具体需要自己指定存储级别)涉及到磁盘io 性能较低,但是数据安全,如果作业执行完毕,临时保存的数据文件就会丢失

checkpoint:将数据长久地保存在磁盘文件中进行数据重用 涉及到磁盘IO,性能较低,但是数据安全。为了保证数据安全,所以一般情况下,会独立执行作业

为了能够提高效率,一般情况下,是需要和cache联合使用,

执行过程中,会切断学院关系,重新建立器新的血缘关系 checkpoint等同于改变数据源。