-
-
分布式:RDD中的数据是分布式存储的,可用于分布式计算。RDD的数据是分布存储的,也就是Spark集群中每个节点上只存储了RDD的部分数据。计算同样也是分布式并行计算的
-
弹性:
-
存储的弹性:RDD的数据可以在内存和磁盘之间进行自由切换
-
可靠性的弹性:RDD的在丢失数据的时候能够自动恢复。RDD在计算过程中会出现失败的情况,失败以后会进行一定次数的重试(4次)
-
并行度的弹性:RDD的数据分区可以改变,进而增加并行计算的粒度
-
-
RDD其他特点:
-
RDD的数据是只读,每次操作都会产生新的RDD。安全。
-
RDD中数据可以缓存在内存、磁盘、HDFS之上
-
Spark优先把数据放到内存中,如果内存放不下,就会放到磁盘里面,程序进行自动的存储切换
2) 基于血统的高效容错机制
在RDD进行转换和动作的时候,会形成RDD的Lineage依赖链,当某一个RDD失效的时候,可以通过重新计算上游的RDD来重新生成丢失的RDD数据。
3) Task如果失败会自动进行特定次数的重试
RDD的计算任务如果运行失败,会自动进行任务的重新计算,默认次数是4次。
4) Stage如果失败会自动进行特定次数的重试
如果Job的某个Stage阶段计算失败,框架也会自动进行任务的重新计算,默认次数也是4次。
5) Checkpoint和Persist可主动或被动触发
RDD可以通过Persist持久化将RDD缓存到内存或者磁盘,当再次用到该RDD时直接读取就行。也可以将RDD进行检查点,检查点会将数据存储在HDFS中,该RDD的所有父RDD依赖都会被移除。
6) 数据调度弹性
Spark把这个JOB执行模型抽象为通用的有向无环图DAG,可以将多Stage的任务串联或并行执行,调度引擎自动处理Stage的失败以及Task的失败。
7) 数据分片的高度弹性
可以根据业务的特征,动态调整数据分片的个数,提升整体的应用执行效率。
RDD是一种分布式的内存抽象,表示一个只读的记录分区的集合,它只能通过其他RDD转换而创建,为此,RDD支持丰富的转换操作(如map, join, filter, groupBy等),通过这种转换操作,新的RDD则包含了如何从其他RDDs衍生所必需的信息,所以说RDDs之间是有依赖关系的。基于RDDs之间的依赖,RDDs会形成一个有向无环图DAG,该DAG描述了整个流式计算的流程,实际执行的时候,RDD是通过血缘关系(Lineage)一气呵成的,即使出现数据分区丢失,也可以通过血缘关系重建分区,总结起来,基于RDD的流式计算任务可描述为:从稳定的物理存储(如分布式文件系统)中加载记录,记录被传入由一组确定性操作构成的DAG,然后写回稳定存储(HDFS或磁盘)。另外RDD还可以将数据集缓存到内存中,使得在多个操作之间可以重用数据集,基于这个特点可以很方便地构建迭代型应用(图计算、机器学习等)或者交互式数据分析应用。可以说Spark最初也就是实现RDD的一个分布式系统,后面通过不断发展壮大成为现在较为完善的大数据生态系统,简单来讲,Spark-RDD的关系类似于Hadoop-MapReduce关系。
如果文件的block个数 <=2 那么 sc.textFile(“file:///wordcount.txt”)分区个数为2
如果文件的block块个数 >2 那么 sc.textFile(“file:///wordcount.txt”)分区的个数等于block块的个数
每一个RDD都有其依赖列表RDD的依赖关系 都是存在一个序列集合中,作用:容错 以及构建起血统机制
a list of preferred locations to compute each split on (e.g. block locations for
* an HDFS file)
Spark在读取hdfs文件的是,hdfs文件每一个block默认有多个备份,spark会获取每一个block块以及其备份的位置信息构建成列表,在进行计算的时候,spark会在位置列表中选取一个最佳位置进行任务分配。 移动数据不如移动计算的原则。
移动数据不如移动计算的原则最高境界:数据在当前运行程序的进程之中
RDD是如何确定优先位置?
getPreferredLocations(split: Partition): Seq[String]
通过以上方法确定计算的最佳位置。
RDD的数据本地化:
5种
2.
-
根据以后数据集合构建RDD
-
val rdd1 = sc.parallelize(Array(1,2,3,4,5,6,7,8))
-
val rdd1 = sc.parallelize(List(1,2,3,4,5,6,7,8))
-
-
根据外部文件 可以是本地文件也可是HDFS上文件
-
sc.textFile(filePath)
-
-
根据以后RDD创建新的RDD 需要经过算子操作
-
val newRDD=lineRDD.flatMap(function)
-
-
转换算子(Transform算子)
-
将一个RDD通过转换算子操作以后会构建新的RDD,比如map 、flatMap、reduceByKey
-
转换算子操作都是直接new新的RDD,此时RDD并没有进行真正的计算。转换算子只是对数据如何计算做了标记。转换算子都是懒加载。
-
-
重要算子操作
-
mapPartitions :作用于每个分区之上的
-
mapPartitions 和map区别:
-
mapPartitions 相当于partition批量操作
-
map作用于每一条数据
-
重要区别:mapPartitions 这个在大量task运行的时候可能会出现内存溢出的情况。小数据量的操作 mapPartitions 要优于map操作
-
-
-
groupByKey算子和ReduceByKey算子的区别
-
1.groupByKey 返回值:key->集合 ReduceByKey返回值: key-》值
-
2.ReduceByKey操作会在本地进行初步merge操作,能够减少网络数据的传输
-
-
coalesce 减少分区数据的算子
-
该算子可以进行shuffle也可以不进shuffle操作, coalesce(numPartitions: Int, shuffle: Boolean = false)
-
-
repartition 实际上是调用了 coalesce 算子 ,而且 repartition一定会进行shuffle操作,既可以增加也可以减少分区
-
-
Action算子
-
广播变量需要数据传递
-
HTTP协议:基于HTTP协议将数据传递到Executor。Executor会Driver端申请下载(已经被废弃)
-
torrent协议:默认的方式。 Driver下载到Executor上,然后Executor会再次数据源,将数据传递到下一个需要数据Executor之上。参考 (TorrentBroadcast类)
-
-
-
窄依赖:父RDD中一个partition最多被子RDD中的一个partition所依赖,这种依赖关系就是窄依赖
-
窄依赖算子:map 、filter 、union 、flatMap等
-
宽依赖:父RDD中一个partition被子RDD中的多个partition所依赖,这种依赖关系就是宽依赖
-
宽依赖算子:groupByKey、reduceByKey。凡是By基本上都是宽依赖
一对一或者多对==一:窄依赖==
一对多或者多对==多:宽依赖==
-
-
宽窄依赖算子的判断依据是转换算子是否会产生shuffle操作,如果有shuffle操作则是宽依赖,否则是窄依赖
-
join既是宽依赖算子也是窄依赖算子 (在一个shuffle操作之后,在使用Join的时候,此时join就是窄依赖)