在运行job时,spark是一个stage一个stage执行的。先把任务分红stage,在任务提交阶段会把任务造成taskset,在执行任务。
spark的DAGScheduler根据RDD的ShuffleDependency来构建Stages:web
每一个ShuffleDependency会map到spark的job的一个stage,而后会致使一个shuffle过程。app
这是因为shuffle过程可能须要完成如下过程:ide
shuffleManager是spark的shuffle系统的可插拔接口。ShuffleManager将会在driver和每一个executor上的SparkEnv中进行建立。能够经过参数spark.shuffle.manager进行设置。
driver经过ShuffleManager来注册shuffle,而且executor经过它来读取和写入数据。svg
控制shuffle数据输出逻辑。函数
获取shuffle过程当中用于ShuffleRDD的数据。spa
管理抽象的bucket和计算数据块之间的mapping过程。xml
sort-based的shuffle,会把输入的记录根据目标分区id(partition ids)进行排序。而后写入单个的map输出文件中。为了读取map的输出部分,Reducers获取此文件的连续区域 。当map输出的数据太大而内存没法存放时,输出的排序子集能够保存到磁盘,这些磁盘文件被合并后,生成最终的输出文件。
sort shuffle有两个不一样的输出路径来产生map的输出文件:blog
(待续)排序