Spark运行架构

标准Master-slave结构 spark框架有两个主要的组件,就是Driver和Executor。

Driver[驱使整个应用运行起来的程序]

1.执行spark任务中的main方法,负责实际代码的执行工作; 2.将用户提交的应用转化为job作业; 3.在Executor之间调度Task任务; 4.跟踪Executor的执行情况; 5.通过webUI查看作业运行情况

Executor[worker节点中的一个JVM进程][计算节点]

1.负责spark作业中具体Task任务的运行,并将结果返回给Driver进程 2通过自身的Block Manager块管理器为用户提交的应用中要求缓存的RDD提供内存式存储,由于RDD是直接缓存在Executor进程中的,所以任务运行期间可充分利用缓存数据加速计算。

Spark构建在Yarn之上,提交应用程序时应该要包括ApplicationMaster;RM和Driver之间靠ApplicationMaster解耦。 alt

有向无环图(DAG)

alt

基于YARN环境spark用户应用提交流程:

alt

全部评论

相关推荐

不愿透露姓名的神秘牛友
10-04 05:12
kalistar:简历留六个字,北京大学(本科),黑体加粗,看看哪个hr不长眼敢碰瓷我们北大✌
点赞 评论 收藏
分享
程序员牛肉:你这简历有啥值得拷打的?在牛客你这种简历一抓一大把,也就是个人信息不一样而已。 关键要去找亮点,亮点啊,整个简历都跟流水线生产出来的一样。
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务