Spark运行架构

spark运行架构 要背下来
http://spark.apache.org/docs/latest/cluster-overview.html

  • Spark Application: 1个driver + 多个executors
  • Application jar : 打包时生成的jar包
  • Driver program :运行main函数的进程,并且创建了一个sparkcontext
  • Cluster manager: 一个从cluster申请资源的外部服务
  • Deploy mode: 区分driver进程跑在哪里;client模式下,driver跑在本地; cluster模式下,driver跑在集群里
  • Executor: 启动应用程序的进程;它能够运行tasks,保存数据到memort/disk。每个application都有自己的executor;
  • Task:作业的基本单元,每个task都会被送到一个executor上去执行
  • Job: 众多task组成的并行计算,一个Spark的action算子产生一个Job
全部评论

相关推荐

不愿透露姓名的神秘牛友
07-17 14:06
点赞 评论 收藏
分享
fRank1e:吓得我不敢去外包了,但是目前也只有外包这一个实习,我还要继续去吗
点赞 评论 收藏
分享
07-17 11:50
门头沟学院 Java
投递腾讯等公司10个岗位
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务