189 8069 5689

从物理执行角度透视SparkJob(23)-创新互联

一、再次思考pipeline

创新互联专业为企业提供仪陇网站建设、仪陇做网站、仪陇网站设计、仪陇网站制作等企业网站建设、网页设计与制作、仪陇企业网站模板建站服务,10余年仪陇做网站经验,不只是建网站,更提供有价值的思路和整体网络服务。

   即使采用pipeline的方式,函数f对依赖的RDD中的数据集合的操作也会有两种方式:

   1, f(record),f作用于集合的每一条记录,每次只作用于一条记录;

     2, f(records),f一次性作用于集合的全部数据;

 Spark采用是是第一种方式,原因:

    1, 无需等待,可以大化的使用集群的计算资源;

    2, 减少OOM的发生;

    3, 大化的有利于并发;

    4, 可以精准的控制每一Partition本身(Dependency)及其内部的计算(compute);

    5, 基于lineage的算子流动式函数式编程,节省了中间结果的产生,并且可以最快的恢复;

 二:思考Spark Job具体的物理执行

    Spark Application里面可以产生1个或者多个Job,例如spark-shell默认启动的时候内部就没有Job,只是作为资源的分配程序,可以在spark-shell里面写代码产生若干个Job,普通程序中一般而言可以有不同的Action,每一个Action一般也会触发一个Job。

    Spark是MapReduce思想的一种更加精致和高效的实现,MapReduce有很多具体不同的实现,例如Hadoop的MapReduce基本的计算流程如下:首先是以JVM为对象的并发执行的Mapper,Mapper中map的执行会产生输出数据,输出数据会经过Partitioner指定的规则放到Local FileSystem中,然后在经由Shuffle、Sort、Aggregate变成Reducer中的reduce的输入,执行reduce产生最终的执行结果;Hadoop MapReduce执行的流程虽然简单,但是过于死板,尤其是在构造复杂算法(迭代)时候非常不利于算法的实现,且执行效率极为低下!

    Spark算法构造和物理执行时最最基本的核心:大化pipeline

   Pipeline的思想,数据被使用的时候才开始计算,从数据流动的视角来说,是数据流动到计算的位置,实质上从逻辑的角度来看,是算子在数据上流动。

    从算法构建的角度而言:肯定是算子作用于数据,所以是算子在数据上流动;

    从物理执行的角度而言:是数据流动到计算的位置;

    对于pipeline而言,数据计算的位置就是每个stage中的最后RDD。

    由于计算的Lazy特性,导致计算从后往前回溯,形成Computing Chain,导致的结果就是需要首先计算出具体一个Stage内部左侧的RDD中本次计算依赖的Partition

     三:窄依赖的物理执行内幕

    一个Stage内部的RDD都是窄依赖,窄依赖计算本身是逻辑上看是从Stage内部最左侧的RDD开始立即计算的,根据Computing Chain,数据(Record)从一个计算步骤流动到下一个结算步骤,以此类推,直到计算到Stage内部的最后一个RDD来产生计算结果。

    Computing Chain的构建是从后往前回溯构建而成,而实际的物理计算则是让数据从前往后在算子上流动,直到流动到不能再流动位置才开始计算下一个Record。这就导致一个美好的结果:后面的RDD对前面的RDD的依赖虽然是Partition级别的数据集合的依赖,但是并不需要父RDD把Partition中所有的Records计算完毕才整体往后流动数据进行计算,这就极大的提高了计算速率!

 四:宽依赖物理执行内幕

    必须等到依赖的父Stage中的最后一个RDD全部数据彻底计算完毕,才能够经过shuffle来计算当前的Stage!

另外有需要云服务器可以了解下创新互联scvps.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。


当前标题:从物理执行角度透视SparkJob(23)-创新互联
网站链接:http://cdxtjz.cn/article/dshsjh.html

其他资讯