Spark介绍(一)简介

1、Spark简介node

Spark是加州大学伯克利分校AMP实验室(Algorithms, Machines, and People Lab开发通用内存并行计算框架web

Spark使用Scala语言进行实现,它是一种面向对象、函数式编程语言,可以像操做本地集合对象同样轻松地操做分布式数据具备如下特色。编程

1.运行速度快:Spark拥有DAG执行引擎,支持在内存中对数据进行迭代计算。官方提供的数据代表,若是数据由磁盘读取,速度是Hadoop MapReduce10倍以上,若是数据从内存中读取,速度能够高达100多倍框架

2.用性好:Spark不只支持Scala编写应用程序,并且支持JavaPython等语言进行编写,特别是Scala是一种高效、可拓展的语言,可以用简洁的代码处理较为复杂的处理工做机器学习

3.通用性强:Spark生态圈即BDAS(伯克利数据分析栈)包含了Spark CoreSpark SQLSpark StreamingMLLibGraphX等组件,这些组件分别处理Spark Core提供内存计算框架、SparkStreaming的实时处理应用、Spark SQL的即席查询、MLlibMLbase的机器学习和GraphX的图处理。异步

4.随处运行:Spark具备很强的适应性,可以读取HDFSCassandraHBaseS3Techyon为持久层读写原生数据,可以以MesosYARN和自身携带的Standalone做为资源管理器调度job,来完成Spark应用程序的计算编程语言

             

2、SparkHadoop差别分布式

Spark是在借鉴了MapReduce之上发展而来的,继承了其分布式并行计算的优势并改进了MapReduce明显的缺陷,具体以下:函数式编程

首先,Spark把中间数据放到内存中,迭代运算效率高。MapReduce中计算结果须要落地,保存到磁盘上,这样势必会影响总体速度,而Spark支持DAG图的分布式并行计算的编程框架,减小了迭代过程当中数据的落地,提升了处理效率。函数

其次,Spark容错性高。Spark引进了弹性分布式数据集RDD (Resilient Distributed Dataset) 的抽象,它是分布在一组节点中的只读对象集合,这些集合是弹性的,若是数据集一部分丢失,则能够根据“血统”(即充许基于数据衍生过程)对它们进行重建。另外在RDD计算时能够经过CheckPoint来实现容错,而CheckPoint有两种方式:CheckPoint Data,和Logging The Updates,用户能够控制采用哪一种方式来实现容错。

最后,Spark更加通用。不像Hadoop只提供了MapReduce两种操做,Spark提供的数据集操做类型有不少种,大体分为:TransformationsActions两大类。Transformations包括MapFilterFlatMapSampleGroupByKeyReduceByKeyUnionJoinCogroupMapValuesSortPartionBy等多种操做类型,同时还提供Count, Actions包括CollectReduceLookupSave等操做。另外各个处理节点之间的通讯模型再也不像Hadoop只有Shuffle一种模式,用户能够命名、物化,控制中间结果的存储、分区等

3、Spark的适用场景

目前大数据处理场景有如下几个类型:

1.  复杂的批量处理(Batch Data Processing),偏重点在于处理海量数据的能力,至于处理速度可忍受,一般的时间多是在数十分钟到数小时;

2.  基于历史数据的交互式查询(Interactive Query),一般的时间在数十秒到数十分钟之间

3.  基于实时数据流的数据处理(Streaming Data Processing),一般在数百毫秒到数秒之间

目前对以上三种场景需求都有比较成熟的处理框架,第一种状况能够用HadoopMapReduce来进行批量海量数据处理,第二种状况能够Impala进行交互式查询,对于第三中状况能够用Storm分布式处理框架处理实时流式数据。以上三者都是比较独立,各自一套维护成本比较高,而Spark的出现可以一站式平台满意以上需求。

经过以上分析,总结Spark场景有如下几个:

1.Spark是基于内存的迭代计算框架,适用于须要屡次操做特定数据集的应用场合。须要反复操做的次数越多,所需读取的数据量越大,受益越大,数据量小可是计算密集度较大的场合,受益就相对较小

2.因为RDD的特性,Spark不适用那种异步细粒度更新状态的应用,例如web服务的存储或者是增量的web爬虫和索引。就是对于那种增量修改的应用模型不适合

3.数据量不是特别大,可是要求实时统计分析需求

4、Spark经常使用术语

术语

描述

Application

Spark的应用程序,包含一个Driver program和若干Executor

SparkContext

Spark应用程序的入口,负责调度各个运算资源,协调各个Worker Node上的Executor

Driver Program

运行Applicationmain()函数而且建立SparkContext

Executor

是为Application运行在Worker node上的一个进程,该进程负责运行Task,而且负责将数据存在内存或者磁盘上。

每一个Application都会申请各自的Executor来处理任务

Cluster Manager

在集群上获取资源的外部服务

(例如:Standalone、Mesos、Yarn)

Worker Node

集群中任何能够运行Application代码的节点,运行一个或多个Executor进程

Task

运行在Executor上的工做单元

Job

SparkContext提交的具体Action操做,常和Action对应

Stage

每一个Job会被拆分不少组task,每组任务被称为Stage,也称TaskSet

RDD

Resilient distributed datasets的简称,中文为弹性分布式数据集;Spark最核心的模块和类

DAGScheduler

根据Job构建基于StageDAG,并提交StageTaskScheduler

TaskScheduler

Taskset提交给Worker node集群运行并返回结果

Transformations

Spark API的一种类型,Transformation返回值仍是一个RDD,

全部的Transformation采用的都是懒策略,若是只是将Transformation提交是不会执行计算的

Action

Spark API的一种类型,Action返回值不是一个RDD,而是一个scala集合;计算只有在Action被提交的时候计算才被触发。