概述什么是sparkspark是uc berkeley amp lab所开源的类hadoop mapreduce的通用的并行计算框架,spark基于map reduce算法实现的分布式计算,拥有hadoop mapreduce所具有的优点;但不同于mapreduce的是job中间输出和结果可以保存在内存中,从而不再需要读写hdfs,因此spark能更好地适用于数据挖掘与机器学习等需要迭代的map reduce的算法。其架构如下图所示:spark与hadoop的对比spark的中间数据放到内存中,对于迭代运算效率更高。spark更适合于迭代运算比较多的ml和dm运算。因为在spark里面,有rdd的抽象概念。 spark比hadoop更通用。spark提供的数据集操作类型有很多种,不像hadoop只提供了map和reduce两种操作。比如map, filter, flatmap, sample, groupbykey, reducebykey, union, join, cogroup, mapvalues, sort,partionby等多种操作类型,spark把这些操作称为transformations。同时还提供count, collect, reduce, lookup, save等多种actions操作。 这些多种多样的数据集操作类型,给给开发上层应用的用户提供了方便。各个处理节点之间的通信模型不再像hadoop那样就是唯一的data shuffle一种模式。用户可以命名,物化,控制中间结果的存储、分区等。可以说编程模型比hadoop更灵活。 不过由于rdd的特性,spark不适用那种异步细粒度更新状态的应用,例如web服务的存储或者是增量的web爬虫和索引。就是对于那种增量修改的应用模型不适合。 容错性。在分布式数据集计算时通过checkpoint来实现容错,而checkpoint有两种方式,一个是checkpoint data,一个是logging the updates。用户可以控制采用哪种方式来实现容错。可用性。spark通过提供丰富的scala, java,python api及交互式shell来提高可用性。spark与hadoop的结合spark可以直接对hdfs进行数据的读写,同样支持spark on yarn。spark可以与mapreduce运行于同集群中,共享存储资源与计算,数据仓库shark实现上借用hive,几乎与hive完全兼容。spark的适用场景spark是基于内存的迭代计算框架,适用于需要多次操作特定数据集的应用场合。需要反复操作的次数越多,所需读取的数据量越大,受益越大,数据量小但是计算密集度较大的场合,受益就相对较小由于rdd的特性,spark不适用那种异步细粒度更新状态的应用,例如web服务的存储或者是增量的web爬虫和索引。就是对于那种增量修改的应用模型不适合。 总的来说spark的适用面比较广泛且比较通用。运行模式本地模式 standalone模式 mesoes模式 yarn模式 spark生态系统shark ( hive on spark): shark基本上就是在spark的框架基础上提供和hive一样的h iveql命令接口,为了最大程度的保持和hive的兼容性,shark使用了hive的api来实现query parsing和 logic plan generation,最后的physicalplan execution阶段用spark代替hadoop mapreduce。通过配置shark参数,shark可以自动在内存中缓存特定的rdd,实现数据重用,进而加快特定数据集的检索。同时,shark通过udf用户自定义函数实现特定的数据分析学习算法,使得sql数据查询和运算分析能结合在一起,最大化rdd的重复使用。 spark streaming: 构建在spark上处理stream数据的框架,基本的原理是将stream数据分成小的时间片断(几秒),以类似batch批量处理的方式来处理这小部分数据。spark streaming构建在spark上,一方面是因为spark的低延迟执行引擎(100ms+)可以用于实时计算,另一方面相比基于record的其它处理框架(如storm),rdd数据集更容易做高效的容错处理。此外小批量处理的方式使得它可以同时兼容批量和实时数据处理的逻辑和算法。方便了一些需要历史数据和实时数据联合分析的特定应用场合。 bagel: pregel on spark,可以用spark进行图计算,这是个非常有用的小项目。bagel自带了一个例子,实现了google的pagerank算法。在业界的使用spark项目在2009年启动,2010年开源, 现在使用的有:berkeley, princeton, klout, foursquare, conviva, quantifind, yahoo! research & others, 淘宝等,豆瓣也在使用spark的python克隆版dpark。spark核心概念resilient distributed dataset (rdd)弹性分布数据集rdd是spark的最基本抽象,是对分布式内存的抽象使用,实现了以操作本地集合的方式来操作分布式数据集的抽象实现。rdd是spark最核心的东西,它表示已被分区,不可变的并能够被并行操作的数据集合,不同的数据集格式对应不同的rdd实现。rdd必须是可序列化的。rdd可以cache到内存中,每次对rdd数据集的操作之后的结果,都可以存放到内存中,下一个操作可以直接从内存中输入,省去了mapreduce大量的磁盘io操作。这对于迭代运算比较常见的机器学习算法, 交互式数据挖掘来说,效率提升比较大。 rdd的特点:
它是在集群节点上的不可变的、已分区的集合对象。通过并行转换的方式来创建如(map, filter, join, etc)。失败自动重建。可以控制存储级别(内存、磁盘等)来进行重用。必须是可序列化的。是静态类型的。rdd的好处
rdd只能从持久存储或通过transformations操作产生,相比于分布式共享内存(dsm)可以更高效实现容错,对于丢失部分数据分区只需根据它的lineage就可重新计算出来,而不需要做特定的checkpoint。rdd的不变性,可以实现类hadoop mapreduce的推测式执行。rdd的数据分区特性,可以通过数据的本地性来提高性能,这与hadoop mapreduce是一样的。rdd都是可序列化的,在内存不足时可自动降级为磁盘存储,把rdd存储于磁盘上,这时性能会有大的下降但不会差于现在的mapreduce。 rdd的存储与分区
用户可以选择不同的存储级别存储rdd以便重用。当前rdd默认是存储于内存,但当内存不足时,rdd会spill到disk。rdd在需要进行分区把数据分布于集群中时会根据每条记录key进行分区(如hash 分区),以此保证两个数据集在join时能高效。rdd的内部表示
在rdd的内部实现中每个rdd都可以使用5个方面的特性来表示:
分区列表(数据块列表)计算每个分片的函数(根据父rdd计算出此rdd)对父rdd的依赖列表对key-value rdd的partitioner【可选】每个数据分片的预定义地址列表(如hdfs上的数据块的地址)【可选】 rdd的存储级别
rdd根据usedisk、usememory、deserialized、replication四个参数的组合提供了11种存储级别:
val none = new storagelevel(false, false, false) val disk_only = new storagelevel(true, false, false) val disk_only_2 = new storagelevel(true, false, false, 2) val memory_only = new storagelevel(false, true, true) val memory_only_2 = new storagelevel(false, true, true, 2) val memory_only_ser = new storagelevel(false, true, false) val memory_only_ser_2 = new storagelevel(false, true, false, 2) val memory_and_disk = new storagelevel(true, true, true) val memory_and_disk_2 = new storagelevel(true, true, true, 2) val memory_and_disk_ser = new storagelevel(true, true, false) val memory_and_disk_ser_2 = new storagelevel(true, true, false, 2)
rdd定义了各种操作,不同类型的数据由不同的rdd类抽象表示,不同的操作也由rdd进行抽实现。
rdd的生成rdd有两种创建方式:
1、从hadoop文件系统(或与hadoop兼容的其它存储系统)输入(例如hdfs)创建。
2、从父rdd转换得到新rdd。 下面来看一从hadoop文件系统生成rdd的方式,如:val file = spark.textfile(hdfs://...),file变量就是rdd(实际是hadooprdd实例),生成的它的核心代码如下:
// sparkcontext根据文件/目录及可选的分片数创建rdd, 这里我们可以看到spark与hadoop mapreduce很像 // 需要inputformat, key、value的类型,其实spark使用的hadoop的inputformat, writable类型。 def textfile(path: string, minsplits: int = defaultminsplits): rdd[string] = { hadoopfile(path, classof[textinputformat], classof[longwritable], classof[text], minsplits) .map(pair => pair._2.tostring) } // 根据hadoop配置,及inputformat等创建hadooprdd new hadooprdd(this, conf, inputformatclass, keyclass, valueclass, minsplits)
对rdd进行计算时,rdd从hdfs读取数据时与hadoop mapreduce几乎一样的:
// 根据hadoop配置和分片从inputformat中获取recordreader进行数据的读取。 reader = fmt.getrecordreader(split.inputsplit.value, conf, reporter.null) val key: k = reader.createkey() val value: v = reader.createvalue() //使用hadoop mapreduce的recordreader读取数据,每个key、value对以元组返回。 override def getnext() = { try { finished = !reader.next(key, value) } catch { case eof: eofexception => finished = true } (key, value) }
rdd的转换与操作对于rdd可以有两种计算方式:转换(返回值还是一个rdd)与操作(返回值不是一个rdd)。 转换(transformations) (如:map, filter, groupby, join等),transformations操作是lazy的,也就是说从一个rdd转换生成另一个rdd的操作不是马上执行,spark在遇到transformations操作时只会记录需要这样的操作,并不会去执行,需要等到有actions操作的时候才会真正启动计算过程进行计算。操作(actions) (如:count, collect, save等),actions操作会返回结果或把rdd数据写到存储系统中。actions是触发spark启动计算的动因。下面使用一个例子来示例说明transformations与actions在spark的使用。
val sc = new sparkcontext(master, example, system.getenv(spark_home), seq(system.getenv(spark_test_jar))) val rdd_a = sc.textfile(hdfs://.....) val rdd_b = rdd_a.flatmap((line => line.split(\\s+))).map(word => (word, 1)) val rdd_c = sc.textfile(hdfs://.....) val rdd_d = rdd_c.map(line => (line.substring(10), 1)) val rdd_e = rdd_d.reducebykey((a, b) => a + b) val rdd_f = rdd_b.jion(rdd_e) rdd_f.saveassequencefile(hdfs://....)
lineage(血统)利用内存加快数据加载,在众多的其它的in-memory类数据库或cache类系统中也有实现,spark的主要区别在于它处理分布式运算环境下的数据容错性(节点实效/数据丢失)问题时采用的方案。为了保证rdd中数据的鲁棒性,rdd数据集通过所谓的血统关系(lineage)记住了它是如何从其它rdd中演变过来的。相比其它系统的细颗粒度的内存数据更新级别的备份或者log机制,rdd的lineage记录的是粗颗粒度的特定数据转换(transformation)操作(filter, map, join etc.)行为。当这个rdd的部分分区数据丢失时,它可以通过lineage获取足够的信息来重新运算和恢复丢失的数据分区。这种粗颗粒的数据模型,限制了spark的运用场合,但同时相比细颗粒度的数据模型,也带来了性能的提升。rdd在lineage依赖方面分为两种narrow dependencies与wide dependencies用来解决数据容错的高效性。narrow dependencies是指父rdd的每一个分区最多被一个子rdd的分区所用,表现为一个父rdd的分区对应于一个子rdd的分区或多个父rdd的分区对应于一个子rdd的分区,也就是说一个父rdd的一个分区不可能对应一个子rdd的多个分区。wide dependencies是指子rdd的分区依赖于父rdd的多个分区或所有分区,也就是说存在一个父rdd的一个分区对应一个子rdd的多个分区。对与wide dependencies,这种计算的输入和输出在不同的节点上,lineage方法对与输入节点完好,而输出节点宕机时,通过重新计算,这种情况下,这种方法容错是有效的,否则无效,因为无法重试,需要向上其祖先追溯看是否可以重试(这就是lineage,血统的意思),narrow dependencies对于数据的重算开销要远小于wide dependencies的数据重算开销。容错在rdd计算,通过checkpint进行容错,做checkpoint有两种方式,一个是checkpoint data,一个是logging the updates。用户可以控制采用哪种方式来实现容错,默认是logging the updates方式,通过记录跟踪所有生成rdd的转换(transformations)也就是记录每个rdd的lineage(血统)来重新计算生成丢失的分区数据。资源管理与作业调度spark对于资源管理与作业调度可以使用standalone(独立模式),apache mesos及hadoop yarn来实现。 spark on yarn在spark0.6时引用,但真正可用是在现在的branch-0.8版本。spark on yarn遵循yarn的官方规范实现,得益于spark天生支持多种scheduler和executor的良好设计,对yarn的支持也就非常容易,spark on yarn的大致框架图。
让spark运行于yarn上与hadoop共用集群资源可以提高资源利用率。
编程接口spark通过与编程语言集成的方式暴露rdd的操作,类似于dryadlinq和flumejava,每个数据集都表示为rdd对象,对数据集的操作就表示成对rdd对象的操作。spark主要的编程语言是scala,选择scala是因为它的简洁性(scala可以很方便在交互式下使用)和性能(jvm上的静态强类型语言)。spark和hadoop mapreduce类似,由master(类似于mapreduce的jobtracker)和workers(spark的slave工作节点)组成。用户编写的spark程序被称为driver程序,dirver程序会连接master并定义了对各rdd的转换与操作,而对rdd的转换与操作通过scala闭包(字面量函数)来表示,scala使用java对象来表示闭包且都是可序列化的,以此把对rdd的闭包操作发送到各workers节点。 workers存储着数据分块和享有集群内存,是运行在工作节点上的守护进程,当它收到对rdd的操作时,根据数据分片信息进行本地化数据操作,生成新的数据分片、返回结果或把rdd写入存储系统。 scalaspark使用scala开发,默认使用scala作为编程语言。编写spark程序比编写hadoop mapreduce程序要简单的多,spark提供了spark-shell,可以在spark-shell测试程序。写spark程序的一般步骤就是创建或使用(sparkcontext)实例,使用sparkcontext创建rdd,然后就是对rdd进行操作。如:
val sc = new sparkcontext(master, appname, [sparkhome], [jars]) val textfile = sc.textfile(hdfs://.....) textfile.map(....).filter(.....).....
javaspark支持java编程,但对于使用java就没有了spark-shell这样方便的工具,其它与scala编程是一样的,因为都是jvm上的语言,scala与java可以互操作,java编程接口其实就是对scala的封装。如:
javasparkcontext sc = new javasparkcontext(...); javardd lines = ctx.textfile(hdfs://...); javardd words = lines.flatmap( new flatmapfunction() { public iterable call(string s) { return arrays.aslist(s.split( )); } } );
python现在spark也提供了python编程接口,spark使用py4j来实现python与java的互操作,从而实现使用python编写spark程序。spark也同样提供了pyspark,一个spark的python shell,可以以交互式的方式使用python编写spark程序。 如:
from pyspark import sparkcontext sc = sparkcontext(local, job name, pyfiles=['myfile.py', 'lib.zip', 'app.egg']) words = sc.textfile(/usr/share/dict/words) words.filter(lambda w: w.startswith(spar)).take(5)
使用示例standalone模式为方便spark的推广使用,spark提供了standalone模式,spark一开始就设计运行于apache mesos资源管理框架上,这是非常好的设计,但是却带了部署测试的复杂性。为了让spark能更方便的部署和尝试,spark因此提供了standalone运行模式,它由一个spark master和多个spark worker组成,与hadoop mapreduce1很相似,就连集群启动方式都几乎是一样。以standalone模式运行spark集群
下载scala2.9.3,并配置scala_home 下载spark代码(可以使用源码编译也可以下载编译好的版本)这里下载 编译好的版本(http://spark-project.org/download/spark-0.7.3-prebuilt-cdh4.tgz)解压spark-0.7.3-prebuilt-cdh4.tgz安装包修改配置(conf/*) slaves: 配置工作节点的主机名 spark-env.sh:配置环境变量。
scala_home=/home/spark/scala-2.9.3 java_home=/home/spark/jdk1.6.0_45 spark_master_ip=spark1 spark_master_port=30111 spark_master_webui_port=30118 spark_worker_cores=2 spark_worker_memory=4g spark_worker_port=30333 spark_worker_webui_port=30119 spark_worker_instances=1
把hadoop配置copy到conf目录下
在master主机上对其它机器做ssh无密码登录
把配置好的spark程序使用scp copy到其它机器
在master启动集群
$spark_home/start-all.sh
yarn模式spark-shell现在还不支持yarn模式,使用yarn模式运行,需要把spark程序全部打包成一个jar包提交到yarn上运行。目录只有branch-0.8版本才真正支持yarn。以yarn模式运行spark
下载spark代码.
git clone git://github.com/mesos/spark
切换到branch-0.8
cd spark git checkout -b yarn --track origin/yarn
使用sbt编译spark并
$spark_home/sbt/sbt > package > assembly
把hadoop yarn配置copy到conf目录下
运行测试
spark_jar=./core/target/scala-2.9.3/spark-core-assembly-0.8.0-snapshot.jar \ ./run spark.deploy.yarn.client --jar examples/target/scala-2.9.3/ \ --class spark.examples.sparkpi --args yarn-standalone
使用spark-shellspark-shell使用很简单,当spark以standalon模式运行后,使用$spark_home/spark-shell进入shell即可,在spark-shell中sparkcontext已经创建好了,实例名为sc可以直接使用,还有一个需要注意的是,在standalone模式下,spark默认使用的调度器的fifo调度器而不是公平调度,而spark-shell作为一个spark程序一直运行在spark上,其它的spark程序就只能排队等待,也就是说同一时间只能有一个spark-shell在运行。在spark-shell上写程序非常简单,就像在scala shell上写程序一样。
scala> val textfile = sc.textfile(hdfs://hadoop1:2323/user/data) textfile: spark.rdd[string] = spark.mappedrdd@2ee9b6e3 scala> textfile.count() // number of items in this rdd res0: long = 21374 scala> textfile.first() // first item in this rdd res1: string = # spark
编写driver程序在spark中spark程序称为driver程序,编写driver程序很简单几乎与在spark-shell上写程序是一样的,不同的地方就是sparkcontext需要自己创建。如workcount程序如下:
import spark.sparkcontextimport sparkcontext._object wordcount { def main(args: array[string]) { if (args.length ==0 ){ println(usage is org.test.wordcount ) } println(the args: ) args.foreach(println) val hdfspath = hdfs://hadoop1:8020 // create the sparkcontext, args(0)由yarn传入appmaster地址 val sc = new sparkcontext(args(0), wrodcount, system.getenv(spark_home), seq(system.getenv(spark_test_jar))) val textfile = sc.textfile(hdfspath + args(1)) val result = textfile.flatmap(line => line.split(\\s+)) .map(word => (word, 1)).reducebykey(_ + _) result.saveastextfile(hdfspath + args(2)) }}
参考资料spark on yarn:小火花照亮大数据 原文地址:spark:一个高效的分布式计算系统, 感谢原作者分享。
