图书中心
图书中心
精品图书
当前位置: 网站首页 -> 图书中心 -> 精品图书 -> 正文
Spark大数据编程基础(Scala版)
  • 【作者】:高建良 盛羽
  • 【出版时间】:2019-03-01
  • 【字 数】:616(千字)
  • 【定 价】:¥65(元)
  • 【出 版 社】:中南大学出版社
  • 【ISBN】:978-7-5487-3574-8
  • 【页 码】:(页)
  • 【开 本】:16开

本书成体系的介绍了Spark大数据编程技术。本书分为三个部分共10章,从“Spark环境介绍”开始,以“Spark编程入门基础”为承接、最后具体到每一个“Spark编程组件”。这三部分内容从浅入深自成体系,可以方便的学习Spark编程的每个具体知识点。

第一部分包含第1~2章,讲述了Spark的环境。其中,第1章对Spark的背景和运行架构进行了概述;第2章对Spark开发环境的搭建进行了详细介绍。这是学习后续章节的基础。

第二部分包含了第3~5章,讲述了“Spark编程入门基础”部分,重点介绍了Scala编程基础和RDD编程。本书采用Scala编程语言,因此第3章和第4章分别介绍了Scala语言基础和Scala面向对象编程。弹性分布式数据集(Resilient Distributed Dataset,RDD)是Spark对数据的核心抽象,因此第5章介绍了RDD编程。

第三部分包含了第6~10章,讲述了“Spark编程组件”部分,重点介绍了Spark SQL、Spark Streaming、Spark GraphX、Spark ML四个组件的编程。其中,第6章介绍了Spark SQL,可以高效的处理结构化数据;第7章介绍了Spark Streaming,可以高效的流式数据;第8章介绍了Spark GraphX,可以高效的图数据;第9章和第10章介绍了Spark ML,分别以Spark机器学习原理和Spark机器学习模型为重点。

本书在编写过程中力求深入浅出、重点突出、简明扼要,尽可能方便不同专业背景和知识层次的读者阅读。

第1章 Spark概述(1)
1.1Spark的背景(1)
1.1.1 Spark发展史(1)
1.1.2 Spark的特点(2)
1.2 Spark生态系统(3)
1.2.1 Spark Core(3)
1.2.2 Spark SQL(4)
1.2.3 Spark Streaming(4)
1.2.4 GraphX(5)
1.2.5 MLBase/MLlib(5)
1.2.6 SparkR(5)
1.3 Spark运行架构(6)
1.3.1 相关术语(6)
1.3.2 Spark架构(7)
1.3.3 执行步骤(8) 1.3.4 Spark运行模式(10)
1.4 WordCount示例(13)
1.4.1 三种编程语言的示例程序(13)
1.4.2 Scala版本WordCount运行分析(16)
1.4.3 WordCount中的类调用关系(18)
1.5 本章小结(19)
思考与习题(19)
第2章 搭建Spark开发环境(20)
2.1 Spark开发环境所需软件(20)
2.2 安装Spark(21)
2.2.1 spark-shell下的实例(25)
2.2.2 SparkWEB的使用(26)
2.3 IDEA(28)
2.3.1 安装IDEA(28)
2.3.2 IDEA的实例(Scala)(32)
2.3.3 IDEA打包运行(37)
2.4 Eclipse(40)
2.4.1 安装Eclipse(40)
2.4.2 Eclipse的实例(Scala)(41)
2.5 本章小结(46)
思考与习题(47)
第3章 Scala语言基础(48)
3.1 Scala简介(48)
3.1.1 Scala特点(48)
3.1.2 Scala运行方式(48)
3.2 变量与类型(50)
3.2.1 变量的定义与使用(50)
3.2.2 基本数据类型和操作(56)
3.2.3 Range操作(61)
3.3 程序控制结构(62)
3.3.1 if条件表达式(62)
3.3.2 循环表达式(66)
3.3.3 匹配表达式(70)
3.4 集合(73)
3.4.1 数组(73)
3.4.2 列表(78)
3.4.3 集(81)
3.4.4 映射(85)
3.4.5 Option(90)
3.4.6 迭代器与元组(92)
3.5 函数式编程(95)
3.5.1 函数(95)
3.5.2 占位符语法(97)
3.5.3 递归函数(99)
3.5.4 嵌套函数(101)
3.5.5 高阶函数(102)
3.5.6 高阶函数的使用(104)
3.6 本章小结(108)
思考与习题(108)
第4章 Scala面向对象编程(110)
4.1 类与对象(110)
4.1.1 定义类(110)
4.1.2 创建对象(111)
4.1.3 类成员的访问(112)
4.1.4 构造函数(113)
4.1.5 常见对象类型(116)
4.1.6 抽象类与匿名类(118)
4.2 继承与多态(120)
4.2.1 类的继承(121)
4.2.2 构造函数执行顺序(124)
4.2.3 方法重写(125)
4.2.4 多态(127)
4.3 特质(trait)(128)
4.3.1 特质的使用(129)
4.3.2 特质与类(132)
4.3.3 多重继承(135)
4.4 导入和包(137)
4.4.1 包(137)
4.4.2 import高级特性(138)
4.5 本章小结(141)
思考与习题(141)
第5章 RDD编程(143)
5.1 RDD基础(143)
5.1.1 RDD的基本特征(143)
5.1.2 依赖关系(144)
5.2 创建RDD(148)
5.2.1 从已有集合创建RDD(148)
5.2.2 从外部存储创建RDD(149)
5.3 RDD操作(150)
5.3.1 Transformation操作(151)
5.3.2 Action操作(159)
5.3.3 不同类型RDD之间的转换(166)
5.4 数据的读取与保存(168)
5.5 RDD缓存与容错机制(170)
5.5.1 RDD的缓存机制(持久化)(170)
5.5.2 RDD检查点容错机制(173)
5.6 综合实例(174)
5.7 本章小结(179)
思考与习题(180)
第6章 Spark SQL(181)
6.1 Spark SQL概述(181)
6.1.1 Spark SQL架构(181)
6.1.2 程序主入口SparkSession(182)
6.1.3 DataFrame与RDD(184)
6.2 创建DataFrame(185)
6.2.1 从外部数据源创建DataFrame(185)
6.2.2 RDD转换为DataFrame(199)
6.3 DataFrame操作(203)
6.3.1 Transformation操作(204)
6.3.2 Action操作(216)
6.3.3 保存操作(219)
6.4 Spark SQL实例(220)
6.5 本章小结(226)
思考与习题(226)
第7章 Spark Streaming(228)
7.1 Spark Streaming工作机制(228)
7.1.1 Spark Streaming工作流程(228)
7.1.2 Spark Streaming处理机制(229)
7.2 DStream输入源(230)
7.2.1 基础输入源(230)
7.2.2 高级输入源(232)
7.3 DStream转换操作(233)
7.3.1 无状态转换操作(233)
7.3.2 有状态转换操作(234)
7.4 DStream输出操作(245)
7.5 Spark Streaming处理流式数据(246)
7.5.1 文件流(246)
7.5.2 RDD队列流(248)
7.5.3 套接字流(250)
7.5.4 Kafka消息队列流(251)
7.6 Spark Streaming性能调优(258)
7.6.1 减少批处理时间(258)
7.6.2 设置适合的批次大小(259)
7.6.3 优化内存使用(259)
7.7 本章小结(260)
思考与习题(260)
第8章 Spark GraphX(261)
8.1 GraphX简介(261)
8.2 GraphX图存储(262)
8.2.1 GraphX的RDD(262)
8.2.2 GraphX图分割(264)
8.3 GraphX图操作(265)
8.3.1 构建图操作(266)
8.3.2 基本属性操作(268)
8.3.3 连接操作(270)
8.3.4 转换操作(271)
8.3.5 结构操作(273)
8.3.6 聚合操作(274)
8.3.7 缓存操作(275)
8.3.8 Pregel API(276)
8.4 内置的图算法(279)
8.4.1 PageRank(279)
8.4.2 计算三角形数(282)
8.4.3 计算连通分量(284)
8.4.4 标签传播算法(285)
8.4.5 SVD+ +(286)
8.5 GraphX实现经典图算法(288)
8.5.1 Dijkstra算法(288)
8.5.2 TSP问题(291)
8.5.3 最小生成树问题(292)
8.6 GraphX实例分析(294)
8.6.1 寻找“最有影响力”论文(294)
8.6.2 寻找社交媒体中的“影响力用户”(296)
8.7 本章小结(298)
思考与习题(299)
第9章 Spark机器学习原理(300)
9.1 Spark机器学习简介(300)
9.2 ML Pipeline(301)
9.2.1 Pipeline概念(301)
9.2.2 Pipeline工作过程(302)
9.2.3 Pipeline实例(303)
9.3 Spark机器学习数据准备(310)
9.3.1 特征提取(310)
9.3.2 特征转换(314)
9.3.3 特征选择(319)
9.4 算法调优(326)
9.4.1 模型选择(326)
9.4.2 交叉验证(326)
9.4.3 TrainValidationSplit(329)
9.5 本章小结(331)
思考与习题(331)
第10章 Spark机器学习模型(332)
10.1 spark. ml分类模型(332)
10.1.1 spark. ml分类模型简介(332)
10.1.2 朴素贝叶斯分类器(333)
10.1.3 朴素贝叶斯分类器程序示例(335)
10.2 回归模型(337)
10.2.1 spark. ml回归模型简介(338)
10.2.2 线性回归(338)
10.2.3 线性回归程序示例(341)
10.3 决策树(343)
10.3.1 spark. ml决策树模型简介(343)
10.3.2 决策树分类(345)
10.3.3 决策树分类程序示例(347)
10.3.4 决策树回归(350)
10.3.5 决策树回归程序示例(354)
10.4 聚类模型(357)
10.4.1 spark. ml聚类模型简介(358)
10.4.2 K-means算法示例(360)
10.4.3 K-means程序示例(362)
10.5 频繁模式挖掘(363)
10.5.1 FP-Growth(364)
10.5.2 FP-Growth算法示例(365)
10.5.3 FP-Growth程序示例(367)
10.6 本章小结(369)
思考与习题(369)
参考文献(371)

大数据被称为“未来的新石油”,那么如何开采“新石油”是各个领域处理大数据面临的核心问题。工欲善其事,必先利其器。大数据编程为处理大数据提供了最有效的“器”,本书全面介绍了大数据编程基础。Apache Spark已经成为大数据处理的首选平台,因此本书的大数据编程将基于Spark平台进行。本书成体系地介绍了Spark大数据编程技术。

本书分为三个部分共10章,从介绍Spark 开发环境开始,再以Spark编程入门基础为承接,最后具体到每一个Spark编程组件。这三部分内容由浅入深自成体系,可以方便地学习Spark编程的每个具体知识点。

本书分为三个部分共10章,从介绍Spark 开发环境开始,再以Spark编程入门基础为承接,最后具体到每一个Spark编程组件。这三部分内容由浅入深自成体系,可以方便地学习Spark编程的每个具体知识点。

第二部分包含第3~5章,讲述了Spark编程入门基础部分,重点介绍了Scala编程基础和弹性分布式数据集(resilient distributed dataset, RDD)编程。本书采用Scala编程语言,第3章和第4章分别介绍了Scala语言基础和Scala面向对象编程。RDD是Spark对数据的核心抽象,第5章介绍了RDD编程。

第三部分包含第6~10章,讲述了Spark编程组件部分,重点介绍了Spark SQL、Spark Streaming、 Spark GraphXSpark ML四个组件的编程。其中,第6章介绍Spark SQL,它可以高效地处理结构化数据;第7章介绍了Spark Streaming,它可以高效地处理流式数据;第8章介绍了Spark GraphX,它可以高效地处理图数据;第9章和第10章介绍了Spark ML,它们分别以Spark机器学习原理和Spark机器学习模型为重点进行介绍。

本书在编写过程中力求深入浅出、重点突出、简明扼要,尽可能方便不同专业背景和知 识层次的读者阅读。本书编写过程中,中南大学研究生杜宏亮、田玲、熊帆、高俊、吕腾飞、蒋志怡、应晓婷等做了大量的资料收集整理、书稿校对等工作,在此,对这些同学的辛勤工作表示感谢。

本书配套的官方网站是http://aibigdata.csu.edu.cn,免费提供全部课件资源、源代码和数据集。相关资料也可以从中南大学出版社的网站下载。另外,本书部分内容参考了大量的公开资料和网络上的资源,对他们的工作致以衷心的感谢。需要指出的是,数据科学与大数据技术是一个全新的专业,因此编写一本完美的大数据编程教材绝非易事。由于水平有限,书中难免存在疏漏或者错误,希望广大读者不吝赐教。如有任何建议、意见或者疑问,请及时联系作者,以期在后续版本中加以改进和完善。

编者

2013年9月

随着移动互联网的兴起,全球数据呈爆炸式增长,目前90%以上的数据是近年产生的,数据规模大约每两年翻一番,而随着人工智能下物联网生态圈的形成,数据的采集、存储及分析处理、融合共享等技术需求都能得到响应,各行各业都在体验大数据带来的革命,“大数据时代”真正来临。这是一个产生大数据的时代,更是需要大数据力量的时代。大数据具有体量巨大、速度极快、类型众多、价值巨大的特点,对数据从产生、分析到利用提出了前所未有的新要求。高等教育只有转变观念,更新方法与手段,寻求变革与突破,才能在大数据与人工智能的信息大潮面前立于不败之地。据预测,中国近年来大数据相关人才缺口达200万人,全世界相关人才缺口更超过1000万人之多。我国教育部门为了适应社会发展需要,率先于2016年开始正式开设“数据科学与大数据技术”本科专业及“大数据技术与应用”专科专业,近几年,全国形成了申报与建设大数据相关专业的热潮。随着专业建设的深入,大家发现了一个共同的难题:没有成系列的大数据相关教材。中南大学作为首批申报大数据专业的学校, 2015年在我校计算机科学与技术专业设立大数据方向时,信息科学与工程学院院领导便意识到系列教材缺失的严重问题,因此院领导规划由课程团队在教学的同时积累素材,形成面向大数据专业知识体系与能力体系、老师自己愿意用、同学觉得买得值、关联性强的系列教材。经过两年的准备,针对2017年《教育部办公厅关于推荐新工科研究与实践项目的通知》的精神,中南大学出版社组织对系列教材文稿 进行相应的打磨,最终于2018年底出版“普通高等院校数据科学与大数据技术专业‘十三五'规划教材”。

该套系列教材具有如下特点:

1.本套教材主要参照“数据科学与大数据技术”本科专业的培养方案,综合考虑专业的来源,如从计算机类专业、数学统计类专业以及经济类专业发展而来,同时适当兼顾了专科类偏向实际应用的特点。

2.注重理论联系实际,注重能力培养。该系列教材中既有理论教材也有配套的实践教程,力图通过理论或原理教学、案例教学、课堂讨论、课程实验与实训实习等多个环节,训练学生掌握知识、运用知识分析并解决实际问题的能力,以满足学生今后就业或科研的需求,同时兼顾“全国工程教育专业认证”对学生基本能力的培养要求与复杂问题求解能力的要求。

3.在规范教材编写体例的同时,注重写作风格的灵活性。本套系列教材中每本书的内容都由教学目的、本章小结、思考题或练习题、实验要求等组成。每本教材都配有PPT电子教案及相关的电子资源,如实验要求及DEMO、配套的实验资源管理与服务平台等。本套系列教材的文本层次分明、逻辑性强、概念清晰、图文并茂、表达准确、可读性强,同时相关配套电子资源与教材的相关性强,形成了新媒体式的立体型系列教材。

4.响应了教育部“新工科”研究与实践项目的要求。本套教材从专业导论课开始设立相关的实验环节,作为知识主线与技术主线把相关课程串接起来,力争让学生尽早具有培养自己动手能力的意识、综合利用各种技术与平台的能力。同时为了避免新技术发展太快、教材纸质文字内容容易过时的问题,在相关技术及平台的叙述与实践中,融合了网络电子资源容易更新的特点,使新技术保持时效性。

5.本套丛书配有丰富的多媒体教学资源,将扩展知识、习题解析思路等内容做成二维码放在书中,丰富了教材内容,增强了教学互动,有利于提高学生的学习积极性与主动性。本套丛书吸纳了数据科学与大数据技术教育工作者多年的教学与科研成果,凝聚了作者们的辛勤劳动,同时也得到了中南大学等院校领导和专家的大力支持。我相信本套教材的出版,对我国数据科学与大数据技术专业本科、专科教学质量的提高将有很好的促进作用。

Baidu
map