《Spark数据分析:基于Python语言 》 —1.2.6 Spark中的RDD
【摘要】 本节书摘来自华章计算机《Spark数据分析:基于Python语言 》 一书中第1章,第1.2.6节,作者是[澳] 杰夫瑞·艾文(Jeffrey Aven) ,王道远 译。
1.2.6 Spark中的RDD
整本书都会涉及Spark的弹性分布式数据集(RDD),因此有必要现在介绍它。Spark里的RDD是Spark应用的基本的数据抽象结构,是Spark与其他计算框架的主要区别之一。Spark里的RDD可以看作集群上的分布式内存数据集。使用Spark core API编写的Spark程序包括如下过程:读取输入数据到RDD中,把RDD转化为后续RDD,然后从产出的最终RDD中获取应用的最终输出,并存储或者展示出来。(看不明白的话也不必担心……本书后面几章会有很详细的介绍!)
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)