《Spark数据分析:基于Python语言 》 —1.2.6 Spark中的RDD

举报
华章计算机 发表于 2020/02/12 17:12:31 2020/02/12
【摘要】 本节书摘来自华章计算机《Spark数据分析:基于Python语言 》 一书中第1章,第1.2.6节,作者是[澳] 杰夫瑞·艾文(Jeffrey Aven) ,王道远 译。

1.2.6 Spark中的RDD

整本书都会涉及Spark的弹性分布式数据集(RDD),因此有必要现在介绍它。Spark里的RDD是Spark应用的基本的数据抽象结构,是Spark与其他计算框架的主要区别之一。Spark里的RDD可以看作集群上的分布式内存数据集。使用Spark core API编写的Spark程序包括如下过程:读取输入数据到RDD中,把RDD转化为后续RDD,然后从产出的最终RDD中获取应用的最终输出,并存储或者展示出来。(看不明白的话也不必担心……本书后面几章会有很详细的介绍!)


【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。