《Spark数据分析:基于Python语言 》 —2.3 获取Spark

举报
华章计算机 发表于 2020/02/12 18:13:39 2020/02/12
【摘要】 本节书摘来自华章计算机《Spark数据分析:基于Python语言 》 一书中第2章,第2.3节,作者是[澳] 杰夫瑞·艾文(Jeffrey Aven) ,王道远 译。

2.3 获取Spark

要把Spark安装到特定系统上,最简单的方式是使用正式版的Spark下载包。正式版Spark的包可以在http://spark.apache.org/downloads.html下载到。这些下载包是跨平台的。Spark运行在JVM环境中,而JVM是平台无关的。

你也可以选择使用Spark官方网站上提供的编译指令,下载Spark源码并自行编译,不过这种方式稍显复杂。

如果你要下载Spark的正式版,你应该选择带Hadoop支持的编译版本,如图2.2所示。为了避免望文生义,需要澄清的是带有Hadoop支持的Spark并没有包含Hadoop本身。这些包里面只是包含了用于集成Hadoop集群与所列Hadoop发行版的库。不论是否在Hadoop上使用Spark, Hadoop里的许多类在运行时都是需要的。

 image.png

图2.2 下载正式版的Spark

使用不带Hadoop支持的编译版本

如果你想以独立集群模式部署Spark,并且不用Hadoop的话,可能会受下载页面误导下载不带Hadoop支持的版本,或者用户自行提供Hadoop的版本,也就是文件名类似“spark- x.x.x-bin-without-hadoop.tgz”的包。这种命名容易误导人,这种包其实需要很多在Hadoop中实现的类已经在系统中存在。总的来说,一般情况下最好还是下载spark-x.x.x-bin-hadoopx.x这样的带Hadoop编译的包。

Spark一般也会在Hadoop的大多数商业发行版中提供,包括如下所列这些:

Cloudera的Hadoop发行版(CDH)。

Hortonworks数据平台(Hortonworks Data Platform,HDP)。

MapR融合数据平台(MapR Converged Data Platform)。

另外,在主流的云服务厂商提供的托管Hadoop架构中都包含Spark,比如AWS的EMR服务、谷歌的Cloud Dataproc服务,以及微软的Azure HDInsight。

如果你已有现成的Hadoop环境,那么可能已经有了入门所需的一切,可以跳过后面几节关于安装Spark的部分。


【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。