在Docker容器中安装jdk和spark
【摘要】 在Docker容器中安装jdk和spark1、下载jdk和spark可以使用迅雷等专业下载软件下载jdk和spark软件包,注意是linux版,这里直接给出下载地址:JDK下载地址JDK进入后,需要选择同意之后,才能下载。https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.htmlSp...
在Docker容器中安装jdk和spark
1、下载jdk和spark
可以使用迅雷等专业下载软件下载jdk和spark软件包,注意是linux版,这里直接给出下载地址:
JDK下载地址
JDK进入后,需要选择同意之后,才能下载。
https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
Spark
该地址是spark的软件包下载地址,直接下载即可。
http://mirrors.shu.edu.cn/apache/spark/spark-2.3.2/spark-2.3.2-bin-hadoop2.7.tgz
2、复制软件到centos
使用winscp软件。
3、复制jdk和spark的安装文件到容器中
# 复制jdk
$>docker cp jdk-8u191-linux-x64.tar.gz 01a25bdf1499:/root/
# 复制spark
$>docker cp spark-2.1.0-bin-hadoop2.7.tgz 01a25bdf1499:/root/
4、在容器中安装jdk和spark
4.1 安装基本软件包
docker下载的镜像文件只包含了很少的命令,像nc、nano、ping、ifconfig等软件包需要单独安装,甚至连yum软件包也没有。具体安装命令见<<Docker常见命令>>一节。
4.2 安装jdk
创建/soft文件夹,作为所有软件的安装目录
$>mkdir /soft
解压jdk的归档文件到/soft下
$>tar -xzvf jdk-8u191-linux-x64.tar.gz -C /soft/
创建jdk目录的软连接
$>cd /soft
$>ln -s jdk1.8.0_191 jdk配置环境变量文件
$>nano /etc/profile
文件中输入如下内容:
[/etc/profie]
...
# 使用软连接目录
export JAVA_HOME=/soft/jdk
export PATH=$PATH:$JAVA_HOME/bin环境变量生效
$>source /etc/profile
测试jdk的版本
$>java -version
结果如图所示:
4.3 安装spark
解压spark软件包到/soft目录
$>tar -xzvf spark-2.3.2-bin-hadoop2.7.tgz -C /soft/
创建软连接
$>ln -s spark
配置环境变量
$>nano /etc/profile
[/etc/profile]
...
export SPARK_HOME=/soft/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin使环境变量生效
$>source /etc/profile
验证spark安装是否成功
$>spark-shell
【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)