2021年大数据Spark(十):环境搭建集群模式 Spark on YARN

举报
Lansonli 发表于 2021/09/29 01:00:34 2021/09/29
【摘要】 目录 环境搭建-Spark on YARN 注意事项 Spark On Yarn的本质? Spark On Yarn需要啥? 总结: 修改配置 修改spark-env.sh 整合历史服务器并关闭资源检查 整合Yarn历史服务器并关闭资源检查 配置spark历史服务器 修改spark-env.sh 设置日志级别 ...

目录

环境搭建-Spark on YARN

注意事项

Spark On Yarn的本质?

Spark On Yarn需要啥?

总结:

修改配置

修改spark-env.sh

整合历史服务器并关闭资源检查

整合Yarn历史服务器并关闭资源检查

配置spark历史服务器

修改spark-env.sh

设置日志级别

配置依赖Spark Jar包

启动服务


环境搭建-Spark on YARN

Spark运行在YARN上是有2个模式的, 1个叫 Client模式 一个叫Cluster模式

Spark On Yarn - Cluster模式

 

Spark On Yarn - Client模式

 

Yarn是一个成熟稳定且强大的资源管理和任务调度的大数据框架,在企业中市场占有率很高,意味着有很多公司都在用Yarn,将公司的资源交给Yarn做统一的管理!并支持对任务做多种模式的调度,如FIFO/Capacity/Fair等多种调度模式!

所以很多计算框架,都主动支持将计算任务放在Yarn上运行,如Spark/Flink

企业中也都是将Spark Application提交运行在YANR上,文档: http://spark.apache.org/docs/2.4.5/running-on-yarn.html#launching-spark-on-yarn

 

注意事项

Spark On Yarn的本质?

将Spark任务的class字节码文件打成jar包,提交到Yarn的JVM中去运行

Spark On Yarn需要啥?

1.需要Yarn集群:已经安装了

2.需要提交工具:spark-submit命令--在spark/bin目录

3.需要被提交的jar:Spark任务的jar包(如spark/example/jars中有示例程序,或我们后续自己开发的Spark任务)

4.需要其他依赖jar:Yarn的JVM运行Spark的字节码需要Spark的jar包支持!Spark安装目录中有jar包,在spark/jars/中

 

总结:

SparkOnYarn

不需要搭建Spark集群

只需要:Yarn+单机版Spark(里面有提交命令,依赖jar,示例jar)

当然还要一些配置

 

修改配置

当Spark Application运行到YARN上时,在提交应用时指定master为yarn即可,同时需要告知YARN集群配置信息(比如ResourceManager地址信息),此外需要监控Spark Application,配置历史服务器相关属性。

 

修改spark-env.sh

cd /export/server/spark/conf

vim /export/server/spark/conf/spark-env.sh

添加内容


  
  1. ## HADOOP软件配置文件目录,读取HDFS上文件和运行YARN集群
  2. HADOOP_CONF_DIR=/export/server/hadoop/etc/hadoop
  3. YARN_CONF_DIR=/export/server/hadoop/etc/hadoop

同步


  
  1. cd /export/server/spark/conf
  2. scp -r spark-env.sh root@node2:$PWD
  3. scp -r spark-env.sh root@node3:$PWD

 

整合历史服务器并关闭资源检查

整合Yarn历史服务器并关闭资源检查

在【$HADOOP_HOME/etc/hadoop/yarn-site.xml】配置文件中,指定MRHistoryServer地址信息,添加如下内容,

在node1上修改

cd /export/server/hadoop/etc/hadoop

vim /export/server/hadoop/etc/hadoop/yarn-site.xml

添加内容


  
  1. <configuration>
  2.     <!-- 配置yarn主节点的位置 -->
  3.     <property>
  4.         <name>yarn.resourcemanager.hostname</name>
  5.         <value>node1</value>
  6.     </property>
  7.     <property>
  8.         <name>yarn.nodemanager.aux-services</name>
  9.         <value>mapreduce_shuffle</value>
  10.     </property>
  11.     <!-- 设置yarn集群的内存分配方案 -->
  12.     <property>
  13.         <name>yarn.nodemanager.resource.memory-mb</name>
  14.         <value>20480</value>
  15.     </property>
  16.     <property>
  17.         <name>yarn.scheduler.minimum-allocation-mb</name>
  18.         <value>2048</value>
  19.     </property>
  20.     <property>
  21.         <name>yarn.nodemanager.vmem-pmem-ratio</name>
  22.         <value>2.1</value>
  23.     </property>
  24.     <!-- 开启日志聚合功能 -->
  25.     <property>
  26.         <name>yarn.log-aggregation-enable</name>
  27.         <value>true</value>
  28.     </property>
  29.     <!-- 设置聚合日志在hdfs上的保存时间 -->
  30.     <property>
  31.         <name>yarn.log-aggregation.retain-seconds</name>
  32.         <value>604800</value>
  33.     </property>
  34.     <!-- 设置yarn历史服务器地址 -->
  35.     <property>
  36.         <name>yarn.log.server.url</name>
  37.         <value>http://node1:19888/jobhistory/logs</value>
  38.     </property>
  39.     <!-- 关闭yarn内存检查 -->
  40.     <property>
  41.         <name>yarn.nodemanager.pmem-check-enabled</name>
  42.         <value>false</value>
  43.     </property>
  44.     <property>
  45.         <name>yarn.nodemanager.vmem-check-enabled</name>
  46.         <value>false</value>
  47.     </property>
  48. </configuration>

由于使用虚拟机运行服务,默认情况下YARN检查机器内存,当内存不足时,提交的应用无法运行,可以设置不检查资源

 

在yarn-site.xml 中添加proxyserver的配置,可以让点击applicationmaster的时候跳转到spark的WEBUI上。


  
  1. <property>
  2. <name>yarn.web-proxy.address</name>
  3. <value>node1:8089</value>
  4. </property>

 

同步


  
  1. cd /export/server/hadoop/etc/hadoop
  2. scp -r yarn-site.xml root@node2:$PWD
  3. scp -r yarn-site.xml root@node3:$PWD

 

配置spark历史服务器

进入配置目录

cd /export/server/spark/conf

修改配置文件名称

mv spark-defaults.conf.template spark-defaults.conf

vim spark-defaults.conf

添加内容:


  
  1. spark.eventLog.enabled                  true
  2. spark.eventLog.dir                      hdfs://node1:8020/sparklog/
  3. spark.eventLog.compress                 true
  4. spark.yarn.historyServer.address        node1:18080

 

修改spark-env.sh

进入配置目录

cd /export/server/spark/conf

修改配置文件

vim spark-env.sh

增加如下内容:


  
  1. ## 配置spark历史服务器地址
  2. SPARK_HISTORY_OPTS="-Dspark.history.fs.logDirectory=hdfs://node1:8020/sparklog/ -Dspark.history.fs.cleaner.enabled=true"

注意:sparklog需要手动创建

hadoop fs -mkdir -p /sparklog

 

设置日志级别

进入目录

cd /export/server/spark/conf

修改日志属性配置文件名称

mv log4j.properties.template log4j.properties

改变日志级别

vim log4j.properties

修改内容如下:

 

同步


  
  1. cd /export/server/spark/conf
  2. scp -r spark-env.sh root@node2:$PWD
  3. scp -r spark-env.sh root@node3:$PWD
  4. scp -r spark-defaults.conf root@node2:$PWD
  5. scp -r spark-defaults.conf root@node3:$PWD
  6. scp -r log4j.properties root@node2:$PWD
  7. scp -r log4j.properties root@node3:$PWD

 

配置依赖Spark Jar包

当Spark Application应用提交运行在YARN上时,默认情况下,每次提交应用都需要将依赖Spark相关jar包上传到YARN 集群中,为了节省提交时间和存储空间,将Spark相关jar包上传到HDFS目录中,设置属性告知Spark Application应用。


  
  1. ## hdfs上创建存储spark相关jar包目录
  2. hadoop fs -mkdir -p /spark/jars/
  3. ## 上传$SPARK_HOME/jars所有jar包
  4. hadoop fs -put /export/server/spark/jars/* /spark/jars/

spark-defaults.conf中增加Spark相关jar包位置信息:

在node1上操作

vim /export/server/spark/conf/spark-defaults.conf

添加内容


  
  1. spark.yarn.jars  hdfs://node1:8020/spark/jars/*

同步


  
  1. cd /export/server/spark/conf
  2. scp -r spark-defaults.conf root@node2:$PWD
  3. scp -r spark-defaults.conf root@node3:$PWD

 

启动服务

Spark Application运行在YARN上时,上述配置完成

启动服务:HDFS、YARN、MRHistoryServer和Spark HistoryServer,命令如下:


  
  1. ## 启动HDFS和YARN服务,在node1执行命令
  2. start-dfs.sh
  3. start-yarn.sh
  4. start-all.sh
  5. ## 启动MRHistoryServer服务,在node1执行命令
  6. mr-jobhistory-daemon.sh start historyserver
  7. ## 启动Spark HistoryServer服务,,在node1执行命令
  8. /export/server/spark/sbin/start-history-server.sh
  9. ## 启动Yarn的ProxyServer服务
  10. /export/server/hadoop/sbin/yarn-deamon.sh start proxyserver

Spark HistoryServer服务WEB UI页面地址:

http://node1:18080/

文章来源: lansonli.blog.csdn.net,作者:Lansonli,版权归原作者所有,如需转载,请联系作者。

原文链接:lansonli.blog.csdn.net/article/details/115587523

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。