从零开始实施推荐系统的落地部署——10.大数据平台的搭建遇到问题和解决方法(二)

举报
wuyicom 发表于 2020/08/31 02:31:05 2020/08/31
【摘要】 配置好spark,启动spark-sql出现下面情况:把所有程序都关闭,重新启动,发现stan1,stan2的启动没提示报错,关闭却是没进程,经查看,原来是之前的关闭程序有50010,50020,50075,8485还被暂用导致。(在以前虚拟机采用的是最小linux系统安装,不会出现这种情况)。还有出现zkfc也没有进程。需要重新格式化namenode,并且先删除current。经过以上步骤...

配置好spark,启动spark-sql出现下面情况:

blob.png

blob.png

blob.png

把所有程序都关闭,重新启动,发现stan1,stan2的启动没提示报错,关闭却是没进程,经查看,原来是之前的关闭程序有5001050020500758485还被暂用导致。(在以前虚拟机采用的是最小linux系统安装,不会出现这种情况)。还有出现zkfc也没有进程。需要重新格式化namenode,并且先删除current

blob.png

经过以上步骤:hadoophdfs能正常运行。但是spark2.2.2按照以前的步骤还是出错。更换spark2.3.4版本后,正常运行。之前的版本应该是jar包冲突问题。这个问题后面有时间再排查原因。

blob.png

blob.png

blob.png

大数据平台基本框架终于搭建完成,可以进一步学习推荐系统


【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。