从零开始实施推荐系统的落地部署——11.推荐系统案例(一)环境的部署遇到的问题

举报
wuyicom 发表于 2020/09/03 02:01:29 2020/09/03
【摘要】 昨天完成python依赖包的安装:(在hadoop各几点安装miniconda2),没注意到hadoop的环境情况,今天发现使用jps除了mas节点的2台云主机可以查看hadoop状态,其他stan无显示,但是可以在hbase插入数据,而且通过hive和spark可以查询。使用spark-sql --master yarn 查询数据正常,查看任务调用也正常Hbase的监控任务也正常:关闭hb...

昨天完成python依赖包的安装:(在hadoop各几点安装miniconda2),没注意到hadoop的环境情况,今天发现使用jps除了mas节点的2台云主机可以查看hadoop状态,其他stan无显示,但是可以在hbase插入数据,而且通过hivespark可以查询。

blob.png

blob.png

blob.png

blob.png

blob.png

blob.png

blob.png

使用spark-sql --master yarn 查询数据正常,查看任务调用也正常

blob.png

Hbase的监控任务也正常:

blob.png

关闭hbase,stan节点提示:

blob.png

关闭yarnhdfs,提示:

blob.png

blob.png

重新启动hdfs,发现所有stan节点没有显示datanode进程,关闭hdfs后发现5001050020500758485端口被占用导致。(上一次是只有stan1stan2出现这种情况,现在是所以的stan都出现)

blob.png

再启动hbase,hivespark,一切正常。

奇怪之处是之前stan5个节点使用jps没有hadoop的所有进程,关闭时也提示没有相关进程,但是它在关闭前能正常写入数据和查询数据,而且数据不丢失。关闭系统上的一个python脚本,继续跟踪看一下是不是还出现着用情况。


【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。