从零开始实施推荐系统的落地部署——14.推荐系统案例(四)测试supervisor和建库需要注意两点

举报
wuyicom 发表于 2020/09/12 03:18:15 2020/09/12
【摘要】 1. 测试supervisorctl能否正常运行collect_click.sh脚本1. 上传数据到/user/hive/warehouse//opt/modules/hadoop/bin/hdfs dfs -put /opt/datas/backup/toutiao.db /user/hive/warehouse//opt/modules/hadoop/bin/hd...

1.       测试supervisorctl能否正常运行collect_click.sh脚本

blob.png

blob.png

1.       上传数据到/user/hive/warehouse/

/opt/modules/hadoop/bin/hdfs dfs -put /opt/datas/backup/toutiao.db /user/hive/warehouse/

/opt/modules/hadoop/bin/hdfs dfs -put -f /opt/datas/backup/profile.db /user/hive/warehouse/

(1)       hive里建立同名数据库,建立相同的表,注意字段的数据类型。

(2)       重点注意:这样就有HIVEuser_action表,并且hadoop有相应目录,但是如果想要通过spark sql 获取内容,每天每次还是要主动关联。

blob.png

blob.png

User_action埋点的表。埋点参数设计成一个固定格式的json字符串,它包含了事件发生事件、算法推荐号、获取行为的频道号、帖子id列表、帖子id、用户id、事件号字段。它的参数文件结构如下图所示:

blob.png

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。