使用DLI Flink SQL进行电商实时业务数据分析的操作感想

举报
wuyicom 发表于 2021/08/04 22:52:07 2021/08/04
【摘要】     参加华为云大数据分析7天训练营,学习《第四章 项目实践:使用DLI Flink SQL进行电商实时业务数据分析》,除了根据操作文档步骤和https://bbs.huaweicloud.com/blogs/269814(使用DLI Flink SQL进行电商实时业务数据分析)的操作博客来做,还可以根据自己现有的服务器,搭建mysql和kafka来减少实验的操作费用。    1.虽然已经...

1.png

    参加华为云大数据分析7天训练营,学习《第四章 项目实践:使用DLI Flink SQL进行电商实时业务数据分析》,除了根据操作文档步骤和https://bbs.huaweicloud.com/blogs/269814(使用DLI Flink SQL进行电商实时业务数据分析)的操作博客来做,还可以根据自己现有的服务器,搭建mysqlkafka来减少实验的操作费用。

    1.虽然已经部署了k8s,但是因NFS存储有点问题,为了避免麻烦部署docker版的mysql,但是要特别注意mysql5.7的版本,要mysql:5.7.30以上的版本才能支持arm64,如果是之前的版本会报下面的错误。

2.png

还有记得把mysql容器的文件/etc/mysql/mysql.conf.d/mysqld.cnf拷贝出来,修改字符如下:

[mysqld]

character_set_server=utf8

[client]

default-character-set=utf8

修改完成后拷贝到容器的相关目录里,记得要重启mysql容器。

    2.部署docker版的kafka,经过mysql的经验,要找支持arm64dockerkafka

    2.1先部署支持arm64zookeeper,命令如下:

docker pull pi4k8s/k8szk:v3.4.14

docker run -itd --name zookeeper -p 2181:2181 -e ZK_REPLICAS=1 -e ZK_HEAP_SIZE=512M --hostname=zk-1 -v /opt/moudles/zookeeper/data:/var/lib/zookeeper -v /opt/moudles/zookeeper/log:/var/log/zookeeper pi4k8s/k8szk:v3.4.14 /bin/bash -c "/usr/bin/zkGenConfig.sh && /usr/bin/zkServer.sh start-foreground"

    2.2部署支持arm64kafka

docker pull iecedge/cp-kafka-arm64:5.0.1

docker run -d --name=kafka -p 1099:1099 -p 9092:9092 -e KAFKA_BROKER_ID=1 -e KAFKA_ZOOKEEPER_CONNECT=192.168.0.146:2181 -e KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://192.168.0.146:9092 -e KAFKA_JMX_PORT=1099 -e KAFKA_JMX_HOSTNAME=192.168.0.146 -e KAFKA_OFFSETS_TOPIC_REPLICATION_FACTOR=1 -e KAFKA_HEAP_OPTS="-Xmx512M -Xms512M" -v /opt/moudles/kafka/data:/var/lib/kafka/data iecedge/cp-kafka-arm64:5.0.1

    2.3部署完后,下载kafka的源码包:

cd /opt/softwares

wget  https://archive.apache.org/dist/kafka/2.3.0/kafka_2.12-2.3.0.tgz

tar zxf /opt/softwares/kafka_2.12-2.3.0.tgz -C /opt/modules/

cd /opt/modules/kafka_2.12-2.3.0/bin

    2.4 创建topic

./kafka-topics.sh --create --zookeeper 192.168.0.146:2181 --replication-factor 1 --partitions 1 --topic trade_order

    2.5查看创建topic的数目

./kafka-topics.sh --list --zookeeper 192.168.0.146:2181

    2.6 kafka生产者

./kafka-console-producer.sh --broker-list 192.168.0.146:9092 --topic trade_order

    2.7 kafka消费者

./kafka-console-consumer.sh --bootstrap-server 192.168.0.146:9092 --topic trade_order --from-beginning

3.png

4.png

    3.在根据手册添加IP地址:192.168.0.146即可,就是在DLV大屏链接数据库的时候,要特别注意的是填写连接代理时,选择CDNDGC-default_xXlycHxY,会默认找到mysql数据库。就会成功连接mysql

5.png

6.png

    制作好的大屏,可以点击发布,获得分享链接:https://console.huaweicloud.com/dlv/vision/share/?id=5b8f49d4f11f4de594a4717c3ff4f634&locale=zh-cn&region=cn-north-4如图所示:

7.png

    通过学习和操作使用DLI Flink SQL进行电商实时业务数据分析,了解到DLIDLV不但可以支持华为云上的mysqlkafka产品,还支持在弹性云服务器搭建mysqlkafka。之前以为docker版的软件可以跨任何平台使用,但是通过这一次在鲲鹏服务器上搭建dockermysqlkafka,才知道对于cupX86arm还是有区别。

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。