Spark Shell
【摘要】 Spark shell操作Spark通过RDD算子进行的部分shell操作val mytxt1 = sc.textFile("file:///root/sp")val mytxt2 = mytxt.flatMap(item => item.split(" "))val mytxt3 = mytxt2.map(item => (item,1))val mytxt4 = mytxt3.reduc...
Spark shell操作
Spark通过RDD算子进行的部分shell操作
val mytxt1 = sc.textFile("file:///root/sp")
val mytxt2 = mytxt.flatMap(item => item.split(" "))
val mytxt3 = mytxt2.map(item => (item,1))
val mytxt4 = mytxt3.reduceByKey((curr, agg)=> curr + agg)
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)