大数据全栈课心得与总结
经历了三个阶段大概三个月的学习,大数据全栈课程迎来了尾声,今天是大数据三阶段的最后一天,也是整个大数据课程的最后一天。这三个月的学习过程,并不是一帆风顺,而且一路荆棘。
第一阶段:大数据入门篇
第一阶段的课程主要是大数据的入门知识,包括MySQL基本知识、各种概念和常用语句、JDBC的使用还有数据库事务等等,虽然是基础知识,但是非常实用,在开发中会经常用到,基本上就是对数据库的各种使用。第一阶段也是我最为顺畅的阶段,能够跟上课程节奏,最后完成考核。
第二阶段:Hadoop篇
第二阶段的课程主要是Hadoop的学习,包括Hadoop的介绍、源码编译、HDFS、MapReduce,最后用实战案例来巩固。在学习第二阶段之前,我对Hadoop的了解仅仅在于知道名字、用于大数据,其他一无所知,加上正好处于过年时期,对于Hadoop的学习充满了困惑和抵触,平时基本上没有去学习,到了阶段结束才去学习,但是充满了各种困惑,中间放弃了好多次,总体来说第二阶段duiyuHadoop的学习非常浅。
第三阶段:Spark学习篇
第三阶段的课程是Spark的学习,包括SparkCore、SparkSQL、SparkStreaming。不知不觉中到了第三阶段,带着困惑去学习Spark,在课程刚刚开始的时候,觉得Spark非常有意思,因为此时在工作中遇到了,一边学习一边应用在工作中,还是非常的开心,但是学到一半的时候,遇到了困惑,一度想要放弃,有很多东西听的云里雾里,甚至想去理解都很难,咬咬牙坚持下来,可惜的是当时没把困惑的地方给记下来。
三个阶段的学习,给我在大数据领域有了新的认知,从无到有,虽然三个月的时间不能让自己完全学会大数据,希望自己在接下来的时间里,不断地去学习、去应用,学海无涯苦作舟,向着前进的脚步大步走去。
- 点赞
- 收藏
- 关注作者
评论(0)