Hadoop基础概念知识(干货)

举报
王小王-123 发表于 2020/12/28 00:59:02 2020/12/28
【摘要】 话不多说我直接上干货 概念知识 安全模式是HDFS所处的一种特殊状态,在处于这种状态时,文件系统只接受读数据请求,不能对文件进行写,删除等操作。在NameNode主节点启动时,HDFS首先进入安全模式,DataNode会向NameNode上传它们数据块的列表,让NameNode得到数据块的位置信息,并对每个文件对应的数据块副本进行统计。当最小副本条件满足时,即数...

话不多说我直接上干货

在这里插入图片描述

概念知识

  1. 安全模式是HDFS所处的一种特殊状态,在处于这种状态时,文件系统只接受读数据请求,不能对文件进行写,删除等操作。
  2. 在NameNode主节点启动时,HDFS首先进入安全模式,DataNode会向NameNode上传它们数据块的列表,让NameNode得到数据块的位置信息,并对每个文件对应的数据块副本进行统计。当最小副本条件满足时,即数据块都达到最小副本数,HDFS自动离开安全模式。这样就达到了资源的最大化利用,CPU的整合利用。
  3. HDFS为每一个用户都创建了类似操作系统的回收站(Trash),位置在/user/用户名/.Trash/。当用户删除文件时,文件并不是马上被永久性删除,会被保留在回收站一段时间,这个保留的时间是可以设置的。
  4. Hdfs的快照(snapshot)是在某一时间点对指定文件系统拷贝,快照采用只读模式,可以对重要数据进行恢复、防止用户错误性的操作。快照又分为两种:(1)建立文件系统的索引,每次更新文件不会真正的改变文件,而是新开辟一个空间来保存已经更改的文件。例如hdfs也是属于这样的,而且它的特性如下:新建快照的时候,Datanode中的block不会被复制,快照中只是记录了文件块的列表和大小信息,其次每个快照最高限额为65536个文件或者文件夹,在快照的子文件夹中不允许在创建新的快照,最后mv命令和del命令是不允许的,因为快照是只读的。(2)拷贝所有文件系统。至于如何开启快照和禁用快照,外援资料显示,因为一般是禁用的。
  5. YARN的架构是主从架构,主机为ResourceManager,从机为NodeManager,其中ResourceManager负责接收客户端的作业请求以及为作业分配相应的NodeManager资源,在NodeManager启动Container资源容器,在资源容器中运行相关作业。
  6. YARN架构中的Container容器,YARN管理的资源包括内存、CPU、磁盘、IO等等。Container是YARN中资源的抽象,它封装了某个节点上的多维度资源。
  7. ResourceManger负责整个系统的资源分配和管理,是一个全局的资源管理器。主要由两个组件构成,分别是:调度器和应用程序管理器:调度器会根据资源情况为应用程序分配封装在Container中的资源,应用程序管理器负责管理整个系统中所有应用程序。
  8. NodeManager是每个节点上的资源和任务管理器。NodeManager负责的工作有如下两点:定时向ResourceManager汇报本节点上的资源使用情况和各个Container的运行状态。接收并处理来自ApplicationManager的Container启动/停止等请求。
  9. YARN中的应用是如何运行的:应用从客户端节点提交到YARN应用到资源管理器,然后资源管理查看集群里资源情况,在资源空闲的NodeManager节点启动ApplicationMaster作为管理该应用,ApplicationMaster分析计算是否有足够的资源运行任务,如果够,则自己处理;如果不够,则向资源管理器申请新的资源,当拿到新资源后,在新的资源所在的NodeManager启动资源容器,然后执行具体的作业任务。
  10. YARN调度器分为三种:FIFO Scheduler先进先出调度器,Capacity Scheduler 容器调度器,Fair Scheduler 公平调度器
  11. MapReduce框架把复杂的、运行于大规模集群上的计算过程高度抽象到两个函数Map和Reduce函数,我们只需要编写好Map和Reduce函数就能完成分布式计算。这样就是我们的分布式编程极大的简化了,帮我们隐藏了很多并行编程的细节。MapReduce最终要的策略就是分而治之的思想,比如说我们有个文件里面存的全是数字,MapReduce就会按照一定的规则把这个文件划分成一小块一小块的,然后把这些一小块的数据首先交给Map函数进行处理,然后Map函数的输出,然后作为Reduce函数的输入,Reduce处理后,然后进行输出
  12. 对于MapReduce,目前较为受欢迎的是Python为编程语言的设计语言,我们可以通过引流的方式对不同的数据进行处理。
  13. Hbase的定义是一个分布式的,面向列的数据库。
  14. Hbase与hdfs的本质区别就是HBASE可以结构化数据,而hdfs只能存储文件,对于HBASE存储数据的时候与我们的基本表有一个不同的就是,它有一个列族,而这个列族管理的列可以提高我们数据索引的效率。
  15. 一个表会包含很多行数据,每行数据都有行键,行键必须唯一,用于区分其他行,一个行中可以有很多列,这些列通过列族来分类。列族是多个列的集合。 其实列式数据库只需要列就可以了, 为什么还需要有列族呢? 因为HBase会尽量把同一个列族的列放到同一个服务器上, 这样可以提高存取性能, 并且可以批量管理有关联的一堆列。
    在这里插入图片描述

hbase操作

  1. 安全模式,查看当前的状态:hdfs dfsadmin -safemode get
  2. 进入安全模式:hdfs dfsadmin -safemode enter
  3. 强制离开安全模式:hdfs dfsadmin -safemode leave
  4. 一直等待直到安全模式结束:hdfs dfsadmin -safemode wait
    在hdfs里面输入命令,与Linux里面类似。只是需要在命令行开头加-
  5. 查看该目录下的子文件,递归查询:hdfs dfs -ls -R /home
  6. 移动文件夹或者文件:hdfs dfs -mv 源文件的位置 目标位置(如果是目录文件夹需要在后面加入/ 如果是文件则不需要)
  7. 递归删除home目录下的子文件或者子目录:hdfs dfs -rm -r /home/文件
  8. 删除目录需要把参数改为d即可
  9. 创建多级文件夹需要加-P参数,如果父目录不存在,则创建父目录
  10. 新建文件:hdfs dfs -touchz /whw/whw.txt 然后我们可以利用:hdfs dfs ls -R /whw 查看
  11. 上传文件:首先要在本地上面创建一个文件,注意这个时候不需要再touch后加z,我们创建好之后,利用:hdfs dfs -put 本地文件位置 hdfs目标位置,也可以利用:hdfs dfs -copyFromLocal 本地文件位置 hdfs目标位置
  12. 移动文件:hdfs dfs -moveFromLocal 本地文件位置 hdfs目标位置
  13. 将hdfs上的文件下载到本地位置:hdfs dfs -get hdfs的位置 本地目标位置/重命名,也可以用hdfs dfs -copyToLocal hdfs的位置 本地目标位置
  14. 查看文件:hdfs dfs -cat 文件位置
  15. 追写文件:hdfs dfs -appendToFile 本地文件 hdfs文件(两者都是相同的文件类型)
  16. Hdfs里面的文件复制:hdfs dfs -cp 源文件 复制文件 参数:-f 如果目标文件存在则强制覆盖。-p保留文件的属性,移动文件(改名文件):hdfs dfs -mv 源文件 目标文件
  17. Hdfs中的目录下的文件(不包含子目录)合并后在下载到本地:hdfs dfs -getmerge 本地文件(位置默认,不需要添加)
    HBASE命令集合
  18. 启动HBASE,进入HBASE:start-hbase.sh habse shell
  19. 查询HBASE里面含有哪些表:list(注意和hive要有所区别,不能在后面加分号)。
  20. 创建表:create ‘表名’,’列族1’,’列族2’,’列族3’
  21. 添加一个列族:alter ‘表名称’,‘列族’
  22. 删除列族:alter ‘表名称’, {NAME => ‘列族名称’, METHOD => 'delete’}
  23. 禁止使用或者屏蔽这个表:disable ‘表名称’
  24. 删除表之前必须要禁止使用这个表,所以必须先要执行上面的操作,然后:drop ‘表名称’
  25. 启用表:enable ‘表名称’
  26. 查看这个表的结构:describe ‘表名称’
  27. 检查表是否存在:exists ‘表名称’
  28. 添加数据:put ‘表名称’,’行键’,’列族:列名1,列名2……’,‘数据1,数据2……’在这里我们就可以理解为是一个二维表,也就是Excel类似的,一行一列确定一个单元格
  29. 查询数据:get ‘表名称’,‘行键’
  30. 删除数据:delete ‘表名称’,‘行键’,‘列名称’这样就确定了一个数据集
  31. 删除一行数据:delete ‘表名称’,‘行键’
  32. 查看表中的记录数:count ‘表名称’
  33. 查看整张表:scan ‘表名称’(类似于MySQL里面的select)
  34. 扫描整个列族:scan ‘表名称’, {COLUMN=>‘列族’}
  35. 扫描一张表里面某个列的所有数据:scan ‘表名称’,{COLUMNS=>‘列族名:列名称’}
  36. 限制查询结果行数:scan ‘表名称’, { STARTROW => ‘rowkey1’, LIMIT=>行数, VERSIONS=>版本数}
  37. 等值过滤:scan ‘表名称’, FILTER=>"ValueFilter(=,‘binary:某值’)"过滤改值
    HBASE实验操作
  38. 首先将本地数据文件上传到hdfs:hdfs dfs -put(copyFromLocal) /home/hadoop/ matchinfo.csv /lol
  39. 在执行次命令前,必须要在hdfs上创建一个lol文件夹;hdfs dfs -mkdir /lol
  40. 启动hbase 进入hbase:start-hbase.sh hbase shell
  41. 创建表和列族:create ‘lol_match’,’info’
  42. 导入数据到hbase中:
    hbase org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.separator=, -Dimporttsv.columns=“info:League,info:Year,info:Season,info:Type,info:blueTeamTag,info:bResult,info:rResult,info:redTeamTag,info:gamelength,info:blueTop,info:blueTopChamp,info:blueJungle,info:blueJungleChamp,info:blueMiddle,info:blueMiddleChamp,info:blueADC,info:blueADCChamp,info:blueSupport,info:blueSupportChamp,info:redTop,info:redTopChamp,info:redJungle,info:redJungleChamp,info:redMiddle,info:redMiddleChamp,info:redADC,info:redADCChamp,info:redSupport,info:redSupportChamp,HBASE_ROW_KEY” lol_match /lol/matchinfo.csv

每文一语

懂得越多才发现,不多的太多了

文章来源: blog.csdn.net,作者:王小王-123,版权归原作者所有,如需转载,请联系作者。

原文链接:blog.csdn.net/weixin_47723732/article/details/111658522

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。