Hadoop_HDFS(二):Shell操作之文件的管理(上传下载删除等)

举报
川川菜鸟 发表于 2022/09/02 00:48:47 2022/09/02
【摘要】 文章目录 一、命令查看二、实操2.1 前提2.2 help查看2.3 创建文件夹 三、上传文件3.1 moveFromLocal3.2 copyFromLocal3.3 put3.4 app...


基本语法

一、命令查看

查看所有命令,相当于help:

cd bin/
hadoop fs

  
 
  • 1
  • 2

如下:
在这里插入图片描述
再看下这个命令

hdfs dfs

  
 
  • 1

如下:
在这里插入图片描述
可见一样的。

二、实操

2.1 前提

前提是启动了集群,执行脚本即可:

myhadoop.sh start

  
 
  • 1

也或者分别再102和104执行:

start-dfs.sh
start-yarn.sh

  
 
  • 1
  • 2

这里不多说,前面已经讲过。大部分命令其实和Linux差不多。

2.2 help查看

查看cat命令语法:

hadoop fs -help cat

  
 
  • 1

如下:
在这里插入图片描述

2.3 创建文件夹

这里创建sanguo文件夹:

hadoop fs -mkdir /sanguo

  
 
  • 1

浏览器查看:
在这里插入图片描述

三、上传文件

3.1 moveFromLocal

创建一个文件:

vim shuguo.txt

  
 
  • 1

如下:
在这里插入图片描述
演示:
在这里插入图片描述
上传(该命令相当于剪切再上传到文件夹):

hadoop fs -moveFromLocal ./shuguo.txt  /sanguo

  
 
  • 1

可以看到目录它不存在了(剪切掉了):
在这里插入图片描述
浏览器查看sanguo:
在这里插入图片描述
打开:
在这里插入图片描述

3.2 copyFromLocal

再来介绍另一个命令。先创建一个文件:

vim weiguo.txt

  
 
  • 1

内容如下:
在这里插入图片描述
上传:

hadoop fs -copyFromLocal ./weiguo.txt /sanguo

  
 
  • 1

演示如下:
在这里插入图片描述
内容打开:
在这里插入图片描述
两个命令区别:

  1. copyFromLocal命令,复制本地的上传到HDFS,不会删除本地
  2. moveFromLocal命令,剪切(删除)本地上传HDFS,会删除本地

3.3 put

再来介绍put命令,它等同于 copyFromLocal命令,这个跟简约。创建文本:

 vim wuguo.txt

  
 
  • 1

内容如下:
在这里插入图片描述

上传:

 hadoop fs -put ./wuguo.txt /sanguo

  
 
  • 1

演示:
在这里插入图片描述
浏览器查看:
在这里插入图片描述

3.4 appendToFile

这个命令用于追加内容到文件。创建新的脚本:

vim chuan.txt

  
 
  • 1

内容如下:
在这里插入图片描述
把该文件内容追加到shuguo.txt文件中:

hadoop fs -appendToFile ./chuan.txt  /sanguo/shuguo.txt

  
 
  • 1

如果你报错,请看这篇文章:Failed to replace a bad datanode on the existing pipeline due to no more good datanodes being avail
如下:
在这里插入图片描述

浏览器查看:
在这里插入图片描述

四、下载

4.1 copyToLocal

该命令从 HDFS 拷贝到本地。例如把shuguo.txt拷贝到当前文件夹:

hadoop fs -copyToLocal /sanguo/shuguo.txt ./

  
 
  • 1

如下:
在这里插入图片描述

4.2 get

该命令与上一个一样,生产环境更常用 get。

例如下载wuguo.txt到本地并更名为wu.txt:

hadoop fs -get /sanguo/wuguo.txt  ./wu.txt

  
 
  • 1

如下:
在这里插入图片描述

五、HDFS直接操作

5.1 查看目录

查看根目录:

hadoop fs -ls /

  
 
  • 1

查看目录某个文件夹内容:

hadoop fs -ls /sanguo

  
 
  • 1

如下:
在这里插入图片描述

5.2 查看文件内容

用cat:

hadoop fs -cat /sanguo/wuguo.txt

  
 
  • 1

如下:
在这里插入图片描述

5.3 创建文件夹

hadoop fs -mkdir /test

  
 
  • 1

如下:
在这里插入图片描述

5.4 权限管理

在这里插入图片描述
目标:修改sanguo里面文件的权限
在这里插入图片描述

使用chmod方法:修改为只能读

hadoop fs -chmod 444 /sanguo/wuguo.txt

  
 
  • 1

如下:
在这里插入图片描述
chmod语法:
在这里插入图片描述

5.5 移动文件

例如:把wuguo.txt移动到test文件夹

hadoop fs -mv /sanguo/wuguo.txt  /test

  
 
  • 1

如下:
在这里插入图片描述
在这里插入图片描述

5.6 删除文件

用rm删除文件或者文件夹。

例如:删除test文件夹下面的wuguo.txt

hadoop fs  -rm  /test/wuguo.txt

  
 
  • 1

如下:
在这里插入图片描述
在这里插入图片描述

文章来源: chuanchuan.blog.csdn.net,作者:川川菜鸟,版权归原作者所有,如需转载,请联系作者。

原文链接:chuanchuan.blog.csdn.net/article/details/126574194

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。