大数据之HDFS命令行基本操作
发表于:2025-02-03 作者:千家信息网编辑
千家信息网最后更新 2025年02月03日,1、 课程简介HDFS是Hadoop大数据平台中的分布式文件系统,为上层应用或其他大数据组件提供数据存储,如Hive,Mapreduce,Spark,HBase等。本文章中所有命令均在CentOS-6
千家信息网最后更新 2025年02月03日大数据之HDFS命令行基本操作
1、 课程简介
- HDFS是Hadoop大数据平台中的分布式文件系统,为上层应用或其他大数据组件提供数据存储,如Hive,Mapreduce,Spark,HBase等。
- 本文章中所有命令均在CentOS-6.4-x86_64,hadoop-2.5.2,jdk1.8.0_152,zookeeper-3.4.11中运行通过,为减少linux权限对初学者造成影响,所有命令均在linux的root权限下进行操作。
2、理论回顾
- Hadoop技术本身包含HDFS、Map/Reduce。HDFS作海量数据存储之用;M/R作海量数据计算之用。
- HDFS包含namenode、datanode。namenode对datanode中的数据建立了索引。
- zookeeper作为协调服务,为namenode提供了高可用性。
3、基本操作
注意:"# ./hdfs dfs -ls /"命令前的"#"代表当前登录用户是root。运行路径位于hadoop目录中的bin文件夹下。命令中的"."代表当前目录。命令中涉及的info文件需要提前创建好。如下图所示:
3.1 -ls 功能:显示目录信息。
# ./hdfs dfs -ls /drwxr-xr-x - root supergroup 0 2018-07-30 00:09 /hbasedrwxr-xr-x - root supergroup 0 2018-06-23 15:22 /outputdrwx------ - root supergroup 0 2018-07-31 00:32 /tmpdrwxr-xr-x - root supergroup 0 2018-07-31 00:41 /user-rw-r--r-- 2 root supergroup 77 2018-04-22 02:34 /wordcount
3.2 -mkdir 功能:在HDFS文件系统上创建目录。
# ./hdfs dfs -mkdir /wanhe# ./hdfs dfs -ls /drwxr-xr-x - root supergroup 0 2018-07-30 00:09 /hbasedrwxr-xr-x - root supergroup 0 2018-06-23 15:22 /outputdrwx------ - root supergroup 0 2018-07-31 00:32 /tmpdrwxr-xr-x - root supergroup 0 2018-07-31 00:41 /userdrwxr-xr-x - root supergroup 0 2018-09-12 18:00 /wanhe-rw-r--r-- 2 root supergroup 77 2018-04-22 02:34 /wordcount
3.3 -put 功能:上传本地文件到HDFS指定目录。
# ./hdfs dfs -put info /wanhe# ./hdfs dfs -ls /wanhe-rw-r--r-- 2 root supergroup 38 2018-09-12 18:10 /wanhe/info
3.4 -get 功能:从hdfs下载文件到本地。
# rm -rf info# lscontainer-executor hadoop hadoop.cmd hdfs hdfs.cmd mapred mapred.cmd rcc test-container-executor yarn yarn.cmd# ./hdfs dfs -get /wanhe/info ./# lscontainer-executor hadoop hadoop.cmd hdfs hdfs.cmd info mapred mapred.cmd rcc test-container-executor yarn yarn.cmd
3.5 -rm 功能:从HDFS删除文件。
# ./hdfs dfs -rm /wanhe/info# ./hdfs dfs -ls /wanhe空
3.6 -moveFromLocal 功能:剪切本地文件到HDFS
# ./hdfs dfs -moveFromLocal info /wanhe# ./hdfs dfs -ls /wanhe-rw-r--r-- 2 root supergroup 38 2018-09-12 22:04 /wanhe/info# lscontainer-executor hadoop hadoop.cmd hdfs hdfs.cmd mapred mapred.cmd rcc test-container-executor yarn yarn.cmd
3.7 -cat 功能:显示文件内容。
# ./hdfs dfs -cat /wanhe/info jiangsuwanhe
3.8 -appendToFile 功能:在文件末尾追加数据。
# ./hdfs dfs -appendToFile info /wanhe/info # ./hdfs dfs -cat /wanhe/info jiangsuwanhe jiangsuwanhe
3.9 -chmod 功能:更改文件所属权限。
# ./hdfs dfs -ls /wanhe-rw-r--r-- 2 root supergroup 51 2018-09-12 22:13 /wanhe/info# ./hdfs dfs -chmod 777 /wanhe/info# ./hdfs dfs -ls /wanhe-rwxrwxrwx 2 root supergroup 51 2018-09-12 22:13 /wanhe/info
3.10 -cp 功能:实现文件的拷贝。
将/wanhe/info拷贝到/tmp下:# ./hdfs dfs -cp /wanhe/info /tmp/# ./hdfs dfs -ls /tmp-rw-r--r-- 2 root supergroup 51 2018-09-12 22:20 /tmp/info
3.11 -mv 功能:移动文件。
将/wanhe/info移动到 /user下# ./hdfs dfs -mv /wanhe/info /user/# ./hdfs dfs -ls /wanhe空# ./hdfs dfs -ls /user-rwxrwxrwx 2 root supergroup 51 2018-09-12 22:13 /user/info
3.12 -df 功能:统计文件系统的可用空间信息。
# ./hdfs dfs -df -h /Filesystem Size Used Available Use%hdfs://master:9000 17.5 G 352 K 11.4 G 0%
3.13 -du 功能:统计文件夹的大小信息。
# ./hdfs dfs -du /user51 /user/info
3.14 -count 功能: 统计一个指定目录下的文件数量。
# ./hdfs dfs -count /user 2 1 51 /user 第一列2表示/user/下文件夹的数量,第二列1表示/user/下文件的个数。51表示/user/目录下所有文件占用的磁盘容量(不计算副本个数)。
4、总结
HDFS中的命令行操作类似于linux命令,熟练使用linux命令便可以熟练的使用命令行操作HDFS。后面我们将连载大数据系列博客,欢迎关注和交流。
文件
功能
命令
数据
目录
信息
文件夹
权限
系统
统计
熟练
个数
代表
拷贝
数量
海量
之用
存储
移动
运行
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
如何做数据库压力测试
个人博客用什么服务器
范克瑞斯服务器晚上排队吗
软件开发中的脚本语言
现代化网络安全体系
hcip和网络安全
三菱J2服务器手动试转
网络安全实践课后题
rtx服务器配置
外包软件开发成果移交报告
天涯明月刀服务器推荐
数据库只能计算数值的函数
原平软件开发项目管理在线咨询
超低功耗windows服务器
spss免费数据库
海淀区进口软件开发单价
腾讯做软件开发吗
券商软件开发与银行软件开发
数据库增加完整约束条件
辽宁库存管理软件开发
网络安全宣传周问答陕西
软件开发著名国
数据库技术与其他技术结合
上海点礼网络技术有限公司
水晶报表数据库
远程登入服务器
万方数据库维普网
公安交警软件开发公司
雅安川农有网络安全专业吗
数据库怎么创建spl表