查表空间大小,方式如下:
1,跳转到ssh hdp_name@10.111.111.1 ,
2,查询hadoop fs -du -s -h /home/hdp_name/warehouse/hdp_name_defaultdb.db/table_name
(1)-help:输出这个命令参数
bin/hdfs dfs -help rm
(2)-ls: 显示目录信息
hadoop fs -ls /数据研发工程师/专家
(3)-mkdir:在hdfs上创建目录
hadoop fs -mkdir -p /hdfs路径[[[[[[
(4)-moveFromLocal从本地剪切粘贴到hdfs
hadoop fs - movelinux命令omLoc有一个人方法$al本地路径/hdfs路径
(5)--appendToFile :
追加一个文件到已经存在的文件末尾
hadoop fs -appendToFile 本地路径 /hdfs路径
(6)-cat :显示文件内容
hadoop fs -cat /hdfs路径
(7)-tail -f:监控文件
hadoop fs -tail -f /hdfs路径
(8)-chmod、-chown:
linux文件系统中的用法一样,
修改文件所属权限
hadoop fs -chmod 777 /hdfs路径
hadoop fs -chown someuser:somegrp /hdfs路径
(9)-cp:从hdfs的一个路径拷贝到hdfs的另一个路径
hadoop fs -cp /hdfs路径1 / hdfs路径2
(10)-mv:在hdfs目录中移动/重命名文件
hadoop fs -mv /hdfs路径 / hdfs路径
(11)-get:等同于copyToLocal,
就是从hdfs下载文件到本地
hadoop fs -get / hdfs路径 /本地路径
(12)-getmerge :
合并下载多个文到linux本地,
比如hdfs的目录 /aaa/下有多
hadoop fs -getmerge /aaa/log.* ./log.sum1
合成到不同的目录:
hadoop fs -getmerge /hdfs1路径/hdfs2路径/
(13)-put:等同于copyFromLocal
hadoop fs -put /本地路径/hdfs路径
(14)-rm:删除文件或文件夹
hadoop fs -rm -r /hdfs路径
(15)-df :统计文件系统的可用空间信息
hadoop fs -df -h / hdfs路径
(16)-du统计文件夹的大小信息
hadoop fs -du -s -h / hdfs路径
hadoop fs -du -h / hdfs路径
(17)-count:统计一个指定目录下的文件节点数量
hadoop fs -count /aaa/
hadoop fs -count / hdfs路径
(18)-setrep:设置hdfs中文件的副本数量:
3是副本数,可改
hadoop fs -setrep 3 / hdfs路径
Hive压参数
hive.exec.compress.output 设置是否压缩
mapreduce.output.fileoutputformat.compress.codec 设置压缩Reduce类型输出
hive.intermediate.compression.codec 设置中间Map压缩类型
可选类型:
org.apache.hadoop.io.compress.DefaultCodec
org.apache.hadoop.io.compress.GzipCodec
org.apache.hadoop.io.compress.BZip2Codec
com.hadoop.compression.lzo.LzoCodec
org.apache.hadoop.io.compress.Lz4Codec
org.apache.hadoop.io.compress.SnappyCodec
- desc formatted 表名: 查看该表的结构化数据,但并不列出表中的数据
- SHOW CREATE table dataplat_wstream_catalog.hdp_fin_ba_lakehouse.ods_aplus_logs_day 建立表信息