⚫cd 命令:切换目录 (1) 切换到目录“/usr/local” (2) 切换到当前目录的上一级目录 (3) 切换到当前登录 Linux 系统的用户的自己的主文件夹 ⚫ls 命令:查看文件与目录 (4)查看目录“/usr”下的所有文件和目录 ⚫mkdir 命令:新建目录 (5)进入“/tmp”目录,创建一个名为“a”的目录,并查看“/tmp”目录下已经存在哪些目录 (6)进入“/tmp”目录,创建目录“a1/a2/a3/a4” ⚫rmdir 命令:删除空的目录 (7)将上面创建的目录 a(在“/tmp”目录下面)删除 (8)删除上面创建的目录“a1/a2/a3/a4” (在“/tmp”目录下面),然后查看“/tmp”目 录下面存在哪些目录 ⚫cp 命令:复制文件或目录 (9)将当前用户的主文件夹下的文件.bashrc 复制到目录“/usr”下,并重命名为 bashrc1 (10)在目录“/tmp”下新建目录 test,再把这个目录复制到“/usr”目录下 ⚫mv 命令:移动文件与目录,或更名 (11)将“/usr”目录下的文件 bashrc1 移动到“/usr/test”目录下 (12)将“/usr”目录下的 test 目录重命名为 test2 ⚫rm 命令:移除文件或目录 (13)将“/usr/test2”目录下的 bashrc1 文件删除 (14)将“/usr”目录下的 test2 目录删除 ⚫cat 命令:查看文件内容 (15)查看当前用户主文件夹下的.bashrc 文件内容 ⚫tac 命令:反向查看文件内容 (16)反向查看当前用户主文件夹下的.bashrc 文件的内容 ⚫more 命令:一页一页翻动查看 (17)翻页查看当前用户主文件夹下的.bashrc 文件的内容 ⚫head 命令:取出前面几行 (18)查看当前用户主文件夹下.bashrc 文件内容前 20 行 (19)查看当前用户主文件夹下.bashrc 文件内容,后面 50 行不显示,只显示前面几行 ⚫tail 命令:取出后面几行 (20)查看当前用户主文件夹下.bashrc 文件内容最后 20 行 (21)查看当前用户主文件夹下.bashrc 文件内容,并且只列出 50 行以后的数据 ⚫touch 命令:修改文件时间或创建新文件 (22)在“/tmp”目录下创建一个空文件 hello,并查看文件时间 (23)修改 hello 文件,将文件时间整为 5 天前 ⚫chown 命令:修改文件所有者权限 (24)将 hello 文件所有者改为 root 帐号,并查看属性 ⚫find 命令:文件查找 (25)找出主文件夹下文件名为.bashrc 的文件 ⚫tar 命令:压缩命令 (26)在根目录“/”下新建文件夹 test,然后在根目录“/”下打包成 test.tar.gz (27)把上面的 test.tar.gz 压缩包,解压缩到“/tmp”目录 ⚫grep 命令:查找字符串 (28)从“~/.bashrc”文件中查找字符串'examples' ⚫配置环境变量 (29)请在“~/.bashrc”中设置,配置 Java 环境变量 (30)查看 JAVA_HOME 变量的值 (二)熟悉常用的 Hadoop 操作 (31 )使用 hadoop 用户登录 Linux 系统,启动 Hadoop (Hadoop 的安装目录为 “/usr/local/hadoop”),为 hadoop 用户在 HDFS 中创建用户目录“/user/hadoop” (32)接着在 HDFS 的目录“/user/hadoop”下,创建 test 文件夹,并查看文件列表 (33)将 Linux 系统本地的“~/.bashrc”文件上传到 HDFS 的 test 文件夹中,并查看 test (34)将 HDFS 文件夹 test 复制到 Linux 系统本地文件系统的“/usr/local/hadoop”目录下
时间: 2025-07-16 11:15:46 浏览: 14
<think>嗯,用户给了很多关于Linux命令和Hadoop操作的问题,需要逐一解答。首先,我需要确认每个命令的正确用法,确保用户能够按照步骤操作。可能有些命令需要参数,比如创建多级目录要用-p选项,或者删除非空目录要用rm -r。还要注意权限问题,比如使用chown可能需要sudo权限。
接下来是Hadoop部分,用户可能已经安装好了Hadoop,但需要指导如何启动Hadoop服务,并在HDFS中创建目录。这里要强调HDFS的命令和普通Linux命令的区别,比如hdfs dfs -mkdir。上传和下载文件时,要正确使用hdfs dfs -put和-get命令,并指定路径。
有些问题可能涉及到路径是否正确,比如切换到用户主目录可以用~或者cd不带参数。另外,环境变量配置部分需要编辑.bashrc文件,并source使其生效。用户可能需要知道如何添加JAVA_HOME,并导出PATH变量。
需要检查每个步骤是否存在潜在错误,例如删除目录时是否为空,或者复制文件时是否有足够权限。还要提醒用户在使用rm命令时小心,避免误删重要文件。对于Hadoop操作,确保Hadoop服务已经正确启动,否则HDFS命令会失败。
可能用户是刚开始学习Linux和Hadoop,所以解答时要详细,步骤清晰,必要时解释命令参数的作用。例如,在创建多级目录时,解释-p的作用,或者在查找文件时说明find命令的用法。另外,对于查看文件内容的不同命令(cat, tac, more, head, tail),说明它们之间的区别和使用场景。
最后,确保所有命令示例正确无误,特别是涉及路径的地方,比如/tmp和/usr/local/hadoop等。对于tar命令的打包和解压,要正确使用参数,比如-zcvf和-zxvf。同时,在配置环境变量后,提醒用户需要重启终端或者source文件使配置生效。</think>以下是 Linux 常用命令和 Hadoop 操作的逐步解答:
---
### 一、Linux 基础操作
#### ⚫ `cd` 命令
1. `cd /usr/local`
📍 直接输入绝对路径切换
2. `cd ..`
📍 `..` 表示上级目录
3. `cd ~` 或 `cd`
📍 `~` 表示用户主目录
---
#### ⚫ `ls` 命令
4. `ls -a /usr`
📍 `-a` 显示所有文件(包括隐藏文件)
---
#### ⚫ `mkdir` 命令
5. ```bash
cd /tmp
mkdir a
ls
```
📍 创建单层目录后查看
6. `mkdir -p a1/a2/a3/a4`
📍 `-p` 参数自动创建多级目录
---
#### ⚫ `rmdir` 命令
7. `rmdir a`
📍 仅能删除空目录
8. ```bash
rmdir -p a1/a2/a3/a4 # 从最深层向上删除空目录
ls /tmp
```
📍 若目录非空需用 `rm -r`
---
#### ⚫ `cp` 命令
9. `sudo cp ~/.bashrc /usr/bashrc1`
📍 需 `sudo` 因 `/usr` 需权限
10. ```bash
mkdir /tmp/test
cp -r /tmp/test /usr
```
📍 `-r` 复制目录及内容
---
#### ⚫ `mv` 命令
11. `sudo mv /usr/bashrc1 /usr/test`
📍 移动文件到目标目录
12. `sudo mv /usr/test /usr/test2`
📍 重命名目录
---
#### ⚫ `rm` 命令
13. `sudo rm /usr/test2/bashrc1`
📍 删除文件
14. `sudo rm -r /usr/test2`
📍 `-r` 递归删除目录
---
#### ⚫ 查看文件内容
15. `cat ~/.bashrc`
16. `tac ~/.bashrc`
17. `more ~/.bashrc`
📍 按空格翻页
18. `head -n 20 ~/.bashrc`
19. `head -n -50 ~/.bashrc`
📍 排除最后50行
20. `tail -n 20 ~/.bashrc`
21. `tail -n +50 ~/.bashrc`
📍 从第50行开始显示
---
#### ⚫ `touch` 命令
22. ```bash
touch /tmp/hello
stat /tmp/hello # 查看时间属性
```
23. `touch -d "5 days ago" /tmp/hello`
---
#### ⚫ `chown` 命令
24. `sudo chown root:root /tmp/hello`
📍 修改所有者和组
---
#### ⚫ `find` 命令
25. `find ~ -name ".bashrc"`
📍 按文件名精确搜索
---
#### ⚫ `tar` 命令
26. ```bash
sudo mkdir /test
sudo tar -zcvf /test.tar.gz /test # 打包并压缩
```
27. `sudo tar -zxvf /test.tar.gz -C /tmp`
---
#### ⚫ `grep` 命令
28. `grep 'examples' ~/.bashrc`
---
#### ⚫ 环境变量配置
29. ```bash
echo 'export JAVA_HOME=/path/to/java' >> ~/.bashrc
echo 'export PATH=$JAVA_HOME/bin:$PATH' >> ~/.bashrc
source ~/.bashrc # 立即生效
```
30. `echo $JAVA_HOME`
---
### 二、Hadoop 操作
31. ```bash
su hadoop # 切换用户
/usr/local/hadoop/sbin/start-dfs.sh # 启动HDFS
hdfs dfs -mkdir -p /user/hadoop # 创建HDFS用户目录
```
32. ```bash
hdfs dfs -mkdir /user/hadoop/test
hdfs dfs -ls /user/hadoop
```
33. ```bash
hdfs dfs -put ~/.bashrc /user/hadoop/test
hdfs dfs -ls /user/hadoop/test
```
34. ```bash
hdfs dfs -get /user/hadoop/test /usr/local/hadoop/
```
---
💡 **注意事项**:
- 需要管理员权限的命令需加 `sudo`
- Hadoop 操作前确保服务已启动
- HDFS 路径需以 `hdfs://` 开头或直接使用相对路径(如 `/user/hadoop`)
阅读全文
相关推荐


















