1)打开一个 Linux 终端,在其中执行以下命令,将 JDK 解压缩到/usr/local 目录中,
并创建一个软链接指向 JDK 目录(相当于 Windows 的快捷方式)。
2)修改/etc/profile 文件,在其中添加有关 JDK 的环境变量设置。
)保存退出 vi 编辑器,回到 Linux 终端测试一下 JDK 的配置是否正常。如果出现以下
信息,说明 JDK 的配置是正确的,JDK 的安装也就完成了。
4)JDK 安装完毕,最好重新启动一下 Ubuntu20.04 虚拟机,这样设置的环境变量就会
在 Linux 系统全局生效。
2.Linux 免密登录
1)继续在 Linux 终端窗体中执行以下命令,因为远程登录服务 sshd 已经在运行,因此
先在本机通过 ssh 命令执行一下远程连接,测试一下是否正常。
- 通过 ssh-keygen 生成免密登录所需的密钥信息。
-
3)通过 ssh-copy-id 命令,可以把本地主机的公钥复制到远程主机的 authorized_keys
文件上,以便双方连接通信时使用。
-
4)在本机通过 ssh 命令再次执行一下远程连接,测试一下是否能够免密登录,正常的
话此时就不再需要输入密码,ssh 就能够连接成功。
-
2)将解压的 hadoop-2.6.5 目录的用户和组权限设一下,方便启动 Hadoop 的时候能够
完全控制这个目录,避免因为文件的访问权限导致出现问题
- 测试 Hadoop 是否能够正常使用
4.HDFS 的配置
1)切换到 Hadoop 的配置文件目录,先修改其中的 hadoop-env.sh 运行环境文件,找到
里面的 JAVA_HOME 变量。Hadoop 没有使用 Linux 操作系统设置的 JAVA_HOME 环境变量,而
是内部重新定义了一个 JAVA_HOME,所以就要告知 Hadoop 所依赖的 JDK 安装位置
-
-
2)修改 Hadoop 核心配置文件 core-site.xml,在里面增加 HDFS 地址端口和临时工作
目录信息。
修改 HDFS 设置文件 hdfs-site.xml,指定 NameNode 和 DataNode 的数据保存位置。
其中,NameNode 负责文件系统管理,DataNode 负责数据存储。
-
4)最后查看一下 slaves 配置文件的内容,这个文件中有运行 DateNode 进程的节点信息。这里配置的是单节点,里面默认就是 localhost 即本机,故不用任何修改。
5)配置文件修改完毕,首次运行之前还要初始化 HDFS 的文件系统,相当于平时的磁盘
格式化操作,这个工作只执行一次。如果要重新初始化,应先清除相关目录中的内容(HDFS
存储过的数据会丢失),否则执行会失败
6)接下来启动 HDFS 服务程序,执行过程中会分别运行 NameNode、SecondaryNameNode
以及 DataNode 进程
7)使用 jps 命令查看 HDFS 的进程是否正常运行,Java 进程列表中应有 NameNode、
DataNode、SecondaryNameNode 这三个程序在运行,就说明 HDFS 启动正常。