JDK 的安装配置

1)打开一个 Linux 终端,在其中执行以下命令,将 JDK 解压缩到/usr/local 目录中,

并创建一个软链接指向 JDK 目录(相当于 Windows 的快捷方式)。

2)修改/etc/profile 文件,在其中添加有关 JDK 的环境变量设置。

)保存退出 vi 编辑器,回到 Linux 终端测试一下 JDK 的配置是否正常。如果出现以下

信息,说明 JDK 的配置是正确的,JDK 的安装也就完成了。

4)JDK 安装完毕,最好重新启动一下 Ubuntu20.04 虚拟机,这样设置的环境变量就会

在 Linux 系统全局生效。

2.Linux 免密登录

1)继续在 Linux 终端窗体中执行以下命令,因为远程登录服务 sshd 已经在运行,因此

先在本机通过 ssh 命令执行一下远程连接,测试一下是否正常。

  1. 通过 ssh-keygen 生成免密登录所需的密钥信息。
  2. 3)通过 ssh-copy-id 命令,可以把本地主机的公钥复制到远程主机的 authorized_keys

    文件上,以便双方连接通信时使用。

  3.  4)在本机通过 ssh 命令再次执行一下远程连接,测试一下是否能够免密登录,正常的

    话此时就不再需要输入密码,ssh 就能够连接成功。

  4. 2)将解压的 hadoop-2.6.5 目录的用户和组权限设一下,方便启动 Hadoop 的时候能够

    完全控制这个目录,避免因为文件的访问权限导致出现问题

  1. 测试 Hadoop 是否能够正常使用

    4.HDFS 的配置

    1)切换到 Hadoop 的配置文件目录,先修改其中的 hadoop-env.sh 运行环境文件,找到

    里面的 JAVA_HOME 变量。Hadoop 没有使用 Linux 操作系统设置的 JAVA_HOME 环境变量,而

    是内部重新定义了一个 JAVA_HOME,所以就要告知 Hadoop 所依赖的 JDK 安装位置

  2.  2)修改 Hadoop 核心配置文件 core-site.xml,在里面增加 HDFS 地址端口和临时工作

    目录信息。

    修改 HDFS 设置文件 hdfs-site.xml,指定 NameNode 和 DataNode 的数据保存位置。

    其中,NameNode 负责文件系统管理,DataNode 负责数据存储。

  3.  4)最后查看一下 slaves 配置文件的内容,这个文件中有运行 DateNode 进程的节点信息。这里配置的是单节点,里面默认就是 localhost 即本机,故不用任何修改。

5)配置文件修改完毕,首次运行之前还要初始化 HDFS 的文件系统,相当于平时的磁盘

格式化操作,这个工作只执行一次。如果要重新初始化,应先清除相关目录中的内容(HDFS

存储过的数据会丢失),否则执行会失败

6)接下来启动 HDFS 服务程序,执行过程中会分别运行 NameNode、SecondaryNameNode

以及 DataNode 进程

7)使用 jps 命令查看 HDFS 的进程是否正常运行,Java 进程列表中应有 NameNode、

DataNode、SecondaryNameNode 这三个程序在运行,就说明 HDFS 启动正常。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值