很抱歉,我无法直接在Word中进行操作,但我可以为你详细地解释Hadoop安装和配置的步骤,你可以根据这些步骤在Word中进行记录和整理。 以下是Hadoop安装和配置的主要步骤,你可以按照这个顺序在Word中创建文档: ### 一、实验一 Hadoop安装 #### 1. 实验目的 - 安装Hadoop #### 2. 实验任务与要求 - 安装Hadoop #### 3. 实验步骤 ##### (1)创建hadoop用户 - 打开终端窗口,输入命令创建新用户: ``` sudo useradd -m hadoop -s /bin/bash ``` - 设置密码: ``` sudo passwd hadoop ``` - 增加管理员权限: ``` sudo adduser hadoop sudo ``` - 注销当前用户,登录hadoop用户。 ##### (2)更新apt - 登录hadoop用户后,更新apt: ``` sudo apt-get update ``` - 若出现“Hash校验和不符”的提示,更改软件源: - 打开【系统设置】,选择【软件和更新】 - 选择【其他节点】,选择【mirrors.aliyun.com】 - 点击【重新载入】 - 安装vim: ``` sudo apt-get install vim ``` ##### (3)安装SSH、配置SSH无密码登陆 - 安装SSH server: ``` sudo apt-get install openssh-server ``` - 配置SSH无密码登陆: ``` ssh-keygen -t rsa cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys ``` ##### (4)安装Java环境 - 手动安装JDK1.8: - 下载JDK文件到虚拟机 - 解压到`/usr/lib/jvm`目录: ``` cd /usr/lib sudo mkdir jvm cd ~ sudo tar -zxvf ./jdk-8u371-linux-x64.tar.gz -C /usr/lib/jvm
时间: 2025-06-05 10:28:38 浏览: 21
### Hadoop 安装和配置步骤详解
#### 创建专用用户
为了安全性和权限管理的目的,推荐为 Hadoop 创建一个专门的系统用户账户。这可以通过以下命令实现[^1]:
```bash
sudo addgroup hadoop
sudo adduser --ingroup hadoop hduser
```
#### 更新APT包索引
在正式安装之前,确保系统的软件仓库是最新的非常重要。这样可以减少因依赖关系不匹配而导致的问题:
```bash
sudo apt-get update
```
#### SSH无密码登录配置
Hadoop 单节点伪分布模式需要通过 SSH 进行内部通信。因此,设置无密码 SSH 登录至关重要。以下是具体操作方法[^4]:
##### 生成SSH密钥对
如果尚未存在,则应首先生成一对公私钥用于身份认证:
```bash
su - hduser
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 0600 ~/.ssh/authorized_keys
```
##### 测试SSH连接
尝试以新创建的hduser用户身份进行无密码登录测试:
```bash
ssh localhost
exit
```
#### Java环境配置
由于 Hadoop 是基于 Java 开发的应用框架,所以正确地安装并配置好 JDK 至关重要。以下是具体的步骤说明[^3]:
##### 下载与解压JDK
假设已经下载好了 jdk-8uXXX-linux-x64.tar.gz 文件至当前目录下, 执行下面指令完成初始准备工作:
```bash
tar zxvf jdk-8uXXX-linux-x64.tar.gz -C /usr/lib/jvm/
```
##### 设置全局变量
编辑用户的 shell profile 文件来加入必要的路径声明:
```bash
echo 'export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_XXX' | tee -a ~/.profile
echo 'export PATH=$JAVA_HOME/bin:$PATH' | tee -a ~/.profile
source ~/.profile
java -version
```
#### 解压Hadoop压缩包
将预先准备好的 Hadoop 压缩包放置于合适的位置之后展开它,并赋予适当的所有权给先前建立起来的那个特殊用途账号[^1]:
```bash
sudo tar -zxvf hadoop-X.Y.Z.tar.gz -C /usr/local/
mv /usr/local/hadoop-X.Y.Z /usr/local/hadoop
chown -R hduser:hadoop /usr/local/hadoop
```
#### 修改Hadoop配置文件
进入刚刚安置完毕后的 Hadoop 主目录下的 etc 子目录里找到几个关键性的 XML 格式的设定文档逐一加以修正适配实际状况所需参数值:
##### core-site.xml
```xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
```
##### hdfs-site.xml
```xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
```
##### mapred-site.xml (复制模板后修改)
```xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
```
##### yarn-site.xml
```xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
```
#### 启动Hadoop服务
当所有的前期准备工作都已完成以后就可以着手启动整个生态系统的服务组件了。切换回刚才那个专属的操作员角色再依次发出如下所示的一系列控制台指令[^1]:
```bash
/usr/local/hadoop/sbin/start-dfs.sh
/usr/local/hadoop/sbin/start-yarn.sh
jps
```
---
阅读全文