第一关:Hive的安装与配置 任务描述 本关任务:在已安装Hadoop 的基础上安装配置好Hive 并运行。 相关知识 为了完成本关任务,你需要掌握: 1.Hive 的基本安装; 2.Mysql 的安装与设置; 3.Hive 的配置。 **注意:**本关实训Hive 的安装与配置建立在Hadoop 已安装配置好的情况下。 Hive 的基本安装 从 官网 下载Hive 二进制包,不过这里你无须再从网上下载,我已经帮你下载好了放在/opt 目录下。 进入/opt 目录,解压apache-hive-3.1.0-bin.tar.gz 到该目录下,并将解压的文件重命名为hive ; cd /opt
tar -zxvf apache-hive-3.1.0-bin.tar.gz
mv apache-hive-3.1.0-bin hive 设置环境变量,编辑此命令,在末尾添加以下两行代码; vi /etc/profile
export HIVE_HOME=/opt/hive
export PATH=$HIVE_HOME/bin:$PATH source /etc/profile 上面命令使环境生效; 查看hive 是否安装成功: hive --version 出现hive 版本就说明安装成功,但是可以看到其中有一些警告信息,是由于包的冲突引起的。我们只需删除掉引起冲突的包即可: rm /opt/hive/lib/log4j-slf4j-impl-2.10.0.jar Mysql 的安装与设置 平台已安装MySQL 数据库,同学们在本地没有安装可以采用以下命令进行安装: sudo apt-get install mysql-server #安装mysql服务
apt-get install mysql-client #安装mysql客户端
sudo apt-get install libmysqlclient-dev #安装相关依赖环境 注意:安装过程中会提示设置密码什么的,不要忘了设置。 安装完成之后可以使用如下命令来检查是否安装成功。 sudo netstat -tap | grep mysql 通过上述命令检查之后,如果看到有MySQL 的socket 处于listen 状态则表示安装成功。 Hive 需要数据库来存储metastore 的内容,因此我们需要配置一下MySQL 数据库。 下载mysql 驱动; 我已经帮你下载好放在/opt 目录下,此命令进入该目录并进行以下操作: cd /opt
tar -zxvf mysql-connector-java-5.1.45.tar.gz
cd mysql-connector-java-5.1.45
cp mysql-connector-java-5.1.45-bin.jar /opt/hive/lib/ 接下来介绍MySQL 为Hive 做的设置。 使用root 用户登录MySQL 数据库; mysql -uroot -p123123 -h127.0.0.1 创建数据库实例hiveDB ; create database hiveDB; 创建用户bee ,密码为123123 ; create user 'bee'@'%' identified by '123123'; 授权用户bee 拥有数据库实例hiveDB 的所有权限; grant all privileges on hiveDB.* to 'bee'@'%' identified by '123123'; 刷新系统权限表。 flush privileges;
quit --退出 Hive 的配置 在/opt/hive/conf 目录下,修改hive-site.xml 和hive-env.sh 两个文件。 hive-site.xml hive-site.xml 保存Hive 运行时所需要的相关配置信息。
- 如果目录下没有该文件,我们直接创建一个:
vi hive-site.xml ,将以下内容复制到其中(按i 进入编辑模式后再进行粘贴)。 <?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<!-- WARNING!!! This file is auto generated for documentation purposes ONLY! -->
<!-- WARNING!!! Any changes you make to this file will be ignored by Hive. -->
<!-- WARNING!!! You must make your changes in hive-site.xml instead. -->
<!-- Hive Execution Parameters -->
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/opt/hive/warehouse</value>
</property>
<property>
<name>hive.exec.scratchdir</name>
<value>/opt/hive/tmp</value>
</property>
<property>
<name>hive.querylog.location</name>
<value>/opt/hive/logs</value>
</property>
<property>
<name>hive.server2.thrift.port</name>
<value>10000</value>
</property>
<property>
<name>hive.server2.thrift.bind.host</name>
<value>localhost</value>
</property>
<property>
<name>hive.server2.enable.doAs</name>
<value>true</value>
</property>
<property>
<name>hive.session.id</name>
<value>false</value>
</property>
<property>
<name>hive.session.silent</name>
<value>false</value>
</property>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/hiveDB?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>bee</value>
<!-- 这里是之前设置的数据库 -->
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<!-- 这里是数据库密码 -->
<value>123123</value>
</property>
</configuration> 完成后,在命令行模式(按 Esc ),输入:wq 保存退出。 hive-env.sh 由于Hive 是一个基于Hadoop 分布式文件系统的数据仓库架构,主要运行在 Hadoop 分布式环境下,因此,需要在文件hive-env.sh 中指定Hadoop 相关配置文件的路径,用于Hive 访问HDFS (读取fs.defaultFS 属性值)和 MapReduce (读取mapreduce.jobhistory.address 属性值)等Hadoop 相关组件。如果目录下没有该文件,我们就以模板复制一个: cp hive-env.sh.template hive-env.sh
vi hive-env.sh 打开文件,在文件末尾添加变量指向 Hadoop 的安装路径: HADOOP_HOME=/usr/local/hadoop #在本地环境安装,要根据自己hadoop的路径来确定 需要执行初始化命令: schematool -dbType mysql -initSchema 编程要求 请仔细阅读左侧文档知识点,根据提示,在右侧命令行区域进行 Hive 环境搭建,具体任务如下:
- 根据上述步骤完成
Hive 的安装与配置 - 然后在命令行
start-dfs.sh 启动 Hadoop - 点击测评,验证
hive 是否成功安装配置。 测试说明 补充完代码后,点击测评,平台会对你编写的代码进行测试,当你的结果与预期输出一致时,即为通过。 第二关:Hive Shell入门基础命令 Hive Shell运行在Hadoop集群环境上,是Hive提供的命令行接口(CLI),在Hive提示符输入HiveQL命令,Hive Shell把HQL查询转换为一系列MapReduce作业对任务进行并行处理,然后返回处理结果。 为了完成本关任务,你需要掌握:Hive Shell常用命令 。 Hive Shell 常用命令 注意:Hive命令必须以分号;结束。 启动 Hive Shell: hive; 出现hive> 说明启动成功。
|