Hadoop下hive安装配置

本文详细介绍了在虚拟机上安装和配置Hive的过程,包括环境变量设置、hive-env.sh和hive-site.xml文件的修改、mysql连接配置以及权限设置等关键步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

hive安装

确保虚拟机上有mysql
1 、将hive放入opt中

解压tar -zxf hive-1.1.0-cdh5.14.2.tar.gz

2、配置环境变量
export HIVE_PATH=/opt/hive
export PATH=$PATH:$HIVE_PATH/bin

保存退出后记得source /etc/profile 使刚刚配的环境变量生效

3、然后到hive的conf文件夹中配置

cd /opt/hive/conf
1、修改hive-env.sh文件
没有hive-env.sh文件我们要先把hive-env.sh.template改名为hive-env.sh

mv hive-env.sh.template hive-env.sh

vi hive-env.sh


export HADOOP_HOME=/opt/hadoop
export HIVE_CONF_DIR=/opt/hive/conf
export HIVE_AUX_JARS_PATH=/opt/hive/lib
export JAVA_HOME=/opt/jdk1.8.0_221/

2、我们创建hive-site.xml

vi hive-site.xml


<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
        <property>
                <name>hive.metastore.warehouse.dir</name>
                <value>hdfs://hadoop101:9000/hive/warehouse</value>
               <description>管理表存储的位置,可以是linux中的目录,也可以是相对于fs.default.name有关的目录</description>
        </property>
        <property>
                <name>hive.metastore.local</name>
                <value>false</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionURL</name>
                <value>jdbc:mysql://192.168.56.101:3306/hive?createDatabaseIfNotExist=true</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionDriverName</name>
                <value>com.mysql.jdbc.Driver</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionUserName</name>
                <value>root</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionPassword</name>
                <value>ok</value>
        </property>
</configuration>


4、 将mysql connector jar 包放到hive/bin下
5、新建/hive/warehouse 并给他赋权限
hadoop fs -mkdir /hive
hadoop fs -mkdir /hive/warehouse



hadoop fs -chmod 777 /hive
hadoop fs -chmod 777 /hive/warehouse
6、 我们就可以启动了

先初始化
schematool -dbType mysql -initSchema
然后输入hive 进入
再输入show tables; 来查看显示ok 则表示安装配置完成了

### 详细安装配置 HiveHadoop 环境中的教程 #### 一、环境准备 为了成功部署 Apache Hive,在开始之前需确认满足以下条件: - **操作系统**: Ubuntu 18.04 或更高版本, CentOS 7 及以上版本[^1]。 - **Java 开发包 (JDK)**: 需要安装 JDK 版本至少为 1.8。 - **Hadoop**: 已经正确安装并运行的 Hadoop 集群,推荐版本为 3.2.0 或兼容版本。 #### 二、安装 Java 和设置 JAVA_HOME 确保已安装最新版的 OpenJDK 或 Oracle JDK 并将其路径加入到系统的 `JAVA_HOME` 中。可以通过命令验证是否正确安装: ```bash java -version ``` 如果尚未安装,则可通过如下方式完成安装(以 Ubuntu 为例): ```bash sudo apt update && sudo apt install openjdk-8-jdk ``` 随后编辑 `/etc/profile` 文件或者 `.bashrc` 添加以下内容来定义 `JAVA_HOME` 路径: ```bash export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 export PATH=$PATH:$JAVA_HOME/bin ``` 执行 `source ~/.bashrc` 命令使更改生效。 #### 三、下载和解压 Hive 前往官方镜像站点获取最新的稳定版本 Hive (此处假设使用的是 Hive 3.1.3),然后上传至服务器或通过 wget 下载: ```bash wget https://downloads.apache.org/hive/stable/apache-hive-3.1.3-bin.tar.gz tar -xzvf apache-hive-3.1.3-bin.tar.gz mv apache-hive-3.1.3-bin /usr/local/src/hive ``` #### 四、配置 MySQL 数据库作为元存储 由于默认内存模式不适合生产环境,因此建议采用外部数据库如 MySQL 来保存表结构等元数据信息。具体操作步骤如下所示: 1. 安装 MySQL Server; 2. 创建用于 Hive 的专用用户及其权限授予; 3. 将对应的 JDBC driver 放入 Hive lib 目录下以便连接 MySQL: ```bash cp /opt/software/mysql-connector-java-5.1.46.jar /usr/local/src/hive/lib/ ``` #### 五、修改 hive-site.xml 配置文件 创建一个新的 XML 文件位于 `$HIVE_HOME/conf/` 目录中名为 `hive-site.xml`, 插入必要的参数比如 metastore URI 地址以及其它高级选项: ```xml <configuration> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://localhost:3306/metastore?createDatabaseIfNotExist=true</value> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>hive_user</value> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>password</value> </property> <!-- 更多可选属性 --> </configuration> ``` #### 六、启动 Hadoop 集群服务 因为 Hive 构建于 HDFS 上面,所以在任何查询前都得保证基础分布式文件系统处于活动状态。按照常规流程开启 NameNode 和 DataNodes : ```bash cd $HADOOP_HOME/sbin start-dfs.sh ``` 接着初始化 Metastore 表格架构并通过 CLI 测试连通性状况[^2][^3]: ```bash schematool -initSchema -dbType mysql hive --service cli ``` 此时应该能够顺利进入交互界面而没有任何错误提示消息显示出来。 --- ### 总结 上述过程涵盖了从零搭建起整个工作流所需的一切要素&mdash;&mdash;包括但不限于前期依赖项核查、核心组件编译打包分发直至最终实际运用阶段内的每一步骤细节描述均尽可能详尽无遗地呈现给读者朋友们参考学习之用[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值