
Hadoop
爱程序的小姚
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
HBase单机与分布式搭建
解压,重命名,环境变量 1. tar -zxvf2. mv 3. vi ~/.bash_profile export HBASE_HOME=/usr/local/src/hbase export PATH=$HBASE_HOME/bin:$PATH4. 刷新环境变量 source ~/.bash_profile 修改hbase-env.sh文件 单机1. cd hbase/conf 2. vi hbase-env.sh 修 export JA..原创 2021-08-06 15:23:22 · 149 阅读 · 0 评论 -
Flume搭建与Kafka分布式搭建
Flume搭建:解压,重命名,环境变量 1. tar -zxvf2. mv 3. vi ~/.bash_profile export FLUME_HOME=/usr/local/src/flume export PATH=$FLUME_HOME/bin:$PATH4. 刷新环境变量 source ~/.bash_profile 修改flume-env.sh文件 1. cd hive/conf 2. cp flume-env.sh.template flume..原创 2021-08-06 15:15:49 · 223 阅读 · 0 评论 -
Hadoop集群MySQL搭建
卸载本机自带的MySQL(mariadb) 1. rpm - qa|grep mariadb2. rpm -qa|grep java(补充:卸载本机自带的openjdk)3. rpm -e --nodeps ......... 安装commeon包 1. rpm -ivh --nodeps --force mysql-community-common-5.7.28-1.el7.x86_64.rpm2. rpm -ivh --nodeps --force mysql-comm..原创 2021-08-06 15:06:15 · 214 阅读 · 0 评论 -
Hadoop集群Sqoop组件的搭建
解压,重命名,环境变量 1. tar -zxvf2. mv 3. vi ~/.bash_profile export SQOOP_HOME=/usr/local/src/sqoop export PATH=$SQOOP_HOME/bin:$PATH4. source ~/.bash_profile 修改sqoop.env.sh 1. cd sqoop/conf2. vi sqoop.env.sh 修export HADOOP_COMMON_H..原创 2021-08-06 15:01:35 · 297 阅读 · 0 评论 -
Centos7Hadoop伪分布式
参照Hadoop包里面的share的doc的离线文档 解压 重命名 环境变量 1. tar -zxvf 解压包名(jdk的包,hadoop包)2. mv 文件名 重命名3. vi /etc/profile(环境变量对所有用户有效)vi ~/.bash_profile(只对当前用户有效) export JAVA_HOME=/usr/local/src/jdk export HADOOP_HOME=/usr/local/src/hadoop exp原创 2021-08-05 19:36:43 · 126 阅读 · 0 评论 -
Centos7&Hadoop分布式
参照Hadoop包里面的share的doc的离线文档 解压 重命名 环境变量 1. tar -zxvf 解压包名(jdk的包,hadoop包)2. mv 文件名 重命名3. vi /etc/profile(环境变量对所有用户有效)vi ~/.bash_profile (只对当前用户有效) export JAVA_HOME=/usr/local/src/jdk export HADOOP_HOME=/usr/local/src/hadoop ex原创 2021-08-05 19:49:39 · 117 阅读 · 0 评论 -
Hadoop集群Hive组件搭建
说明,安装时一定是基于Hadoop集群 解压,重命名,环境变量 1. tar -zxvf2. mv 3. vi ~/.bash_profile export HIVE_HOME=/usr/local/src/hive export PATH=$HIVE_HOME/bin:$PATH 修改hive-env.sh文件 1. cd hive/conf 2. cp hive-env.sh.template hive-env.sh3. vi hive-env.原创 2021-08-06 14:48:17 · 232 阅读 · 0 评论 -
Centos7HadoopHA高可用搭建
参照Hadoop包里面的share的doc的离线文档说明:这里搭建HA时一并把分布式zookeeper分布式spark一并搭建了,以三台主机为主 master slave1slave2 解压 重命名 环境变量 1. tar -zxvf 解压包名(jdk的包,hadoop包,zookeeper包,spark包)2. mv 文件名 重命名3. vi /etc/profile(环境变量对所有用户有效)vi ~/.bash_profile(只对当前用户有效) export .原创 2021-08-06 14:24:39 · 168 阅读 · 0 评论