hadoopHA启动和停止命令

N.1 HA启动和停止命令

以下命令都在$HADOOP_HOME/sbin下,如果直接使用,记得配置环境变量

hdfs动态新增节点的刷新命令

hdfs dfsadmin -refreshNodes

YARN动态新增节点的刷新命令

yarn rmadmin -refreshNodes

启动/停止历史服务器

mr-jobhistory-daemon.sh start|stop historyserver

启动/停止总资源管理器RM

yarn-daemon.sh start|stop resourcemanager

启动/停止节点管理器

yarn-daemon.sh start|stop nodemanager

hdfs全部 启动/停止

Namenode(nn)和 Datanode(Dn)

(Secondarynamenode也包括)

start|stop-dfs.sh

(启动集群和关闭集群只能在主节点上使用该命令,才能产生效果)

yarn全部 启动/停止 RN 和 NM

ResourceManager(rm)、

NodeManager(nm)、

start|stop-yarn.sh

(启动集群和关闭集群只能在主节点上使用该命令,才能产生效果)

hdfs和yarn 全部 启动/停止

NN、DN、RN、NM

start|stop-all.sh

注意 :在关闭虚拟机的时候,一定要关闭这些进程,

不然很容易会出错吴。

hdfs的单一 启动/停止 NN

hadoop-daemon.sh start|stop namenode

hdfs的单一 启动/停止 DN

hadoop-daemon.sh start|stop datanode

用于启动所有节点的DN数据节点

hadoop-daemons.sh start datanode

查看是否Active

nn1/nn2/ 为自定义名字,是可先的。

hdfs haadmin -getServiceState nn1/nn2

将[nn1]切换为Active,这个只能使用在手工的高可用,自动高可用不能使用

bin/hdfs haadmin -transitionToActive nn1

启动或关闭单一的zkfc,在集群里面哪个节点先启动zkfc,就成为active状态。

JournalNode (共享edit的进程)

DFSZKFailoverController(ZK客户端) 这两耳都会启动

sbin/hadoop-daemon.sh start|stop zkfc

启动或关闭所有的的zkfc

sbin/hadoop-daemons.sh start|stop zkfc

启动或关闭QuorumPeerMain(

zookeeper进程)

zkServer.sh start|stop

启动journalnode服务(edit的共享有数据的守护进程)

sbin/hadoop-daemon.sh start|stop journalnode

快速启动HA高可用。

(1)执行步骤zkServer.sh start(使用xshell发起会话窗口)。

(2)在start-all.sh(也可以分开启动)

(3)备份的yarn不会启动,所以要单独启动

yarn-daemon.sh start resourcemanager

查看是否Active rm1/rm2 为自定义名字,是可先的。

bin/yarn rmadmin -getServiceState rm1/rm2

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

研发咨询顾问

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值