N.1 HA启动和停止命令
以下命令都在$HADOOP_HOME/sbin下,如果直接使用,记得配置环境变量 | |
hdfs动态新增节点的刷新命令 |
hdfs dfsadmin -refreshNodes |
YARN动态新增节点的刷新命令 |
yarn rmadmin -refreshNodes |
启动/停止历史服务器 |
mr-jobhistory-daemon.sh start|stop historyserver |
启动/停止总资源管理器RM |
yarn-daemon.sh start|stop resourcemanager |
启动/停止节点管理器 |
yarn-daemon.sh start|stop nodemanager |
hdfs全部 启动/停止 Namenode(nn)和 Datanode(Dn) (Secondarynamenode也包括) |
start|stop-dfs.sh (启动集群和关闭集群只能在主节点上使用该命令,才能产生效果) |
yarn全部 启动/停止 RN 和 NM ResourceManager(rm)、 NodeManager(nm)、 |
start|stop-yarn.sh (启动集群和关闭集群只能在主节点上使用该命令,才能产生效果) |
hdfs和yarn 全部 启动/停止 NN、DN、RN、NM |
start|stop-all.sh 注意 :在关闭虚拟机的时候,一定要关闭这些进程, 不然很容易会出错吴。 |
hdfs的单一 启动/停止 NN |
hadoop-daemon.sh start|stop namenode |
hdfs的单一 启动/停止 DN |
hadoop-daemon.sh start|stop datanode |
用于启动所有节点的DN数据节点 |
hadoop-daemons.sh start datanode |
查看是否Active nn1/nn2/ 为自定义名字,是可先的。 |
hdfs haadmin -getServiceState nn1/nn2 |
将[nn1]切换为Active,这个只能使用在手工的高可用,自动高可用不能使用 |
bin/hdfs haadmin -transitionToActive nn1 |
启动或关闭单一的zkfc,在集群里面哪个节点先启动zkfc,就成为active状态。 JournalNode (共享edit的进程) DFSZKFailoverController(ZK客户端) 这两耳都会启动 |
sbin/hadoop-daemon.sh start|stop zkfc |
启动或关闭所有的的zkfc |
sbin/hadoop-daemons.sh start|stop zkfc |
启动或关闭QuorumPeerMain( zookeeper进程) |
zkServer.sh start|stop |
启动journalnode服务(edit的共享有数据的守护进程) |
sbin/hadoop-daemon.sh start|stop journalnode |
快速启动HA高可用。 |
(1)执行步骤zkServer.sh start(使用xshell发起会话窗口)。 (2)在start-all.sh(也可以分开启动) (3)备份的yarn不会启动,所以要单独启动 yarn-daemon.sh start resourcemanager |
查看是否Active rm1/rm2 为自定义名字,是可先的。 |
bin/yarn rmadmin -getServiceState rm1/rm2 |