链接:https://pan.baidu.com/s/17RUi3Rpu5q4YqJpaw4Zbbg
提取码:d88l
1、首先在主节点master上启动hadoop
进入以下目录:
/usr/local/softwares/hadoop-2.7.2/sbin
执行以下命令,启动hadoop:
./start-all.sh
2、用jps命令查看三个节点的所有进程:
确认hadoop的进程在三个节点上全部启动
3、再在主节点master上启动spark
进入以下目录:/usr/local/softwares/spark-2.3.2-bin-hadoop2.7/sbin
执行以下命令,启动spark:
./start-all.sh
4、用jps命令查看三个节点的所有进程:
确认spark的进程在三个节点上全部启动,master节点多了 master、worker进程;
Master
Salves1