大数据技能竞赛之Spark搭建(五)

本文详细介绍了如何在三个节点上搭建Spark集群,包括安装Scala软件包、配置环境变量、安装Spark软件包、修改配置文件指定主节点,以及启动和检查集群状态。确保节点间免密通信并逐项执行每个步骤是成功的关键。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

以下操作除特殊说明外都在三个节点上操作。

注意:操作前务必使三台虚拟机可以互相免密通信!

一、安装Scala软件包

使用xftp将软件包上传至三台虚拟机的/usr/package文件夹下

创建工作目录

mkdir -p /usr/scala

解压缩

cd /usr/package
tar -zxvf scala-2.12.12.tgz -C /usr/scala

配置环境变量

vi /etc/profile

加入以下内容

保存后退出,使环境变量生效

source /etc/profile

 检验是否安装成功

scala -version

出现以下界面则为安装成功

二、安装Spark软件包

使用xftp将软件包上传至三台虚拟机的/usr/package文件夹下

创建工作目录

mkdir -p /usr/spark

解压缩

cd /usr/package
tar -zxvf spark-3.0.3-bin-hadoop2.7.tgz
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值