一、Linux版
安装环境:三台已配置完毕的虚拟机(网络、网关、localhost、密钥、防火墙等)
spark压缩包(.tgz)官方下载链接放在下面这里用spark-3.0.0(虚拟机)举例。
Apache Archive 分发目录https://archive.apache.org/dist/spark/
1、安装lrzsz
在刚配置好的虚拟机中没有主机与客户端进行数据互传的软件,需要自己安装,可以使用xftp(Windows软件)或rzsz(Linux中软件),软件选择因人而异,这里举例用rzsz安装。
使用yum安装
yum install lrzsz
接下来等待自行安装完毕即可(后面会让你确认是否安装,按y回车即可)
2、导入压缩包
在虚拟机中输入“rz”指令,随后在弹出的对话框中找到自己在Windows中下载好的spark压缩包(需要提前进入自己准备好的放置安装包的文件夹再进行“rz”命令)
3、解压
tar zxvf spark-3.0.0-bin-hadoop3.2.tgz
使用上面命令来解压压缩包
4、重命名(选做)
因为解压后名字太长可以使用“mv”命令来更改文件夹名称
5、启动spark
进入解压好的spark文件夹,启动spark
接下来就可以使用了,也可以在自己电脑的浏览器里输入网址进行Web UI监控页面进行访问(默认端口为4040)输入自己设定好的虚拟机ip:4040即可进入。
6、退出spark
利用键盘上的ctrl+c或者输入quit即可退出
扯一嘴:spark在Linux端里除了这种安装还有另一种(在Linux端里的Hadoop下安装),由于那种方法过于复杂就不在这里说了,网上一群教程都可以看(我就为了交作业所以才不写那么详细)
二、Windows版
1、下载解压安装包
与Linux不同,Linux下载就能用,而Windows里还需要多配置一个环境变量(不如Linux方便但是好操作)(都看这篇文章了肯定会玩电脑)
同样以spark-3.0.0为例,直接在电脑里你喜欢的位置解压缩(路径不能有中文)(用的是同一个压缩包)
2、改名(选做)
只是为了好看,反正可以复制粘贴
3、添加环境变量
在桌面上找到此电脑右击/属性,使劲往下有个高级系统设置
在弹出的对话框里点击下面的新建
如果不想写或者路径太长可以点“浏览目录”自己去找已经压缩好的spark文件夹,然后点击确定。
随后找到系统变量里的path
双击打开后右边有个新建输入%SPARK_HOME%\bin输入完后点击确定
现在Windows端就已经配置到尾声了,重要的一点,依次点击确定来退出环境变量!通俗来讲就是可劲确定确定确定!
4、验证安装
按下win+r,在弹出的对话框里输入cmd(以防有人不知道win键长什么样就列举一下类似长这样,在你键盘的左下角,就是这个图标!)
随后再在弹出的对话框里输入spark-shell
显示这个就表示安装成功了。