linux配置jdk

本文主要介绍了Spark与Hadoop相关的环境搭建步骤。包括创建用户、配置密码和权限,安装ssh并设置密匙,以及安装jdk,涵盖解压、配置环境变量等操作,还给出了验证jdk安装是否成功的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

                   linux配置jdk

1.创建用户
sudo useradd - m spark -s/bin/bash
创建了新用户spark
2.配置密码
sudo passwd spark
3.给用户设置权限
sudo adduser spark sudo
在这里插入图片描述4 利用chown设置权限
sudo chown -R hadoop /opt
用户目录授权将opt的拥有者为hadoop5.安装ssh
(1)安装命令
sudo apt-get install openssh-server
(2)登录本机
ssh localhost
(3)设置密匙
ssh-keygen -t rsa在这里插入图片描述(4)将公匙密码导入认证文件中authorized_keys
$ cat ./id_rsa.pub >> ./authorized_keys
在这里插入图片描述6.安装jdk
(1)解压
sudo mkdir -p /opt/java
创建目录java
sudo tar -xvzf jdk-8u171-linux-64.tar.gz -C /opt/java
大家可以根据需求改成自己实际解压的位值(2)查看路径
pwd
在这里插入图片描述(3)配置环境变量
sudo vim ~/.bashrc
使用vim编译器进行编译
Export JVAVA_HOME=/opt/java/jdk1.8.0_171 ##自己jdk的位置
Export CLASSPATH=JAVAHOME/lib/ExportPATH=JAVA_HOME/lib/ Export PATH=JAVAHOME/lib/ExportPATH=JAVA_HOME/bin:PATHExportPATHJAVAHOMECLASSPATH在多套jdk环境下配置必须将PATH Export PATH JAVA_HOME CLASSPATH 在多套jdk环境下配置必须将PATHExportPATHJAVAHOMECLASSPATHjdkPATH放在后面
(4)让环境变量生效
source ~/.bashrc
(5)验证是否成功
$ echo $JAVA_HOME
$ java –version (在任何目录下查看Java版本)
$ $Jjava_home/lib/java –version (在jdk安装目录下查看jdk版本)
当在任何目录下查看的结果与在jdk安装目录下查看的结果相同时安装成功
在这里插入图片描述

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值