- 将hive_home/conf下面的hive-site.xml拷贝到spark_home/conf下面
- 将hadoop_home/etc/hadoop下面的hdfs-site.xml和core-site.xml拷贝到spark_home/conf下面
- 在拷贝到spark_home/conf所在节点上以local模式启动spark-sql
- 如果hive的metastore是mysql数据库,需要将mysql驱动放到spark_home/jars目录下面
- 开发环境:在项目中创建文件夹conf,将上述三个文件放入conf目录
如果hive的metastore是mysql数据库,需要将mysql驱动放到项目的类路径下
val spark = SparkSession .builder() .master("local[*]") &n |