spark-submit \
--executor-memory 8G \
--conf spark.target.date=${dt} \
--conf spark.ui.retainedTasks=50000 \
--driver-memory 4G \
--master yarn \
--class com.cifi.zhyc.SparkImportMcYanPan\
--deploy-mode client \
/home/hadoop/software/JsonSpark.jar (--jars是引入jar用的 不用这个参数)
另外:上面所有的参数都不用引号包起来
参考下下面的
spark-submit \
--executor-memory 8G \
--conf spark.source=prd \
--conf spark.target=uat \
--conf spark.city=上海 \
--driver-memory 4G \
--master yarn \
--class com.cifi.SparkEtlPgToReport \
--deploy-mode client \
/home/biadmin/SparkDataTool-1.0-jar-with-dependencies.jar
package com.cifi.zhyc
import java.io.{BufferedReader, InputStreamReader}
import java.util.Properties
import org.apache.spark.sql.SparkSession
/*
包括内容有简单的spark-sql