spark-sql 参数配置与调优

动态分区配置

set hive.exec.dynamic.partition=true; --开启动态分区
set hive.exec.dynamic.partition.mode=nonstrict; --允许所有分区是动态的
set hive.exec.max.dynamic.partitions.pernode=1000; --每个mapper/reducer可以创建的最大动态分区数
–set hive.exec.dynamic.partitions=10000; 这个可不要

设置计算引擎

set hive.execution.engine=spark;

设置spark提交模式

set spark.master=yarn-cluster;

设置作业名称

set spark.app.name=${name};

开启笛卡尔积

set spark.sql.crossJoin.enabled =true

spark精度丢失,导致列查询为null的解决办法

默认是true
设置成false
set spark.sql.decimalOperations.allowPrecisionLoss = false

开启动态资源分配

set spark.dynamicAllocation.enabled = true //开启动态资源分配
set spark.dynamicAllocation.minExecutors=1 //每个Application最⼩分配的executor数
set spark.dynamicAllocation.maxExecutors =20 //每个Application最⼤并发分配的executor数

配置广播变量

set spark.sql.autoBroadcastJoinThreshold 默认是开启的 1010241024
禁用 设置为-1

设置执行器内存

set spark.executor.memory=8G

设置限制 Spark 驱动程序(driver)在向客户端返回结果时的最大大小

set spark.driver.maxResultSize=2G

设置并行度

spark.default.parallelism对于处理RDD有效;
spark.sql.shuffle.partitions

该参数用于设置Spark作业总共要用多少个Executor进程来执行

set spark.executor.instances=25;

设置执行器计算核个数

set spark.executor.cores=4;

设置每个executor的jvm堆外内存

set spark.yarn.executor.memoryOverhead=2048;

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值