group by后面加两个参数的sql

文章介绍了如何使用SparkSQL进行多字段分组统计,例如按月份和商品ID来计算每个商品每月的出现次数,从而找出热门商品。这种方法通过两次分组细化数据,然后应用count等聚合函数,帮助分析最近的热门趋势。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档


前言

提示:这里可以添加本文要记录的大概内容:

我用spark统计最近热门商品时遇到group by后面加两个参数的sql,平时我们都是用一个参数,所以就探究了一下


提示:以下是本篇文章正文内容,下面案例可供参考

一、统计每个月每个商品的个数

代码如下(示例):

spark.sql.(
"select goodsId, count(asin) as count, monthTime 
from goods 
group by monthTime, goodsId
order by monthTime desc, count desc")

我们可以看到加了两个参数:
他的意思就是先按每个月分组,再按商品id分组,类似于将蛋糕切两刀就分组的更加细,再对id统计就是最近时间的最多的商品
在这里插入图片描述

二、其他文章可参考

https://segmentfault.com/a/1190000006821331

总结

分组有先后,group by通常伴随着聚合函数使用(sum,count,avg等)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值