提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档
前言
提示:这里可以添加本文要记录的大概内容:
我用spark统计最近热门商品时遇到group by后面加两个参数的sql,平时我们都是用一个参数,所以就探究了一下
提示:以下是本篇文章正文内容,下面案例可供参考
一、统计每个月每个商品的个数
代码如下(示例):
spark.sql.(
"select goodsId, count(asin) as count, monthTime
from goods
group by monthTime, goodsId
order by monthTime desc, count desc")
我们可以看到加了两个参数:
他的意思就是先按每个月分组,再按商品id分组,类似于将蛋糕切两刀就分组的更加细,再对id统计就是最近时间的最多的商品
二、其他文章可参考
https://segmentfault.com/a/1190000006821331
总结
分组有先后,group by通常伴随着聚合函数使用(sum,count,avg等)