自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 收藏
  • 关注

原创 代码随想录训练Day7[哈希表]

给定四个包含整数的数组列表 A , B , C , D ,计算有多少个元组 (i, j, k, l) ,使得 A[i] + B[j] + C[k] + D[l] = 0。两个两个找给定一个赎金信 (ransom) 字符串和一个杂志(magazine)字符串,判断第一个字符串 ransom 能不能由第二个字符串 magazines 里面的字符构成。如果可以构成,返回 true;否则返回 false。

2025-05-22 10:08:06 206

原创 代码随想录训练Day6[哈希表]

给定两个字符串 s 和 t ,编写一个函数来判断 t 是否是 s 的字母异位词。思路:先定义一个结果数组[26](因为只有小写字母),遍历第一个字符串,用字母 - ‘a’ 当作索引,如果有将num++;遍历第二个数组,如果有就num–;最后遍历数组,如果有一个不是0,则为false。

2025-05-22 10:06:28 133

原创 代码随想录训练Day4[链表]

给你一个链表,两两交换其中相邻的节点,并返回交换后链表的头节点。你必须在不修改节点内部的值的情况下完成本题(即,只能进行节点交换)。,请你找出并返回两个单链表相交的起始节点。如果两个链表没有交点,返回。让两个指针同时移动,如果一个指针移动到头,那就将他转到另一个。,返回链表开始入环的第一个节点。给你一个链表,删除链表的倒数第。个结点,并且返回链表的头结点。给你两个单链表的头节点。给定一个链表的头节点。如果链表无环,则返回。

2025-05-18 01:02:25 423

原创 代码随想录训练Day3[链表]

好吧,好久没写了,好多东西都忘记了,想用之前的解法,怎么都没想起来,直接看答案了。注意curr ,pre 作为指针直接等于节点 还有递归的解法。有好多边界调节没处理到位,调试了好久。加入虚拟头节点后可以统一删除操作。,请你删除链表中所有满足。给你一个链表的头节点。

2025-05-18 01:01:34 219

原创 代码随想录训练Day2[数组02]

滑动窗口:思路: 子数组的长度会不断变更, 可能在中间,可能 在两边,也可能在中间,所以要是值一个值和每次产生的子数组长度作比较。依旧是两重循环,一重循环来遍历整个数组,第二重循环,来寻找字串的位置。首先我没搞懂要循环几次,也就是while() 中的条件,应该是n/2 , 但首先考虑到n 分奇偶,如果是奇数,就会留下中间的位置,在最后判断如果是奇数就对填充的数组单独的赋值,也就是nums[n/2,n/2] = n* n;

2025-05-16 01:17:03 257

原创 Day1.代码随想录数组

注意边界条件,我这里用了[,) 那么left = right 就是不合法的,因为下一次搜索的值不包含nums[mid],所以right = middle;关键在于两重循环,第一重循环遍历所有数组的值,当查询到值时,就启动第二重循环来将数组整体向前移动1,因为整体向前移动1,所有size-1.首先定义左右指针,然后判断左右指针的值那个大,如果大的就填入新数组的最后,并将大的那边的指针移动。​ 慢指针:用来和快指针交换,如果快指针是目标值就不会交换。​ 快指针:遍历整个数组,找到目标元素。

2025-05-14 18:42:31 239

原创 Kafka概念初识

前置知识 消息队列MQ。

2024-07-23 16:12:34 2105

原创 spark 处理json文件时几种常用函数

spark 处理json的常用函数

2024-07-17 15:13:58 1060

原创 Apache Spark使用udf对象注册函数和普通定义的函数

/ 函数体// 最后一行表达式的值将作为返回值普通定义的函数:只能在DataFrame API中使用,不能直接在SQL查询中使用。普通定义的函数:在DataFrame API中使用时,Spark的Catalyst优化器可以对其进行优化。普通定义的函数:在DataFrame API中使用时,类型检查在编译时进行。使用udf对象注册的函数和普通定义的函数各有优缺点。如果你需要在SQL查询中使用自定义逻辑,那么使用udf对象注册的函数是必要的。

2024-07-16 15:33:44 886

原创 将spark计算结果导出或读取

配置连接属性。

2024-07-15 19:23:44 475

原创 spark持久化,行动算子与转化算子

1.Spark Persist是一种将数据持久化到内存中的操作,以便在后续的计算中重复使用。它可以提高计算性能,减少数据读取和写入的开销。

2024-07-15 18:47:11 415

原创 RDD、DataFrame和Dataset的关系

简而言之:DataFrame = RDD(row) + schema(表结构)dataset [row] = DataFrame

2024-07-15 17:04:12 141

原创 将Spark RDD转换为Spark DataFrame有几种常见方法

不规定列名,程序会自动给。

2024-07-15 16:29:07 487

原创 spark与scala版本对应关系

scala 安装网站(

2024-07-15 15:33:49 1432

原创 spark练习2

统计每个国家在数据截止统计时的累计确诊人数。(9 分)

2024-07-11 16:31:56 280

原创 spark练习

③统计每个店铺销售额最高的前三个商品,输出内容包括店铺名,商品名和销售额,其中销售额为 0 的商品不进行统计计算,例如:如果某个店铺销售为 0 ,则不进行统计。用try(.....).toOption.getOrElse(0.0)补充:import scal.util. 防止转化时出现异常。如果todouble 和toInt 报错。

2024-07-09 16:16:06 249

原创 7-9Spark算子和sparksql读表时去除表头

/filter 算子过滤val spuRDD = fileRDD.filter(x=>x.startsWith("spu_id")==false)spark 算子利用filter 算子过滤。sparksql 读表的时候直接去除。

2024-07-09 14:58:41 200

spark练习2 hadoop+hive+hbase

spark练习2 hadoop+hive+hbase

2024-07-11

spark 处理json文件时几种常用函数

spark 处理json文件时几种常用函数

2024-07-17

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除