azure pyspark对Dataframe列类型进行转换

今天碰到需要对dataframe的类型转换,一下不记得了,找来找去浪费时间,还不准。百度一堆不准。话说GPT都出来这么长时间,CSDN都有合作的了,为什么百度的答案还不如CSDN的GPT(收费很不喜欢这点,拿我们的博客训练的结果反过来收我们的会员钱)

# 1、引入
from pyspark.sql.types import IntegerType, BooleanType, DateType, ArrayType,StringType
from pyspark.sql.functions import get_json_object, col, regexp_replace, concat, lit, to_json
# int
cdf = cdf.withColumn("YEAR",col("YEAR").cast("int"))
#string
cdf = cdf.withColumn("DATA_DATE",col("DATA_DATE").cast("string"))
# double/float
cdf = cdf.withColumn("SIX_INDEX",col("SIX_INDEX").cast("decimal(10,2)"))


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值