之前,RDD语法占主导,但是比较难用难学. 现在,有了DataFrame,更容易操作和使用spark. 文章目录 创建DataFrame 创建DataFrame(指定Schema) 创建DataFrame from pyspark.sql import SparkSession # 新建一个session spark = SparkSession.builder.appName('Basics').getOrCreate() # 导入数据 df = spark.read