项目场景:
Spark中DataFrame的导包问题
问题描述:
Exception in thread "main" java.lang.NoSuchMethodError: org.apache.spark.internal.config.package$.SHUFFLE_SPILL_NUM_ELEMENTS_FORCE_SPILL_THRESHOLD()Lorg/apache/spark/internal/config/ConfigEntry; at org.apache.spark.sql.internal.SQLConf$.(SQLConf.scala:1205) at org.apache.spark.sql.internal.SQLConf$.(SQLConf.scala) at org.apache.spark.sql.internal.StaticSQLConf$.(StaticSQLConf.scala:31) at org.apache.spark.sql.internal.StaticSQLConf$.(StaticSQLConf.scala) at org.apache.spark.sql.SparkSession$Builder.getOrCreate(SparkSession.scala:940) at com.Spark.SparkList$.main(SparkList.scala:13) at com.Spark.SparkList.main(SparkList.scala)原因分析:
这个问题可能是因为导入包的版本不一致所导致的,所以我们可以查看解决方案里面的这几个版主是否一致。
解决方案:
通过修改后:
从而将这个问题解决了。
总结:凡是遇到这个的问题查看我圈出的三个包对应的版本是否一致。