我不断收到错误:value max is not a member of org.apache.spark.sql.DataFrame on Spark Scala

问题描述 投票:0回答:1

所以我尝试在 DataProc 上使用 Spark Scala 评估数据集。我需要找到最大值和其他等等,但每次我尝试使用简单的命令找到最大值时,我总是收到错误。

这是我一直在尝试的:

println("max lifetime gross : "+ lifetime_gross.max())

但这就是我不断得到的:

<console>:24: error: value max is not a member of org.apache.spark.sql.DataFrame println("max lifetime gross : "+ lifetime_gross.max())

有人知道我做错了什么吗?

scala apache-spark hadoop
1个回答
0
投票

你试过这个吗,我发现问题和你的很相似

这也是一个类似的情况: https://stackoverflow.com/a/49701559/22262680

© www.soinside.com 2019 - 2024. All rights reserved.