所以我尝试在 DataProc 上使用 Spark Scala 评估数据集。我需要找到最大值和其他等等,但每次我尝试使用简单的命令找到最大值时,我总是收到错误。
这是我一直在尝试的:
println("max lifetime gross : "+ lifetime_gross.max())
但这就是我不断得到的:
<console>:24: error: value max is not a member of org.apache.spark.sql.DataFrame println("max lifetime gross : "+ lifetime_gross.max())
有人知道我做错了什么吗?
你试过这个吗,我发现问题和你的很相似
这也是一个类似的情况: https://stackoverflow.com/a/49701559/22262680