我正在尝试使用 intellij 在 spark-scala 中运行基本程序。当我运行我的代码时,出现以下错误,如“java.io.IOException: Could not locate executable C:\spark in in\ Hadoop 二进制文件中的 winutils.exe。”我尝试了很多东西,但都累了。我有 我一定犯了一个基本错误,但无法弄清楚它是什么。我已经下载了“spark-3.3.1-bin-hadoop2.tgz”,我已经从 hadoop-2.7.1 下载了 winutils.exe
我已经尝试了一切,比如交叉检查环境变量。因为我在我的 spark-scala 应用程序中硬编码了 winutils.exe 的路径。但我无法找出错误。我附上了下面的所有屏幕截图,请查看它. 这是我的文件夹,其中存在 winutils.exe () () 我从这里下载了 winutils.exe hadoop-2.7.1