C:\ spark \ spark \ hadoop \ bin> spark-shell'cmd'不被识别为内部或外部命令,可操作程序或批处理文件

问题描述 投票:-1回答:2

C:\ spark \ spark \ hadoop \ bin> spark-shell无法将“ cmd”识别为内部或外部命令,可操作的程序或批处理文件。

scala apache-spark
2个回答
0
投票

您需要在spark-shell环境变量中添加PATH脚本位置。在Internet上查看如何在Windows上为Spark添加环境变量。

或者如果当前目录中存在脚本spark-shell.cmd,请使用spark-shell.cmd命令调用它。


0
投票

这可能是您的%PATH%环境变量的问题。检查C:\WINDOWS\System32是否在路径中。

编辑:

要修改PATH,请打开运行菜单(Windows + R),键入SYSDM.CPL,然后按Enter。在这里,单击“高级”菜单,然后选择“环境变量”

在用户环境变量中,选择PATH并单击Edit。单击“添加”,放置文件夹的路径(在您的情况下为C:\spark\spark\hadoop\bin),然后单击“确定”。在此,单击“确定”再次关闭该框,然后可以关闭该窗口。重新启动CMD,这应该可以工作

© www.soinside.com 2019 - 2024. All rights reserved.