C:\ spark \ spark \ hadoop \ bin> spark-shell无法将“ cmd”识别为内部或外部命令,可操作的程序或批处理文件。
您需要在spark-shell
环境变量中添加PATH
脚本位置。在Internet上查看如何在Windows上为Spark添加环境变量。
或者如果当前目录中存在脚本spark-shell.cmd
,请使用spark-shell.cmd
命令调用它。
这可能是您的%PATH%
环境变量的问题。检查C:\WINDOWS\System32
是否在路径中。
要修改PATH,请打开运行菜单(Windows + R),键入SYSDM.CPL
,然后按Enter。在这里,单击“高级”菜单,然后选择“环境变量”
在用户环境变量中,选择PATH并单击Edit。单击“添加”,放置文件夹的路径(在您的情况下为C:\spark\spark\hadoop\bin
),然后单击“确定”。在此,单击“确定”再次关闭该框,然后可以关闭该窗口。重新启动CMD,这应该可以工作