我正在尝试使用mapreduce运行非常简单的任务。
mapper.朋友:
#!/usr/bin/env python
import sys
for line in sys.stdin:
print line
我的txt文件:
qwerty
asdfgh
zxc
运行作业的命令行:
hadoop jar /usr/lib/hadoop-0.20-mapreduce/contrib/streaming/hadoop-streaming-2.6.0-mr1-cdh5.8.0.jar \
-input /user/cloudera/In/test.txt \
-output /user/cloudera/test \
-mapper /home/cloudera/Documents/map.py \
-file /home/cloudera/Documents/map.py
错误:
INFO mapreduce.Job: Task Id : attempt_1490617885665_0008_m_000001_0, Status : FAILED
Error: java.lang.RuntimeException: PipeMapRed.waitOutputThreads(): subprocess failed with code 127
at org.apache.hadoop.streaming.PipeMapRed.waitOutputThreads(PipeMapRed.java:325)
at org.apache.hadoop.streaming.PipeMapRed.mapRedFinished(PipeMapRed.java:538)
at org.apache.hadoop.streaming.PipeMapper.close(PipeMapper.java:130)
at org.apache.hadoop.mapred.MapRunner.run(MapRunner.java:61)
at org.apache.hadoop.streaming.PipeMapRunner.run(PipeMapRunner.java:34)
at org.apache.hadoop.mapred.MapTask.runOldMapper(MapTask.java:453)
at org.apache.hadoop.mapred.MapTask.run(MapTask.java:343)
at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:164)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:415)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1693)
at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:158)
如何解决这个问题并运行代码?当我使用cat /home/cloudera/Documents/test.txt | python /home/cloudera/Documents/map.py
它工作正常
!!!!! UPDATE
我的* .py文件有问题。我从github'tom white hadoop book'复制了文件,一切正常。
但我不明白是什么原因。它不是权限和字符集(如果我没有错)。还有什么呢?
在-mapper
参数中,您应该设置命令,以便在群集节点上运行。所以那里没有/home/cloudera/Documents/map.py文件。使用-files
选项传递的文件放在工作目录中,因此您可以通过以下方式使用它:./map.py
我不记得为此文件设置了哪些权限,因此如果没有执行权限,请将其用作python map.py
所以完整的命令是
hadoop jar /usr/lib/hadoop-0.20-mapreduce/contrib/streaming/hadoop-streaming-2.6.0-mr1-cdh5.8.0.jar \
-input /user/cloudera/In/test.txt \
-output /user/cloudera/test \
-mapper "python map.py" \
-file /home/cloudera/Documents/map.py
您在mapper.py或reducer.py中有错误。例如:
#!/usr/bin/env python
。首先检查python --version
。如果python --version
的输出是
Command 'python' not found, but can be installed with:
sudo apt install python3
sudo apt install python
sudo apt install python-minimal
You also have python3 installed, you can run 'python3' instead.
使用sudo apt install python
安装python并运行你的hadoop作业
在我的电脑上它工作,最后它的工作