我正在关注Beeren Sahu在Tensorflow中使用DeepLab的指南:https://beerensahu.wordpress.com/2018/04/17/guide-for-using-deeplab-in-tensorflow/
我正在尝试使用DeepLab模型在TensorFlow中进行语义分割。我在这里下载了DeepLab代码:https://github.com/tensorflow/models
运行后:
hpcsub -cmd python3.4 model_test.py
我收到以下错误:
Traceback (most recent call last):
File "model_test.py", line 20, in <module>
from deeplab import common
ImportError: No module named 'deeplab'
基本上抱怨model_test.py中的第20行:
from deeplab import common
我知道这是一个'deeplab'依赖错误,但我不知道如何解决它。正如Sahu的教程推荐的那样,我添加了以下两个库:
# From tensorflow/models/research/
export PYTHONPATH=$PYTHONPATH:`pwd`:`pwd`/slim
export PYTHONPATH=$PYTHONPATH:`pwd`:`pwd`/deeplab
使用这两个导出命令,我仍然得到相同的结果。
我在Github上找到了其他类似问题,但他们还没有找到解决方案:1-- https://github.com/tensorflow/models/issues/5214 2-- https://github.com/tensorflow/models/issues/4364
如果您没有解决方案,但可以推荐使用Google的开源DeepLab-v3进行语义图像分割的有用教程,请分享!!
您当前工作目录的路径是什么?
您需要从tensorflow / model / research目录运行export命令和脚本。
$ cd /path/to/tensorflow
$ cd models/research
$ export PYTHONPATH=$PYTHONPATH:`pwd`:`pwd`/slim
$ export PYTHONPATH=$PYTHONPATH:`pwd`:`pwd`/deeplab
$ python deeplab/model_test.py
这个脚本的输出就是这样的。
.....
----------------------------------------------------------------------
Ran 5 tests in 19.040s
OK