使用MKL时AVX2和AVX512之间没有太大区别?

问题描述 投票:1回答:1

CPU环境:Intel(R)Xeon(R)Gold 6148 CPU @ 2.40GHz

首先,我使用pip install tensorflow==1.12.0安装tensorflow,并下载tensorflow-benchmark

运行1:export MKL_VERBOSE=0;export MKL_ENABLE_INSTRUCTIONS=AVX512;python tf_cnn_benchmarks.py --device=cpu --data_format=NHWC --model=alexnet --batch_size=8

跑2:export MKL_VERBOSE=0;export MKL_ENABLE_INSTRUCTIONS=AVX2;python tf_cnn_benchmarks.py --device=cpu --data_format=NHWC --model=alexnet --batch_size=8

速度差不多!!!我还改变了不同的模型和batch_size。

其次,我还用mkl测试caffe编译。我发现MKL_ENABLE_INSTRUCTIONS=AVX512的效果不如MKL_ENABLE_INSTRUCTIONS=AVX2

为什么?

performance tensorflow intel intel-mkl avx512
1个回答
1
投票

我假设您的意图是使用MKLDNN测试TensorFlow加速。与传统的MKL lib不同,此lib具有仅适用于DL操作的数学加速。但是,MKL和MKLDNN这两个术语显然可以在英特尔优化的TensorFlow中互换使用,尽管它与英特尔MKLDNN一起加速。所以现在回答你的问题,MKLDNN lib不支持控制ISA调度的功能。

顺便说一句,pip install Tensorflow安装谷歌的官方张量流程库,没有MKL加速。要获得英特尔优化的TensorFlow,请参阅安装指南:https://software.intel.com/en-us/articles/intel-optimization-for-tensorflow-installation-guide。要检查构建中是否启用了MKLDNN,请使用命令export MKLDNN_VERSBOSE=1而不是MKL_VERBOSE=1

© www.soinside.com 2019 - 2024. All rights reserved.