我们的spark作业在spark集群上运行,但是尝试运行spark作业的spark执行程序正在发现类未找到异常,这是非常确定包含该类的jar已加载,因此无法理解为什么会出现此异常即将到来,是classloader试图加载一些其他的jar吗?如果是,他们正在看哪个罐子吗?
我想您可以使用-verbose:class来启动您的应用并查看详细的日志How to Use Verbose Options in Java
-verbose:class