我现在处于亏损状态。我正在尝试使用Spark 2.4 + Livy Server 0.5.0在Apache HUE 4.3上运行PySpark / SparkR。我已经按照我能找到的每一个指南,但我一直在讨论这个问题。基本上,我可以通过命令行运行PySpark / SparkR,但由于某种原因,HUE执行以下操作:
spark-defaults.conf
,livy.conf
和livy-client.conf
)print(1+1)
),我得到了InterpreterError: Fail to start interpreter
我可以提供任何配置。这让我非常疯狂。
我也无法通过REST API与PySpark交互,相同的InterpreterError。这让我相信它比HUE更基于Livy Server。
弄清楚了。我试图在cluster
模式下在YARN上运行Spark,然后我切换到client
并修复它。必须是群集计算机上错过的引用/文件。