我使用的Java测试Spark和使用Eclipse运行我的程序时遇到了一些问题。
测试代码如下:
package projet1;
import org.apache.log4j.Level;
import org.apache.log4j.Logger;
import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
public class projet1 {
public static void main(String[] args) {
System.out.println("Hello world");
System.setProperty("hadoop.home.dir", "/home/user1/Spark_Projects");
Logger.getLogger("org.apache").setLevel(Level.WARN);
SparkConf conf = new SparkConf().setAppName("SiravPg").setMaster("local[*]");
JavaSparkContext sc = new JavaSparkContext(conf);
JavaRDD<String> myRDD = sc.textFile("src/main/ressources/data.txt")
sc.close();
}
}
当运行此代码,似乎日食不检测我的main()函数,并显示一个新的窗口,询问我选择Java应用程序
PS:本 “的System.out.println(” 世界,你好 “);”运行正常。
这个问题的解决方法是选择类从显示的列表中,在我的情况下,我选择Project并点击OK按钮运行。
只要使用公共静态无效的主要(字串[] args),而不是公共静态无效最终主要(字串[] args)。