Eclipse 在添加 Spark 函数时未检测到 Java main() 函数



我正在使用java测试Spark,在使用Eclipse运行程序时遇到了一些问题。

测试代码如下:

package projet1;

import org.apache.log4j.Level;
import org.apache.log4j.Logger;
import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
public class projet1 {
    public static void main(String[] args) {
    System.out.println("Hello world");
    System.setProperty("hadoop.home.dir", "/home/user1/Spark_Projects");
    Logger.getLogger("org.apache").setLevel(Level.WARN);
    SparkConf conf = new SparkConf().setAppName("SiravPg").setMaster("local[*]");
    JavaSparkContext sc = new JavaSparkContext(conf);
    JavaRDD<String> myRDD = sc.textFile("src/main/ressources/data.txt")
    sc.close();
    }
}

运行此代码时,eclipse 似乎没有检测到我的 main() 函数,并显示一个新窗口,要求我选择一个 Java 应用程序

爪哇应用程序

PS : "System.out.println("Hello world");"运行正常。

此问题的解决方案是从显示的列表中选择要运行的类,在我的情况下,我选择 project1 并单击确定按钮。

只需使用公共静态 void main(String[] args) 而不是公共静态 void final main(String[] args)。

最新更新