我正在尝试通过Java代码进行spark-submit。我指的是下面的例子。
https://github.com/mahmoudparsian/data-algorithms-book/blob/master/misc/how-to-submit-spark-job-to-yarn-from-java-code.md
但我得到
The constructor ClientArguments(String[], SparkConf) is undefined
这是我的密码。
import org.apache.spark.deploy.yarn.Client;
import org.apache.spark.deploy.yarn.ClientArguments;
import org.apache.hadoop.conf.Configuration;
import org.apache.spark.SparkConf;
public class SparkSubmitJava {
public static void main(String[] arguments) throws Exception {
String[] args = new String[] {"--name", "myname", "--jar", "/home/cloudera/Desktop/ScalaTest.jar", "--class", "ScalaTest.ScalaTest.ScalaTest", "--arg","3", "--arg", "yarn-cluster"};
Configuration config = new Configuration();
System.setProperty("SPARK_YARN_MODE", "true");
SparkConf sparkConf = new SparkConf();
ClientArguments cArgs = new ClientArguments(args, sparkConf); // getting constructor error
Client client = new Client(cArgs, config, sparkConf); // getting constructor error
client.run();
}
}
我的pom.xml依赖部分:
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.3.0</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-yarn_2.9.3</artifactId>
<version>0.8.1-incubating</version>
</dependency>
蚂蚁的帮助将不胜感激。
考虑到您从pom.xml中共享的内容,您的问题是:您使用的是非常旧版本的spark-yarn库0.8.1-incubating
,需要将其替换为spark-core的相应版本。由于您使用的是Spark 1.3,因此这是您需要的依赖项,而不是您正在使用的依赖项:
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-yarn_2.10</artifactId>
<version>1.3.0</version>
</dependency>
其次,您使用的是不兼容版本的库。注意,_2.10
和_2.9.3
是非常重要的。它们允许您使用每个依赖项的特定scala编译版本,因此您应该小心这一点。