package spark does not exist



我刚开始学Java。

我使用IntelliJ创建一个SparkJava(见:sparkjava.com)应用程序使用openjdk 17。我遵循了"用maven设置Spark"中概述的教程说明。(https://sparkjava.com/tutorials/maven-setup)。我认为这些说明已经过时了,因为它们不起作用。经过一番google搜索,我终于找到了下面的代码和POM.xml。当我构建项目时,我得到一个错误:java: package spark does not exist

我不知道该怎么办。

  • 我将依赖项添加到我的POM.xml中。我通过Project Structure添加了apache.spark.core_2.13库。

我搜索了"IntelliJ包不存在";但找不到一个有用的答案。大多数人都说"将依赖项添加到pom中"。但我已经做过了。我在谷歌上搜索了"add package to Java project intellij";但在点击了一些链接后,我找不到一个有用的答案。我试了一些建议,但没有一个能解决这个问题。

我想我在这里错过了一些基本的东西,就像我没有告诉IntelliJ在哪里找到spark代码。

src/主/java/Sparky.java

import static spark.Spark.*;
public class Sparky {
public static void main(String[] args){
get("/hello", (req, res) -> "Hello World");
}
}

pom.xml

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<groupId>org.example</groupId>
<artifactId>sparky</artifactId>
<version>1.0-SNAPSHOT</version>
<properties>
<maven.compiler.source>17</maven.compiler.source>
<maven.compiler.target>17</maven.compiler.target>
</properties>
<!-- https://mvnrepository.com/artifact/org.apache.spark/spark-core -->
<dependencies>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.13</artifactId>
<version>3.2.0</version>
</dependency>
</dependencies>

我猜你没有为Maven正确配置IntelliJ。要么您的项目不是Maven项目(就IntelliJ而言,即使项目的结构对Maven有效),要么您缺少IntelliJ插件或其他东西。查看IntelliJ的文档,了解如何创建和管理Maven项目。

依赖包完全错误。它指向Apache Spark,而不是Spark Java。

<dependency>
<groupId>com.sparkjava</groupId>
<artifactId>spark-core</artifactId>
<version>2.9.3</version>
</dependency>

相关内容

  • 没有找到相关文章

最新更新