如何修复Spark错误:not found: value Spark ?



我在linux操作系统上有2.2.0版本的Spark。今天我用spark-shell启动它,依次输入以下代码:import org.apache.spark.rdd.RDD
val rootPath: String = _
val file: String = s"${rootPath}/mytext.txt"
val lineRDD: RDD[String] = spark.sparkContext.textFile(file)并抛出以下错误:
错误:not found: value spark
我该怎么做来修复它?提前感谢

spark上下文是你在程序中创建的对象,它不是包的一部分。

在spark shell中已经为您创建了一个上下文,称为sc

当你想在shell中访问spark context时你可以写

sc.textFile(file)