我已经明确安装了Java 8 SDK、Scala IDE(修改过的eclipse)、普通的eclipse IDE和sbt,但不是按顺序安装的。我真的不记得我安装这些的顺序了。当我安装了普通的Eclipse IDE和Scala IDE,而不仅仅是命令行工具时,我有点困惑如何设置我的环境变量,因为这些安装似乎与命令行安装不同地组织了语言环境?所以我不是变量指向的对象?
我的理解是CLASS_PATH
环境变量用于用户定义的类,而对于我当前的项目,我没有这些类。除此之外。我有以下环境变量设置我使用的是windows 8 x64。
SBT_HOME = C:Program Files (x86)sbt
JRE_HOME = C:Program FilesJavajre1.8.0_20
JAVA_HOME = C:Program FilesJavajdk1.8.0_20
Path = %JRE_HOME%bin;%JAVA_HOME%bin;C:ProgramDataOracleJavajavapath;C:Program Files (x86)scalabin;C:Program Files (x86)sbtbin;...(only relevant paths shown)
下载并提取Apache Spark 1.1.0并解压缩后,进入未压缩的顶级文件夹~/(apache spark folder)/
,并尝试运行其中的sbt/sbt assembly
时,我使用cygwin命令提示符收到以下错误。
[error] (streaming-flume-sink/compile:compile) java.io.IOException: Cannot run p
rogram "javac": CreateProcess error=2, The system cannot find the file specified
[error] (core/compile:compile) java.io.IOException: Cannot run program "javac":
CreateProcess error=2, The system cannot find the file specified
[error] Total time: 551 s, completed Oct 28, 2014 5:24:00 PM
因此,错误似乎是我无法在cygwin中运行javac
。嗯,我不能。所以我也尝试了windows提示符,在那里我的命令javac
实际上是有效的(因为enviro变量已经设置好了)。当我再次尝试时,我得到了以下错误
`sbt/sbt assembly`.
C:Program Files (x86)spark-1.1.0>sbtsbt assembly
'sbtsbt' is not recognized as an internal or external command,
operable program or batch file.
>sbt/sbt assembly
Java HotSpot(TM) 64-Bit Server VM warning: ignoring option MaxPermSize=256m; sup
port was removed in 8.0
[info] Loading project definition from C:Program Files (x86)spark-1.1.0projectprojec
t
[info] Loading project definition from C:Usersjim.sbt .13stagingec3aa8f391
11944cc5f2sbt-pom-readerproject
[warn] Multiple resolvers having different access mechanism configured with same
name 'sbt-plugin-releases'. To avoid conflict, Remove duplicate project resolve
rs (`resolvers`) or rename publishing resolver (`publishTo`).
[info] Loading project definition from C:Program Files (x86)spark-1.1.0project
[error] Expected symbol
[error] Not a valid command: /
[error] /sbt
[error] ^
但同一命令的各种变体也不起作用,切换出斜杠类型(sbtsbt assembly
)。
我还在一个没有空格的文件夹中找到了火花:C:Program Files (x86)spark
。
在tarnation中,我需要做什么来组装/编译Spark?
非常感谢。
在Windows8中遇到同样的问题,以下步骤修复了问题
- 创建一个没有空间的文件夹并复制Program Files/Java中的内容
- 将PATH和JAVA_HOME更新为新路径
- 启动Cygwin并尝试运行javac命令以确保环境变量设置正确
- 虽然与这个问题无关,但ScalaInstalled目录不应该有任何空间。我看到您已安装在程序文件中