Spark 安装内存问题



这个问题已经被问过了,但我仍然面临问题。

hduser@sanjeebpanda-VirtualBox:/usr/local/spark$ sbt/sbt assembly

使用/usr/lib/jvm/java-7-openjdk-i386作为默认JAVA_HOME。

请注意,如果设置了,这将被 -java-home 覆盖。

Error occurred during initialization of VM
Could not reserve enough space for object heap
Error: Could not create the Java Virtual Machine.
Error: A fatal exception has occurred. Program will exit.

问候桑吉布

错误消息

似乎在说机器上没有足够的内存来分配必要的 Java 堆空间。

我会检查 ~/.sbtconfig 以查看 Xmx 和 Xms 值的设置,并尝试降低这些值。虽然由于这些是默认值,它可能会导致您其他问题。

最好的解决方案是使用另一台具有更大可用内存的计算机。

干杯

好的,我在安装 Spark 时遇到了同样的问题。设置_JAVA_OPTIONS后,它可以工作。

以下是我使用的内容。根据您的计算机更改内存大小:

export _JAVA_OPTIONS='-Xmx128M -Xmx256M'

最新更新