spark-shell总是显示spark的旧版本



我运行的是macOS,我有两个版本的Spark: 3.2.1和3.2.0。我手动下载了3.2.0,使用sdkman下载的旧版本是3.2.1。我想切换到3.2.0,所以我更新了我的SPARK HOME .zshrc文件如下所示,我评论(也试图删除)旧版本3.2.1,但当我运行SPARK -shell -version时,它仍然显示旧版本。

我也试过如下:我删除了旧的SPARK_HOME,只保留了新的SPARK_HOME。我更新了。zshrc文件使用,源~/.zshrc我尝试在.bash_profile下添加SPARK_HOME我已经从所有地方完全删除了SPARK_HOME,但它仍然显示旧版本3.2.1

vim ~/.zshrc                                  
export JAVA_HOME=/Library/Java/JavaVirtualMachines/adoptopenjdk-8.jdk/Contents/Home
#export SPARK_HOME=/Users/A2001/.sdkman/candidates/spark/3.2.1
export SPARK_HOME=/Users/A2001/Downloads/spark-3.2.0-bin-hadoop3.2
export MAVEN_HOME=~/apache-maven-3.8.6
export PATH=$PATH:$SPARK_HOME/bin/:$SPARK_HOME/sbin:$MAVEN_HOME/bin

输出:

spark-shell——版本

版本3.2.1

期望0/p:版本3.2.0

我想根据用例频繁地切换新版本和旧版本

更新SPARK_HOME, Source .zshrc/。Bash_profile并关闭/重新启动终端,它将工作

最新更新