Pyspark 安装错误:没有名为"pyspark"的模块



我希望在不使用 pip 的情况下安装 pyspark 模块。 我已经完成了所有安装步骤,但我仍然没有得到名为"pyspark"的模块。

我已经从 https://spark.apache.org 下载了 apache spark

我还关注了:

  • https://www.youtube.com/watch?v=iarn1KHeouc&list=PLot-YkcC7wZ_2sxmRTZr2c121rjcaleqv&index=3
  • https://medium.com/@GalarnykMichael/install-spark-on-windows-pyspark-4498a5d8d66c

这是错误图像

看看 https://medium.com/big-data-engineering/how-to-install-apache-spark-2-x-in-your-pc-e2047246ffc3。它适用于Windows平台,也与Jupyter Notebook兼容。

最新更新