我正在使用用于Google Cloud Dataproc的Python客户端库来运行一个脚本,该cloug dataproc自动提供群集,提交作业等。但是,在尝试提交作业时,它会以ImportError: no module named pandas
返回。我导入大熊猫以及作业运行的脚本中的其他几个软件包。我不确定如何解决这个问题。
那么这有意义吗?
#!/bin/bash
ROLE=$(/usr/share/google/get_metadata_value attributes/dataproc-role)
if [[ "${ROLE}" == 'Master' ]]; then
apt-get install python-pandas -y
apt-get install python-numpy -y
apt-get install g++ cmake
apt-get install python-math
apt-get install python-argparse
apt-get install python-os
apt-get install python-sys
apt-get install python-glob
apt-get install python-gzip
apt-get install python-hail
fi
这是我更新的bash脚本:
#!/bin/bash
list= "python-pandas, python-numpy, python-argparse"
ROLE=$(/usr/share/google/get_metadata_value attributes/dataproc-role)
if [[ "${ROLE}" == 'Master' ]]; then
for i in $list; do
sudo apt-get install -y $i
done
wget -P /home/anaconda2/ https://repo.continuum.io/archive/Anaconda2-4.3.1-Linux-x86_64.sh
bash /home/anaconda2/Anaconda2-4.3.1-Linux-x86_64.sh -b -f -p /home/anaconda2/
chmod /home/anaconda2 0777
/home/anaconda2/bin/pip install lxml
/home/anaconda2/bin/pip install jupyter-spark
/home/anaconda2/bin/pip install jgscm
fi
pands默认未在DataProc上安装。您可以通过类似于此的初始化操作安装自定义Python库。
供参考,我已经运行以下操作只是为了验证熊猫至少在一个节点上找到:
#!/usr/bin/python
import pyspark
import pandas
sc = pyspark.SparkContext()
vals = sc.parallelize(xrange(1, 100))
reprs = vals.mapPartitions(lambda es: [repr(pandas) for e in es])
for r in reprs.collect():
print r
我的初始化动作就是简单的:
#!/bin/bash
apt-get install python-pandas python-numpy -y